LinkedIn e AI: dal 3 novembre 2025 i tuoi dati nel training. Ecco come disattivare l’uso e tutelarti
LinkedIn aggiorna le regole: dal 3 novembre 2025 i dati dei profili potranno essere usati per addestrare modelli di intelligenza artificiale. La novità è impostata di default: se non fai nulla, acconsenti. In questo articolo trovi contesto, rischi concreti per professionisti e aziende e la guida pratica per negare il consenso in pochi passaggi. Agisci ora, non quando sarà troppo tardi.
Cosa cambierà dal 3 novembre
LinkedIn, di proprietà Microsoft, userà i dati degli utenti per addestrare modelli di AI. Non parliamo solo di “migliorare l’esperienza” sulla piattaforma, ma di un utilizzo più ampio all’interno dell’ecosistema Microsoft e delle società affiliate, compresa OpenAI. La modifica è attiva in modalità opt-out: se non disattivi esplicitamente l’opzione, i tuoi dati verranno inclusi nel training a partire dal 3 novembre 2025.
La scelta è significativa per due motivi:
- Impatto silenzioso: la maggior parte delle persone non legge le notifiche né controlla le impostazioni. Il risultato? Consenso dato per inerzia.
- Portata dell’uso: i dati possono contribuire a modelli usati anche al di fuori di LinkedIn. Questo amplia il raggio d’azione ben oltre il social professionale.
La notizia è stata riportata anche da testate autorevoli come Il Sole 24 Ore, che evidenzia come molte piattaforme stiano seguendo la stessa direzione: addestrare l’AI con dati pubblici e comportamentali degli utenti per potenziare i propri modelli.
Quali dati rientrano
In base a quanto indicato nelle nuove impostazioni, LinkedIn può utilizzare:
- Informazioni di profilo: job title, bio, competenze, formazione, esperienze.
- Contenuti pubblicati: post, commenti, reazioni.
- Segnali e interazioni: rete di contatti, attività pubblica e segnali d’uso.
Il punto chiave non è solo la tipologia di dato, ma il fatto che, se non ti muovi, diventa materiale per il training dei modelli generativi.
Chi userà questi dati
I dati possono contribuire a modelli AI di LinkedIn, Microsoft e società affiliate (inclusa OpenAI). Non si tratta dunque di un utilizzo confinato al tuo feed o alla tua esperienza sul social: parliamo di addestramento di sistemi generativi che possono essere impiegati in prodotti e servizi diversi. È un cambio di passo che richiede consapevolezza, soprattutto per chi condivide contenuti professionali o aziendali.
Perché questa scelta è un problema
Il tema del consenso (e del default)
Quando il consenso è configurato come opt-out, vince la pigrizia. Non è un dettaglio: la linea tra “uso per migliorare il servizio” e “uso per addestrare modelli venduti o integrati altrove” è sottile, e il cittadino digitale medio non distingue. Risultato: dati di alto valore professionale che finiscono in dataset senza una scelta consapevole.
Rischi concreti per professionisti e aziende
- Perdita di controllo: i contenuti pubblici diventano materiale di training senza compenso né governance.
- Derivazioni non previste: insight, schemi e stili possono essere “assorbiti” dai modelli e riutilizzati in contesti non collegati al tuo profilo.
- Implicazioni di compliance: per team legali e IT, soprattutto in settori regolamentati, è necessario valutare policy interne e informative ai dipendenti.
- Concorrenza informativa: ciò che condividi come “vantaggio competitivo” potrebbe diventare segnale statistico disponibile al modello.
Non è essere contro l’AI: è scegliere come partecipare
L’AI è uno strumento straordinario. Ma c’è una differenza tra usarla e alimentarla con i propri dati per default. Decidere di negare il consenso non significa rifiutare l’innovazione: significa chiedere trasparenza e controllo, soprattutto quando i dati sono professionali e possono impattare business e reputazione.
Come negare il consenso in pochi step
Puoi disattivare l’uso dei tuoi dati per il training in meno di un minuto. Il percorso può variare leggermente tra iOS, Android e desktop, ma i passaggi sono questi:
- Apri LinkedIn (app o desktop) e vai sul tuo profilo.
- Entra in Impostazioni.
- Seleziona Privacy dei dati.
- Cerca la voce Dati per migliorare l’AI generativa.
- Imposta su No: non usare i miei dati personali per addestrare modelli di AI.
Consiglio: fai uno screenshot della schermata, così puoi verificare in futuro se l’impostazione resta invariata dopo eventuali aggiornamenti.
Se gestisci un team o un’azienda
- Informa i dipendenti e invia una breve guida interna per l’opt-out personale.
- Controlla anche le impostazioni della pagina aziendale e le policy di pubblicazione: ciò che è pubblico può finire comunque nei dataset.
- Definisci una policy su cosa condividere in chiaro su LinkedIn (es. evitare dettagli sensibili su processi, roadmap, clienti).
Best practice operative
- Promemoria in agenda prima del 3 novembre per un controllo extra.
- Audit dei contenuti pubblici: rivedi post pinnati, articoli e commenti di rilievo.
- Verifica periodica delle impostazioni di privacy, soprattutto dopo update dell’app.
Domande frequenti (veloci)
- Cosa succede se non faccio nulla? Dal 3 novembre 2025 i tuoi dati potranno essere usati per addestrare modelli di AI.
- L’opt-out incide sulla visibilità dei miei post? LinkedIn non indica impatti sulla reach: l’impostazione riguarda l’uso dei dati per il training, non la distribuzione dei contenuti nel feed.
- Se disattivo ora, devo ricontrollare? Sì, è prudente. Dopo aggiornamenti o nuove policy, verifica che l’opzione resti su “No”.
- L’opt-out vale per tutte le affiliate? L’impostazione è pensata per il training dei modelli legati all’ecosistema. Tuttavia le policy possono evolvere: resta aggiornato e monitora le comunicazioni ufficiali.
Il contesto che spesso ignoriamo: chi controlla cosa
LinkedIn è Microsoft. E Microsoft investe massicciamente in modelli generativi, integrazioni nei propri prodotti e partnership strategiche (OpenAI su tutte). Questo vuol dire che i dati non restano “chiusi” nel recinto del social: possono alimentare capacità che vivi altrove (dall’assistente in chat al suggeritore di testi). È il motivo per cui la discussione sul consenso non è un tecnicismo da smanettoni, ma un tema di governance dei dati.
Il digitale è fatto di collegamenti, accordi e layer che non vediamo. Quando condividi pubblicamente su LinkedIn, non stai solo parlando alla tua rete: stai dialogando con algoritmi che imparano. Scegliere se contribuire o meno al loro addestramento è un atto di consapevolezza. Non cambierà il mondo da solo, ma cambia il modo in cui partecipi al gioco.
Conclusione
Agisci subito: entra nelle impostazioni di LinkedIn, disattiva l’uso dei tuoi dati per l’AI generativa e informa il tuo team. Meglio scegliere adesso che scoprire tra mesi di essere “dentro” per default.
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.