Da oggi, 3 novembre 2025, LinkedIn utilizza i dati degli utenti europei per addestrare modelli di Ai. Una mossa che apre scenari complessi su privacy, carriera e controllo dei propri dati, e richiede una scelta consapevole
Una piattaforma pensata per la carriera e la professionalità entra ora in una fase decisiva del proprio evolversi tecnologico: LinkedIn, dal 3 novembre 2025, inizia a usare i profili, i post, i curricula e l’attività degli utenti europei, britannici e svizzeri per addestrare i suoi modelli di intelligenza artificiale generativa. La decisione è stata comunicata con un aggiornamento delle condizioni d’uso, suscitando attenzione nel mondo della privacy e del lavoro digitale.
Il network professionale, di proprietà di Microsoft Corporation, ha spiegato che la base giuridica per questo utilizzo è il “legittimo interesse”, cioè un fondamento previsto dal Gdpr, il regolamento europeo sulla protezione dei dati, che consente il trattamento delle informazioni senza consenso esplicito, purché vi siano garanzie adeguate.
Ciò significa che gli utenti saranno inclusi automaticamente nell’addestramento dei sistemi, salvo decidano per un’opzione di uscita manuale. Le categorie di dati interessate includono informazioni del profilo (nome, foto, posizione attuale e passata, formazione, competenze), attività pubblica come post, commenti e domande, e in alcuni casi elementi di candidature o risposte a screening. Non verranno utilizzati messaggi privati, dati sulle carte di pagamento, informazioni salariali individuali.
Ma perché LinkedIn accelera su questo fronte? La spiegazione risiede nella crescente integrazione tra rete professionale e intelligenza artificiale: funzionalità come assistenti alla scrittura, suggerimenti di conversazione, matching tra professionisti e offerte di lavoro beneficiano enormemente di dataset ampi e aggiornati. In un mercato in cui l’Ai è fattore competitivo, disporre di dati reali degli utenti, in modo implicito o esplicito, rappresenta un vantaggio strategico.
LinkedIn e Ai, il ruolo dei dati
Questo modello offre nuove opportunità per innovare l’esperienza utente, ma solleva parallelamente questioni qualitative: quali sono i confini del “dato professionale” utilizzabile e quanto controllo ha l’individuo su se stesso?
Nel contesto italiano ed europeo, l’impatto può essere cruciale. I profili LinkedIn diventano non più solo biglietti da visita, ma elementi utili a costruire algoritmi che possono influenzare candidature, visibilità, networking e opportunità di carriera. Per un professionista o un dipendentee, la possibilità che il proprio percorso formativo o le proprie interazioni siano incorporate in modelli di Ai genera un nuovo livello di esposizione. Ad esempio, un commento o un post pubblico potrebbero, indirettamente, alimentare sistemi di raccomandazione o strumenti che influenzano la visibilità sul network.
Non mancano le reazioni di cautela: esperti di privacy e rappresentanti dei lavoratori segnalano che la decisione accentua la dicotomia tra innovazione e tutela dei diritti personali. Il fatto che l’opzione di esclusione (opt-out) non sia automatica ma richieda un’azione attiva da parte dell’utente è considerato da molti un limbo di responsabilità.
Per tutelarsi, gli utenti possono seguire alcune operazioni concrete, come modificare le impostazioni sulla privacy del proprio profilo LinkedIn, disattivando la voce “Usa i miei dati per addestrare modelli di IA di creazione di contenuti”, o presentare un modulo di opposizione al trattamento dei dati per altri modelli di machine learning (come personalizzazione, moderazione) tramite la sezione “Obiezione al trattamento dei dati”. Tuttavia, i dati raccolti prima della disattivazione restano inseriti nei sistemi: l’effetto è retroattivo solo in parte.
Mentre LinkedIn avanza in una direzione chiara, all’orizzonte restano alcune questioni aperte: come saranno utilizzati i dati nella pratica quotidiana? Quale trasparenza avranno gli utenti sul modo in cui vengono impiegati? Il Gdpr e il Digital Services Act avranno modo di intervenire nel caso di bias, discriminazione o uso improprio degli algoritmi?
