Immagina di essere stato assolto da accuse infondate, finalmente il tuo nome è stato ripulito e Google ha deindicizzato gli articoli che parlavano di te. Ma basta una domanda a un chatbot come ChatGPT o DeepSeek… e tutto torna a galla. Com’è possibile?
Il diritto all’oblio è una conquista giuridica recente ma fondamentale, soprattutto per chi ha vissuto vicende giudiziarie poi chiarite. È il diritto a essere dimenticati, a non vedere eternamente associate al proprio nome informazioni obsolete, superate o non più rilevanti. Tuttavia, l’evoluzione dell’intelligenza artificiale e dei chatbot generativi sta mettendo a dura prova questo diritto. Le IA, infatti, non “dimenticano”. I modelli linguistici sono addestrati su grandi quantità di testi e continuano a riproporre contenuti che potrebbero essere stati rimossi dalla rete, ma che permangono nei loro dataset statici.
È il caso di un imprenditore edile italiano, assolto da gravi accuse. Dopo la deindicizzazione da Google, ha scoperto con stupore che un chatbot continuava a citare articoli ormai cancellati. In pratica, l’intelligenza artificiale continuava a “ricordare” ciò che la legge aveva stabilito di rimuovere dalla memoria collettiva digitale. Un fatto che, oltre a essere ingiusto, apre a nuovi interrogativi legali e di responsabilità.
Il problema nasce dal funzionamento stesso dei modelli IA: una volta addestrati, conservano nel loro “cervello” i dati fino a un nuovo aggiornamento del modello. Anche se un sito viene modificato o un contenuto viene rimosso, l’IA può comunque continuare a fornire risposte basate su versioni precedenti della realtà. Questo crea un conflitto tra diritto individuale all’oblio e memoria “permanente” delle macchine. In Europa, il Garante della Privacy è già intervenuto. DeepSeek è stato temporaneamente bloccato in Italia per l’assenza di garanzie sufficienti sulla gestione dei dati personali. Anche OpenAI ha subito richiami formali e ha dovuto intervenire per migliorare la trasparenza. Tuttavia, le misure adottate finora non sembrano risolvere il problema strutturale: l’accesso a informazioni sensibili, anche se obsolete, è ancora possibile.
Questo scenario impone nuove responsabilità a chi sviluppa, utilizza o fornisce servizi basati sull’intelligenza artificiale. Serve maggiore consapevolezza giuridica, non solo tecnica. Il diritto all’oblio va rispettato anche dagli algoritmi. È necessario un aggiornamento normativo, ma anche una rete di protezione fatta di strumenti legali, compliance tecnologica e cultura digitale.
Se gestisci un’azienda, una startup o eserciti una professione e vuoi tutelare la tua immagine digitale da questi rischi, non aspettare che un chatbot ti riporti al passato.