Ad oggi tra i modelli di intelligenza artificiale più famosi al mondo c’è ChatGPT, che probabilmente riveste il ruolo di leader assoluto. Diverse aziende se ne servono in pianta stabile, così come tantissime persone anche sul lavoro. In molti però non sapevano che il famoso LLM di OpenAI si rifiutasse di rispondere alle richieste che riguardano alcuni nomi specifici.
Esatto: ChatGPT non vuole assolutamente elaborare nulla quando vengono scritti nella barra di ricerca nomi di alcune persone.
Il fenomeno è emerso quando alcuni utenti hanno cercato informazioni su alcuni nomi ritrovandosi di fronte al messaggio “Non sono in grado di rispondere”. Tutto è partito con “David Mayer“, uno dei primi nomi che fece sorgere la questione. In questo caso sorge il mistero, in quanto l’unico personaggio noto con questo nome e che avrebbe potuto vietare ad OpenAI di citarlo, appartiene alla ricca famiglia Rothschild e nega tuttora di aver impartito questo divieto.
La lista segue con altri nomi: Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber e Guido Scorza. Quest’ultimo fa parte del collegio del garante per la protezione dei dati personali in Italia. Gli altri nomi appartengono a figure pubbliche, come docenti universitari, compositori o politici. La questione diventa ancora più complessa considerando che, per alcune di queste persone, le informazioni pubbliche sono facilmente accessibili online.
Secondo esperti, questo blocco è legato al Regolamento generale sulla protezione dei dati (GDPR) in Europa. Tale normativa permette a chiunque, tramite una richiesta formale, di esercitare il diritto di opposizione al trattamento dei propri dati. Questo implica che i nomi delle persone che hanno fatto questa richiesta vengano esclusi dalle risposte generate dall’IA.
Gli esperti sottolineano che questo approccio potrebbe creare confusione e disinformazione. Bloccare completamente i nomi, senza distinguere tra contesti o significati, può portare a errori e amplificare il divario tra chi ha accesso a informazioni dettagliate e chi no.