Una scoperta inaspettata ha sollevato dubbi sull’affidabilità dei modelli di intelligenza artificiale, in particolare ChatGPT. Il professor Jonathan Zittrain, docente presso l’Università di Harvard, ha rivelato che il chatbot sviluppato da OpenAI si blocca quando viene richiesto di pronunciare il suo nome. Il messaggio che appare informa l’ utente di non essere in grado di produrre una risposta. Ma il fenomeno però non riguarda solo il nome del professor Zittrain, bensì anche altri pochi nomi. La scoperta ha destato grande curiosità quando è stata condivisa sui social. Essa ha generato infatti un dibattito complesso sul comportamento di questi sistemi. Secondo gli esperti, tale anomalia non è casuale. Ma evidenzia le problematiche legate alla gestione e al controllo dei modelli di AI. Si tratta di una reazione imprevedibile. La quale solleva interrogativi sulle reali capacità di questi sistemi di rispondere alle richieste delle persone in modo coerente e trasparente.
Le ragioni dietro il blocco e le implicazioni morali di ChatGPT
Dopo l’insolito comportamento di ChatGPT, OpenAI ha spiegato che il blocco di determinati nomi è stato sviluppato per ragioni di privacy e sicurezza. In particolare, si è cercato di evitare che l’IA potesse diffondere informazioni false o dannose su alcune persone. Un esempio emblematico è il caso del professor Jonathan Zittrain. Il quale, in passato, era stato erroneamente accusato di molestie dal sistema, un errore che aveva suscitato non poche polemiche. Per far fronte a questi problemi, nel 2023 OpenAI ha quindi introdotto una patch per limitare risposte del genere. Ad ogni modo, il professor Zittrain ha sottolineato che tale soluzione, pur essendo una misura di emergenza, non è esente da critiche. L’azienda ha ammesso che si tratta di una soluzione provvisoria. Ma ha anche promesso di migliorare il sistema per evitare il ripetersi di simili errori.
Il professor Zittrain pone anche una riflessione più ampia sulla trasparenza dei modelli di IA. Anche se queste tecnologie sono utili, nascondono comunque potenziali rischi. Gli sviluppatori, utilizzando tecniche come il fine-tuning e i prompt di sistema, influenzano in modo notevole il comportamento del chatbot. Ad ogni modo, queste modifiche non sono sempre visibili agli utenti, il che solleva dubbi sulle scelte etiche dietro tali interventi. Per il già citato professore, è essenziale che i processi interni siano resi pubblici. Proprio perché le decisioni che guidano l’IA non sono solo tecniche, ma anche morali. Senza trasparenza, le aziende potrebbero diventare inavvertitamente arbitri della verità. Rischiando persino ad influenzare le opinioni pubbliche e gli orientamenti sociali senza alcuna supervisione.