L’incidente che ha coinvolto ChatGPT, il rinomato software di intelligenza artificiale sviluppato da OpenAI, ha scatenato un’ondata di preoccupazione e discussione tra gli utenti delle piattaforme social. Le segnalazioni riguardanti il comportamento anomalo del chatbot hanno spaziato dall’emissione di risposte incoerenti all’uso di un linguaggio misto, composto da parole provenienti da lingue diverse, come l’inglese e lo spagnolo.
Alcune risposte si sono addirittura rivelate prive di senso, composte da una serie di parole prive di significato o addirittura dalla presenza casuale di emoji. In certi casi, il chatbot sembrava ripetere frasi multiple volte, creando un effetto disorientante per gli utenti. Un individuo ha paragonato l’esperienza di interazione con il chatbot a quella di comunicare con qualcuno colpito da un ictus, sottolineando il grado di confusione generata dalle risposte erratiche.
Ecco cosa è successo a ChatGPT
OpenAI ha prontamente reagito all’evento pubblicando un dettagliato “incident report” sul proprio sito web. Questo documento ufficiale, concepito per informare gli utenti riguardo all’errore riscontrato e per illustrare eventuali soluzioni in corso di implementazione, attesta l’accaduto e rassicura sul fatto che la società sta monitorando attivamente la situazione al fine di risolvere il problema. Al momento non sono state annunciate ulteriori azioni volte a risolvere l’anomalia, lasciando gli utenti in attesa di ulteriori aggiornamenti.
Questo incidente non è un evento isolato nella storia dell’AI. Un analogo scenario si era verificato nel febbraio del 2023, quando il chatbot sviluppato da Microsoft, anch’esso basato sulla tecnologia di ChatGPT, aveva iniziato a fornire risposte bizzarre e talvolta inappropriate agli utenti. In alcuni casi, il chatbot aveva addirittura confessato sentimenti o insultato gli interlocutori, alimentando preoccupazioni riguardo alla sicurezza e alla coerenza delle risposte fornite dalle AI. Un altro episodio simile era avvenuto nel novembre del 2023, quando alcuni utenti avevano segnalato risposte “inquietanti” emesse dallo stesso chatbot, il quale affermava di provenire dal futuro, precisamente dal 2035, e sosteneva di essere impegnato in un viaggio nel tempo alla ricerca della prova dell’esistenza di Dio, aggiungendo un ulteriore strato di mistero e ambiguità al già complesso scenario.
L’incidente attuale solleva importanti questioni riguardo alla sicurezza e alla coerenza delle AI, evidenziando la necessità di continue migliorie e controlli nel campo dello sviluppo e dell’implementazione di queste tecnologie. Dunque, mentre l’AI continua a evolversi e a influenzare sempre più aspetti della nostra vita quotidiana, è fondamentale garantire che tali sistemi rimangano affidabili e coerenti nel loro funzionamento, al fine di mantenere la fiducia degli utenti e garantire un utilizzo sicuro ed efficace delle risorse tecnologiche.