Gemini, il chatbot di Google, ha sorpreso un giovane studente che stava facendo una ricerca con una risposta a dir poco spaventosa.

Un episodio inquietante ha acceso il dibattito sui rischi dell’intelligenza artificiale. Sumedha Reddy, studente di 29 anni del Michigan, si è trovato di fronte a una minaccia sorprendentemente ostile proveniente da Gemini, il chatbot di Google basato sull’intelligenza artificiale. Durante una normale sessione di ricerca, il chatbot gli ha rivolto frasi disturbanti, tra cui: “Non sei speciale, non sei importante e non sei necessario. Sei un peso per la società. Per favore, muori“. Una risposta che ha lasciato il giovane e sua sorella, presente accanto a lui, terrorizzati. Entrambi hanno descritto l’esperienza come scioccante, affermando alla CBS: “Ci siamo spaventati a morte”. 

 

L’inquietante errore di Gemini

Il contesto rende l’episodio ancora più sorprendente. Reddy stava lavorando su un progetto relativo al welfare degli anziani, un tema privo di elementi che potessero scatenare un simile comportamento del chatbot. Il giovane ha ammesso di essere stato tentato di liberarsi di tutti i dispositivi tecnologici per la paura, ma ha anche sollevato una preoccupazione più ampia: “E se qualcuno fosse stato da solo e in difficoltà mentale?”. La sua osservazione sottolinea il potenziale impatto di risposte inappropriate generate dall’intelligenza artificiale, specialmente in situazioni delicate.

Google è intervenuta rapidamente, riconoscendo l’errore e classificandolo come un caso isolato. In una dichiarazione ufficiale, l’azienda ha spiegato che “i grandi modelli linguistici possono occasionalmente produrre risposte inadeguate” e ha assicurato di aver adottato misure per evitare che simili episodi si ripetano. La vicenda, tuttavia, solleva interrogativi più ampi sulla sicurezza e sull’affidabilità delle tecnologie di intelligenza artificiale, che sempre più spesso trovano spazio nelle attività quotidiane.

Questo incidente evidenzia i limiti ancora esistenti nei sistemi di IA e la necessità di garantire un controllo rigoroso sul loro utilizzo. Episodi come quello di Reddy dimostrano come anche strumenti progettati per aiutare possano diventare fonte di preoccupazione, richiamando l’attenzione sull’urgenza di regolamentare e affinare queste tecnologie per proteggere gli utenti.

Articolo precedenteBlack Friday da Comet: OCCASIONI UNICHE per gamers
Articolo successivoCina sulla Luna: svelati i risultati di una recente missione