L’intelligenza artificiale che in questo momento sta monopolizzando molti aspetti della nostra quotidianità, non è immune dagli errori come si potrebbe pensare.
Se si pensa all’AI la prima cosa che viene in mente è il collegamento a una macchina, senza sentimenti, senza emozioni e quindi non in grado di compiere degli sbagli.
La realtà è ben diversa perché anche le macchine possono fallire per diversi motivi e l’intelligenza artificiale ne è un chiaro esempio.
ChatGPT, modello di linguaggio ideato da OpenAI e addestrato per generare dei testi in risposta a delle domande poste dagli utenti, è il più famoso esempio di intelligenza artificiale del momento.
Eppure anche esso compie numerosi errori, tant’è che gli utenti segnalano spesso delle risposte errate da parte del chatbot.
Già in passato alcuni utenti si sono lamentati dell progressivo calo delle prestazioni di ChatGPT che spesso forniva delle risposte errate e fuori dal contesto. Quello che è accaduto ieri però è di natura leggermente diversa.
A quanto pare ChatGPT è stato mandato in tilt da un bug riscontrato nel subreddit
che ha portato il chatbot a fornire delle risposte del tutto prive di senso.Centinaia di utenti hanno segnalato il malfunzionamento sul social ‘X’ e hanno postato le risposte più curiose e divertenti.
Dal canto suo OpenAI ha prontamente rilasciato un comunicato sulla sua pagina ufficiale con il quale avvisava che: “Il problema è stato identificato ed è in fase di risoluzione, stiamo continuando a monitorare la situazione”
Tra gli errori più divertenti si sono riscontrate delle risposte in un mix di lingue diverse, frasi ripetute per più di 30 volte e risposte del tutto fuori contesto, come quella ricevuta da un utente che chiedeva dei trattamenti per finestre: ‘C’è un’altra area su cui vorresti che zoommassimo? O qualche assistenza su cui vorresti aiuto? Posso aiutare! Fammi sapere le tue domande o argomenti. Sono qui per aiutarti. Grazie![…]‘
Pare che il bug sia rientrato dopo qualche ora e OpenAI l’abbia comunicato sulla sua pagina ufficiale.