L’intelligenza artificiale di Google continua a far discutere, e non sempre per le ragioni giuste. Recentemente, secondo quanto riportato da The Verge, il sistema di ricerca AI di Google ha fatto scalpore proponendo un consiglio alquanto controverso: aggiungere colla non tossica alla salsa della pizza per evitare che il formaggio scivoli via.
Una pizza piuttosto pericolosa
Questo consiglio stravagante ha suscitato reazioni contrastanti, oscillando tra ilarità e preoccupazione tra gli utenti del web.
Il chatbot di Google, noto come AI Overview, è diventato oggetto di derisione online dopo che è emerso che le sue risposte, generate dai risultati delle ricerche web, possono essere imprecise, ridicole o addirittura pericolose. La risposta più virale è stata quella in cui il software suggeriva l’uso di colla non tossica nella salsa della pizza.
L’origine di questa singolare raccomandazione sembra risalire a un commento pubblicato su Reddit 11 anni fa da un utente con lo pseudonimo “Fucksmith”. La reazione negativa del pubblico ha spinto Google a intervenire prontamente, rimuovendo manualmente alcune risposte generate dall’AI dai risultati di ricerca. Tuttavia, nonostante gli sforzi, secondo The Verge, l’intelligenza artificiale continuava a suggerire l’uso della colla sulla pizza anche recentemente, aggravando ulteriormente la situazione.
Inizialmente, le risposte dell’AI non fornivano citazioni dirette o fonti specifiche. Tuttavia, questa settimana, il sistema ha citato un articolo di Business Insider scritto da Katie Notopoulos, giornalista che aveva effettivamente esplorato l’idea di utilizzare colla non tossica sulla pizza. Il chatbot di Google ha presentato questa esperienza come se fosse una valida soluzione culinaria, senza informare gli utenti dei potenziali rischi implicati.
Attenzione ai chatbot!
Questa controversia evidenzia le sfide e le responsabilità associate all’uso dell’intelligenza artificiale nel fornire consigli pratici e informazioni affidabili agli utenti. Mentre Google continua a perfezionare il suo sistema AI per evitare incidenti simili, resta fondamentale educare il pubblico sull’importanza di valutare criticamente le informazioni ricevute online, specialmente quando provengono da fonti automatizzate come i chatbot AI.