L'IA di Google continua a proporre la sua originale, quanto micidiale, versione della pizza con colla, nonostante le critiche degli utenti.

Recentemente, abbiamo discusso su queste pagine dell’insolito consiglio dell’IA di Google di aggiungere colla sulla pizza, un suggerimento che ha sollevato molte critiche e domande sulla precisione delle risposte generate dalle IA moderne. Sembra che il problema persista nonostante le segnalazioni degli utenti.

 

Lo strano caso della colla sulla pizza

Secondo quanto riportato da The Verge, l’IA di Google continua a fornire consigli errati quando si chiede quanta colla aggiungere alla pizza. Invece di rispondere correttamente con “zero“, l’IA suggerisce un ottavo di tazza, perpetuando il malinteso. Questo errore è stato verificato anche da altre fonti, come ChatGPT e Perplexity.AI, che hanno invece fornito risposte accurate, sconsigliando categoricamente l’aggiunta di colla sulla pizza e mettendo in guardia contro i rischi per la salute derivanti dal consumo di colla non commestibile.

Perplexity.AI ha approfondito ulteriormente spiegando l’origine di questo meme e il contesto culturale che lo circonda. Questi modelli hanno dimostrato una comprensione più accurata delle implicazioni sanitarie e delle norme alimentari, contrariamente all’IA di Google che ha evidenziato lacune nei dati o nella formazione degli algoritmi.

Liz Red, responsabile della ricerca di Google, ha commentato recentemente su questi errori, attribuendoli a “vuoti di dati” che possono influenzare la precisione delle risposte delle IA. Red ha anche sottolineato che le domande inusuali poste alle IA possono contribuire alla generazione di risultati imprecisi, mettendo in luce la complessità nel migliorare la qualità delle risposte delle IA in scenari non convenzionali.

È evidente che questi episodi sollevano importanti questioni sull’affidabilità delle IA e sulla necessità di migliorare continuamente le loro capacità di comprensione e risposta. Google e altri sviluppatori di IA si trovano di fronte alla sfida di affinare i loro algoritmi per evitare errori simili e garantire una risposta accurata e sicura agli utenti.

 

Una strada ancora lunga da percorrere

La questione della colla sulla pizza è emblematica di un problema più ampio che riguarda la fiducia nelle IA e la loro capacità di comprendere contesti culturali e normativi complessi. Mentre alcune IA hanno mostrato di poter gestire meglio tali situazioni, il caso di Google evidenzia la necessità di una revisione continua dei dati utilizzati per addestrare questi sistemi e di una maggiore attenzione alle potenziali conseguenze di errori simili. La strada verso un’intelligenza artificiale veramente affidabile e sicura è ancora lunga e richiede uno sforzo costante da parte degli sviluppatori e dei ricercatori.

Articolo precedenteElon Musk ritira la causa contro OpenAI: il futuro dell’IA in bilico
Articolo successivoSamsung svela il Galaxy Buds 3 Pro, il Z Fold6, ZFlip6