Se c’è qualcuno che pensa che l’intelligenza artificiale, intesa come i vari chatbot esistenti, sia così precisa, si sbaglia di grosso. Second un nuovo studio, le risposte fornite dai chatbot basati sull’intelligenza artificiale generativa danno informazioni errate con estrema sicurezza.
Lo studio in questione, che è stato ripreso dalla Columbia Journalism Review, ha analizzato le risposte di alcuni motori di ricerca AI. Questi sono stati sottoposti a 200 domande basate su articoli giornalistici. ChatGPT Search è stato l’unico a fornire una risposta a tutte le domande, ma offrendo molta insicurezza:
Un dato che richiama quanto già osservato nel 2023 dallo scrittore Ted Gioia, che in un articolo su “The Honest Broker” aveva dimostrato come ChatGPT rispondesse con sicurezza anche a domande per le quali non aveva dati affidabili, inventando di fatto le informazioni.
Se ChatGPT Search ha mostrato un’elevata percentuale di errori, la situazione è ancora più grave con altri chatbot. Lo studio ha rivelato che:
Anche quando i chatbot riconoscono un errore, spesso proseguono con altre informazioni inventate, confermando una tendenza preoccupante: piuttosto che ammettere di non sapere qualcosa, tendono a riempire i vuoti con dati non verificati.
Tra le cose che portano più dubbi alle persone c’è la mancanza di trasparenza di tutte le aziende che mettono a disposizione tali soluzioni. Sebbene ci siano problemi evidenti, nessuno espone quanto il tutto possa essere inaffidabile.