I motori di ricerca basati sull’intelligenza artificiale stanno conquistando sempre più utenti, ma c’è un problema piuttosto grosso: spesso sbagliano. Uno studio del Tow Center for Digital Journalism ha analizzato alcuni dei principali strumenti di ricerca AI e il risultato non è dei migliori. Più della metà delle risposte fornite su articoli di notizie erano errate, con alcuni motori che hanno raggiunto tassi di errore impressionanti.
I motori di ricerca AI sbagliano spesso
Per fare un esempio, Grok 3 ha dato risposte sbagliate nel 94% dei casi, mentre ChatGPT Search ha commesso errori nel 67% delle domande. Anche Perplexity, considerato uno dei più affidabili, ha comunque sbagliato nel 37% delle richieste. Insomma, se stai cercando informazioni affidabili, affidarti ciecamente a questi strumenti potrebbe non essere la scelta migliore.
I ricercatori hanno testato questi motori con estratti di articoli reali, chiedendo loro di identificare correttamente titolo, editore, data di pubblicazione e link originale. Il problema è che, invece di riconoscere quando non avevano informazioni certe, i modelli AI hanno spesso inventato risposte plausibili ma del tutto sbagliate. Questo fenomeno, chiamato “confabulazione”, rende difficile distinguere tra verità e fantasia, soprattutto quando le risposte suonano convincenti.
E non è finita qui. Pare che alcuni motori di ricerca AI ignorino le regole che impediscono loro di accedere a contenuti protetti. Ad esempio, Perplexity è riuscito a leggere e riproporre articoli a pagamento di National Geographic, nonostante il sito avesse esplicitamente vietato l’accesso ai suoi contenuti. Inoltre, anche quando questi strumenti citano le fonti, spesso non rimandano agli editori originali, ma a versioni rielaborate pubblicate su siti come Yahoo News. Un problema enorme per il giornalismo, che rischia di perdere traffico prezioso.
Link errati e risposte false
Un altro pasticcio riguarda i link. In molti casi, gli utenti venivano indirizzati a URL inesistenti o errati, con pagine che restituivano errori invece dell’articolo cercato. Grok 3, ad esempio, ha fornito 154 link sbagliati su 200 testati.
Per gli editori, il dilemma è serio. Se bloccano i motori AI per proteggere i loro contenuti, rischiano di scomparire dai risultati di ricerca. Se invece permettono l’accesso, i loro articoli vengono utilizzati senza che i lettori finiscano effettivamente sui loro siti. Un gioco complicato, soprattutto in un settore che già fatica a sostenersi economicamente.
Dalla loro, le aziende tech provano a rassicurare. OpenAI e Microsoft, per esempio, hanno riconosciuto il problema, dicendo di essere impegnate a migliorare la trasparenza e a rispettare le direttive degli editori. Ma la questione resta aperta: chi controlla davvero la qualità delle informazioni generate dall’AI? E quanto tempo ci vorrà prima che questi strumenti diventino davvero affidabili? Per ora, meglio prendere con le pinze tutto quello che dicono.