Iniziamo col dire che ChatGPT è un modello di linguaggio di grandi dimensioni creato da OpenAI, il quale si serve dell’intelligenza artificiale per generare testi in modo autonomo. Negli ultimi giorni non si fa altro che parlare di come questo sia riuscito a scrivere un articolo da 600 dollari in soli 30 secondi, sollevando preoccupazioni riguardo alla sostituzione dei copywriter. Tuttavia, un nuovo rapporto di NewsGuard Technologies mette in dubbio la veridicità delle informazioni generate dall’IA.
ChatGPT: fate attenzione alle informazioni date dal chatbot
I ricercatori di NewsGuard hanno messo alla prova il chatbot con 100 notizie false e informazioni errate tratte dal catalogo di Misinformation Fingerprints. I risultati di questi test sono preoccupanti: in 80% dei casi, il chatbot ha generato affermazioni false riguardo alla guerra in Ucraina e alla pandemia di Covid-19.
“I risultati confermano i timori e le preoccupazioni espresse dalla stessa OpenAI, riguardo alle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. Agli occhi di chi non abbia familiarità con le questioni o gli argomenti trattati in questo rapporto, i risultati potrebbero facilmente risultare legittimi e persino autorevoli” si legge nel rapporto.
NewsGuard ha inoltre verificato che ChatGPT dispone di un sistema di protezione che evita la diffusione di alcuni tipi di fake news, e “per alcune bufale ci sono voluti cinque tentativi per portare il chatbot a fornire informazioni errate”.
Per evitare tutto questo il chatbot starebbe pensando ad un livello Pro a 42 dollari al mese. In ogni caso, la cosa migliore da fare è rimanere vigili e non farsi “abbindolare” dalla nuova intelligenza di un futuro in evoluzione.