Nelle ultime ore, Meta ha pubblicato un post sul proprio blog ufficiale, in cui si scusa per un errore commesso dal suo assistente basato sull’AI generativa. L’assistente aveva affermato che il tentato assassinio di Donald Trump, avvenuto di recente, non era mai successo. Il post, firmato dal VP of Global Policy Joel Kaplan, utilizza il termine “allucinazioni” per descrivere questi episodi, termine ormai comune per indicare quando un’intelligenza artificiale produce informazioni false o fuorvianti.
Kaplan ha sottolineato che il problema delle allucinazioni affligge l’intero settore dell’AI. Questo fenomeno è riconosciuto dai principali attori del mercato, tanto che i chatbot disponibili mostrano avvisi sull’affidabilità delle loro risposte, spesso etichettati come Beta o prodotti sperimentali. Nel caso specifico del tentato assassinio di Trump, Meta è intervenuta rapidamente per correggere l’errore, chiarendo che inizialmente l’assistente era stato programmato per evitare domande su argomenti delicati proprio per prevenire tali allucinazioni.
Meta ha inoltre affrontato un altro problema correlato all’intelligenza artificiale emerso in questo contesto. Subito dopo il tentato assassinio, una foto modificata di Trump con l’orecchio insanguinato, il pugno alzato e agenti dell’FBI sorridenti ha iniziato a circolare in rete. I sistemi di Meta, nel tentativo di bloccare contenuti alterati, hanno rimosso anche immagini simili ma autentiche, poiché le differenze tecniche erano sottili nonostante le implicazioni fossero significative.
Questo tipo di errore è particolarmente problematico in un periodo di grande tensione politica negli Stati Uniti, a pochi mesi dalle elezioni presidenziali. Ogni deviazione dalla verità può generare critiche e polemiche, com’è successo anche nel più recente caso di Musk. Ignorare un argomento per timore di commettere errori può essere visto come una mancanza di trasparenza, mentre affrontarlo e sbagliare, come in questo caso, offre materiale ai critici. La situazione dimostra quanto sia complesso gestire la comunicazione attraverso intelligenze artificiali in contesti altamente sensibili e polarizzati.