Negli ultimi tempi, il tema dell’intelligenza artificiale (IA) ha messo un po’ di ansia non solo negli Stati Uniti, ma anche in tutto il mondo. Le grandi aziende del settore stanno quindi lavorando sodo per trovare modi per individuare l’utilizzo di modelli di IA nella generazione di immagini e altro.
OpenAI, sotto la guida di Sam Altman, è una di queste aziende. Recentemente, hanno annunciato di aver messo alla prova un nuovo strumento progettato per riconoscere le immagini create dall’IA. Secondo quanto riportato nel loro blog il 7 maggio 2024, questo strumento ha dimostrato un’accuratezza del 98% nel rilevare i contenuti generati da uno dei loro modelli di IA chiamato DALL-E 3.
Questo è un passo importante, considerando che OpenAI è di casa con DALL-E, ma le cose si complicano un po’ quando si tratta di altre immagini generate da modelli di IA diversi. L’affidabilità del nuovo strumento scende al 5/10% in questi casi. E anche se può riconoscere modifiche minori alle immagini, come il ritaglio o la compressione, non è immune da errori.
Nonostante le sfide, questo annuncio è un passo avanti nella lotta contro la diffusione di immagini false generate dall’IA. È un problema serio, ma almeno ora c’è un’arma in più dalla parte dei difensori della verità.
Ma non è finita qui. OpenAI ha anche anticipato un altro strumento chiamato Media Manager, che permetterà ai creatori di contenuti di proteggere i propri lavori da un utilizzo non autorizzato nell’addestramento dei modelli di IA. Questo suona come una buona notizia per gli artisti e i creatori di contenuti che temono che i loro lavori possano essere sfruttati senza permesso.
Insomma, c’è ancora molta strada da fare, ma ogni passo verso una maggiore trasparenza e responsabilità nell’uso dell’IA è un passo nella giusta direzione. Vedremo come queste nuove tecnologie influenzeranno il modo in cui interagiamo con il mondo digitale nel prossimo futuro.