Ultimamente, l’Intelligenza Artificiale (IA) ha fatto molto parlare di sé, con le discussioni riguardo al suo impatto sulla nostra vita quotidiana e sulla società nel suo complesso. Una delle cose che preoccupano di più è come l’IA possa essere utilizzata per creare immagini false, spargendo così disinformazione e manipolazione in giro.
OpenAI prova a rilevare le immagini false
Ma ora sembra che ci sia una piccola luce in fondo al tunnel. OpenAI, un gigante nel campo dell’IA, ha annunciato di aver sviluppato uno strumento per individuare le immagini generate dall’IA. L’hanno annunciato attraverso un post sul loro blog, datato 7 maggio 2024.
Secondo loro, questo nuovo strumento è piuttosto affidabile, riuscendo a smascherare fino al 98% delle immagini generate dal loro modello di IA chiamato DALL-E 3. È una bella notizia, perché sapere distinguere tra immagini vere e false è una cosa fondamentale in questi tempi di manipolazione digitale.
Ma c’è un ma. Il problema è che, mentre funziona bene con il modello DALL-E 3, la sua affidabilità scende drammaticamente al 5-10% quando si tratta di riconoscere immagini create da altri modelli di IA. Questo è un po’ un punto debole, perché le immagini false possono provenire da molti altri strumenti oltre a DALL-E 3.
Ci sono anche altre complicazioni da considerare. Ad esempio, se le immagini vengono ritoccate dopo la creazione, lo strumento potrebbe avere difficoltà a riconoscerle. Modifiche leggere sembrano andare ancora bene, con un’accuratezza tra il 95% e il 97%, ma se si fa un bel restyling all’immagine, lo strumento potrebbe non riuscire a seguire.
Alla ricerca della realtà e dell’etica
Ma nonostante questi problemi, l’annuncio di OpenAI è sicuramente un passo avanti. Stanno cercando di affrontare una questione molto importante, fornendo agli utenti uno strumento per combattere la manipolazione delle immagini e la disinformazione.
E non è tutto. OpenAI ha anche fatto sapere che stanno lavorando a un altro strumento chiamato Media Manager. Questo strumento dovrebbe aiutare i creatori di contenuti a gestire meglio l’uso delle loro opere nell’addestramento dei modelli di IA. Sarà interessante vedere come funzionerà e se sarà in grado di dare una mano nella lotta contro la manipolazione delle immagini e la violazione dei diritti d’autore.