In realtà Meta già etichetta le immagini generate con i suoi strumenti di AI, utilizzando il tag “Imagined with AI” e un watermark incorporato negli algoritmi. Con la nuova politica l’Azienda estenderà questo processo anche alle immagini generate da strumenti di altre aziende.
Nonostante l’importanza di questo tipo di iniziative, ci sono sfide non facili da superare. Hany Farid, professore presso la School of Information dell’Università della California – Berkeley e consulente dell’iniziativa C2PA, sottolinea che i malintenzionati potrebbero facilmente eludere i watermark o utilizzare strumenti che non li inseriscono affatto. Questo è stato evidenziato da casi come il deepfake del presidente Biden, in cui i creatori non hanno aggiunto watermark
per identificare l’origine del contenuto.Per riuscire a sopperire a queste possibili falle, Farid suggerisce che potrebbe essere necessario combinare diverse tecniche. Ad esempio, si potrebbe affiancare l’utilizzo di watermark alle tecnologie di hashing, per identificare in modo affidabile le immagini generate dall’AI. Questo particolare intervento risulta sicuramente complicato a causa dell’assenza di uno standard universalmente accettato per l’identificazione delle immagini generate artificialmente.
Inoltre, mentre Meta si concentra sull’etichettatura delle immagini, è importante notare che non tutti i media manipolati sono generati dall’AI. L’Oversight board di Meta ha recentemente confermato la decisione dell’azienda di non rimuovere un video manipolato di Biden. Questo evento sottolinea la necessità per Meta di rivedere e ampliare le sue politiche sui media manipolati per affrontare anche i contenuti non generati dall’AI.
Sebbene la nuova politica di Meta rappresenti un passo avanti nell’affrontare i rischi associati alle immagini generate dall’AI, è evidente che vi sono ancora molte sfide considerevoli da affrontare. È necessaria un approccio più completo e un impegno maggiore per garantire che le piattaforme online siano in grado di proteggere gli utenti dai danni causati dalla disinformazione e dalla manipolazione dei contenuti.