Direttamente dall’MIT arriva PhotoGuard, il software che blocca la possibilità delle Intelligenze Artificiali di riconoscere cosa c’è in una foto. La domanda sorge spontanea: perché è stato creato? Per preservare l’autenticità delle immagini.
Il sistema è stato ideato come una sorta “vaccino” contro le IA il cui meccanismo è improntato sull’imparare dalle immagini del mondo reale anche per modificarne i dettagli e dare un senso diverso ad una foto.
“Se da un lato sono lieto di contribuire a trovare una soluzione a questo problema – ha commentato il dottorando Hadi Salman che ha guidato il progetto – dall’altro sono conscio che sia necessario molto lavoro per rendere pratica questa protezione. Le aziende devono investire nella progettazione di immunizzazioni solide che durino nel tempo”.
Come funziona il software/vaccino PhotoGuard
PhotoGuard crea una sorta di perturbazione tramite i pixel, mandando in totale confusione gli algoritmi di un’intelligenza artificiale generativa, come GPT-4 e Dall-e. In questo modo non riescono a più comprendere il “senso” dell’immagine, ad esempio come sono posizionati i corpi o magari elementi più piccoli come gli occhi.
Gli sviluppatori del software hanno spiegato che con questo approccio le intelligenze artificiali generative, anche quelle più recenti, non riusciranno a riprodurre “artefatti verosimili”. Diciamo che è come se mandasse in totale tilt gli algoritmi dell’IA. Il risultato di una foto “vaccinata” con PhotoGuard e poi modificata con un’IA generativa è un contenuto dall’aspetto irreale. Si potrebbero ad esempio avere corpi sovrapposti ad altre persone, immagini senza alcun senso, svelando subito il trucco e mostrando quanto queste siano artefatte.
Vedremo, quindi, se questo software darà uno stop alle continue manipolazioni delle immagini degli ultimi tempi.