Direttamente dall’MIT arriva PhotoGuard, il software che blocca la possibilità delle Intelligenze Artificiali di riconoscere cosa c’è in una foto. La domanda sorge spontanea: perché è stato creato? Per preservare l’autenticità delle immagini.
Il sistema è stato ideato come una sorta “vaccino” contro le IA il cui meccanismo è improntato sull’imparare dalle immagini del mondo reale anche per modificarne i dettagli e dare un senso diverso ad una foto.
“Se da un lato sono lieto di contribuire a trovare una soluzione a questo problema – ha commentato il dottorando Hadi Salman che ha guidato il progetto – dall’altro sono conscio che sia necessario molto lavoro per rendere pratica questa protezione. Le aziende devono investire nella progettazione di immunizzazioni solide che durino nel tempo”.
PhotoGuard crea una sorta di perturbazione tramite i pixel, mandando in totale confusione gli algoritmi di un’intelligenza artificiale generativa
, come GPT-4 e Dall-e. In questo modo non riescono a più comprendere il “senso” dell’immagine, ad esempio come sono posizionati i corpi o magari elementi più piccoli come gli occhi.Gli sviluppatori del software hanno spiegato che con questo approccio le intelligenze artificiali generative, anche quelle più recenti, non riusciranno a riprodurre “artefatti verosimili”. Diciamo che è come se mandasse in totale tilt gli algoritmi dell’IA. Il risultato di una foto “vaccinata” con PhotoGuard e poi modificata con un’IA generativa è un contenuto dall’aspetto irreale. Si potrebbero ad esempio avere corpi sovrapposti ad altre persone, immagini senza alcun senso, svelando subito il trucco e mostrando quanto queste siano artefatte.
Vedremo, quindi, se questo software darà uno stop alle continue manipolazioni delle immagini degli ultimi tempi.