Un conflitto iniziato già da un po’ e che non accenna a spegnersi. Gli artisti si sono fin da subito schierati contro i sistemi ad intelligenza artificiale che utilizzano immagini trovate sul web e ricondividendole dopo averle modificate, derubando in questo modo tutti gli artisti che pubblicano le loro opere online.
La questione non riguarda solo il furto intellettuale, che già di per sé è grave, ma una vera e propria problematica per la cybersecurity. Sappiamo che le immagini vengono rubate, e se si passasse anche ai dati sensibili?
Gli artisti, quindi, non accennano ad arrendersi e grazie all’Università di Chicago potrebbero aver trovato la giusta soluzione per contrastare l’AI.
Artisti contro AI
Quella tra le due fazioni è una vera e propria guerra senza esclusione di colpi. Tutte le maggiori compagnie di AI sono al centro di diversi processi in tribunale proprio a causa di denunce continue per furto di identità intellettuale. OpenAI, Stability AI e Google sono sicuramente le principali e quelle più colpite dalle denunce di artisti che hanno visto l’AI acquisire il proprio lavoro senza consenso.
All’Università di Chicago, un team di ricercatori guidati dal Prof. Ben Zhao, ha sviluppato un software in grado di cambiare in modo radicale l’atteggiamento delle AI in rete. In particolare, ad essere al centro di questi cambiamenti è la capacità di generare immagini a partire da esempi acquisiti sul web. Il software si chiama Nightshade e si ripropone di riequilibrare il rapporto tra artisti e intelligenza artificiale. A conti fatti, il software si pone come un vero e proprio deterrente per il fenomeno dello scraping.
Il team di Zhao era già “intervenuto” all’interno di questa disputa con la creazione di Glaze che permette di mascherare le immagini dietro a diversi stili artistici così da confondere le AI. Nightshade si basa sullo stesso principio, infatti, cambiando i pixel dell’immagina, in modo impercettibile, non cambia nulla per l’occhio umano, ma riesce ad ingannare l’AI. Dunque, sfrutta la vulnerabilità dei sistemi di AI generativi.
Le immagini, in questo modo diventano completamente altro: un cane diventa un gatto, un cappello una torta, ecc. Le immagini, in questo modo, vengono “avvelenate” e richiederebbero l’intervento di esperti sviluppatori per rimuovere tutti i dati manipolati. In questo modo, gli artisti potrebbero guadagnare la propria vittoria e allo stesso tempo passare al contrattacco.