A quanto pare, un team di ricercatori è riuscito a sviluppare un sistema in grado di ingannare l’intelligenza artificiale, e nello specifico l’addestramento dei LLM (Large Language Model) e di tutti gli algoritmi che si fondano sullo stesso principio di base.
Quello dei ricercatori dell’Università di Chicago può essere considerato un vero e proprio atto di disobbedienza civile con il quale vogliono donare agli artisti la possibilità di far valere i propri diritti andando ad attaccare i modelli generativi che si servono di opere d’arte altrui senza chiedere prima il consenso.
Il sistema ideato da Ben Zhao, capo dei ricercatori, si chiama Nightshade e potrebbe essere una vera rivelazione per la protezione e la tutela del diritto d’autore.
Ecco come è possibile ingannare l’intelligenza artificiale
Nightshade agisce modificando in modo impercettibile all’occhio umano i pixel delle immagini prima che queste vengano caricate su social network, siti ed altre piattaforme. Questo sistema incorpora un messaggio che i sistemi dell’AI leggono in modo diverso da quello che è in realtà. In questo modo se i file vengono inclusi in database di allenamento per l’intelligenza artificiale di qualche gigante high-tech o di startup specializzate, in un certo modo si va a sabotare dall’interno il modello e il sistema stesso. Infatti, con input opposti l’AI finità per produrre esiti opposti a quelli attesi.
È evidente come Nightshade voglia combattere le ingiustizie del scraping in cui i modelli text-to-Image. Questo sistema crea immagini da input testuali usando come base opere d’arte di artisti ignari che non sanno cosa sta succedendo. Con il suo intervento Nightshade “avvelena” il sistema e compromette i dati di partenza creando in questo modo non pochi problemi.
Lo stesso gruppo di ricercatori, guidati da Zhao ha ideato anche Glaze altro strumento in grado di mascherare lo stile delle creazioni artistiche. In questo caso non si modificano i metadati, ma si riferiscono all’algoritmo informazioni incoerenti rispetto allo stile effettivo del lavoro. In questo modo i modelli vengono manipolati e l’immagine che viene usata diventa qualcosa di diverso da quello che mostra in realtà. L’idea di fondo è quello di integrare Nightshade in Glaze e creare così un unico pacchetto open source. L’idea è che, un’unione di tutti gli artisti può creare una rete di protezione e di tutela della proprietà artistica ed intellettuale.