L’intelligenza artificiale è ormai diventata uno strumento quasi onnipresente nel mondo di oggi sotto vari aspetti, da quello lavorativo a quello creativo, sono tantissimi gli strumenti che ci aiutano ogni giorno e sfruttano motori neurali per elaborare i dati, basti pensare ai famosi chatbot come Gemini e ChatGPT, che vengono spesso sfruttati sia in campo accademico che scolastico.
E se vi dicessimo che l’IA potrebbe diventare anche un malware ? Sebbene possa sembrare surreale un gruppo di sviluppatori della Cornell University, Technion – Israel Institute of Technology e Intuit, ha creato un worm funzionante e pericoloso basato proprio sull’IA, si propaga da un sistema all’altro, invia email di spam e ruba dati, il suo nome è MorrisII, in onore del primo worm Morris nato nel 1988.
Attaccati i modelli LLM
Per mostrare il funzionamento del WormIA i ricercatori hanno creato un sistema ad hoc in grado di inviare e ricevere mail adoperando tre modelli IA: GPT-4, Gemini Pro e LLaVA, l’attacco usato è stato un “adversarial self-replicating prompt“ un tipo di prompt che obbliga il sistema IA a generare un altro prompt come risposta.
Nel primo caso è stata scritta una mail che avvelena il sistema, il quale ricevuto il prompt in input, usando la Retrieval-Augmented Generation (RAG), porta il sistema a replicare l’input in output e rubare i dati dell’email, nel secondo caso invece, il prompt è nascosto nell’immagine ma il risultato è lo stesso, in entrambi i casi è possibile propagare la mail all’infinito estendendo dunque l’attacco all’infinito.
I ricercatori hanno immediatamente contattato Google ed OpenAI, con quest’ultima che ha confermato in via definitiva che sono state sfruttate delle vulnerabilità di tipo “prompt injection” tramite un input non filtrato, al momento si tratta solo di test ed esperimenti, ciò non toglie che i Worm generativi potrebbero diventare un serio problema soprattutto per l’automatizzazione di alcune operazioni.