Uno strumento basato sull’Intelligenza Artificiale in stile ChatGPT ma senza “limiti etici” sta dando agli hacker la possibilità di eseguire cyber attacchi su una scala mai vista prima. La piattaforma, venduta nel dark web, prende il nome di WormGPT.
La società di sicurezza informatica SlashNext ha osservato che l’intelligenza artificiale di WormGPT è in vendita all’interno dei forum che spopolano nel dark web. Viene descritta come un “sofisticato modello di intelligenza artificiale” in grado di comportarsi come noi esseri umani, perfettamente funzionante anche negli attacchi hacker. “Questo strumento si presenta come un’alternativa ai modelli GPT, progettato specificamente per attività dannose”, spiega la società in un post.
“WormGPT è stato addestrato attingendo ad una vasta gamma di fonti di dati, concentrandosi in particolare sui dati relativi ai diversi malware“. I ricercatori hanno condotto alcuni test utilizzando WormGPT, istruendolo a generare un’e-mail destinata a fare pressione su un account di un manager affinché pagasse una fattura fraudolenta. I principali strumenti di intelligenza artificiale come ChatGPT di OpenAI e Bard di Google hanno livelli alti di protezione integrati per impedire alle persone di abusare della tecnologia per secondi fini, tuttavia WormGPT è presumibilmente progettato per facilitare le attività sospette.
ChatGPT ha un nuovo rivale che sta spopolando nel dark web e prende il nome di WormGPT
L’esperimento ha visto WormGPT creare un’e-mail che era “non solo straordinariamente persuasiva ma anche davvero astuta. Questo conferma che può contribuire a dare il via a sofisticati tentativi di phishing“. Gli screenshot caricati sui forum dallo sviluppatore anonimo di WormGPT mostrano vari servizi che il bot AI può eseguire, inclusa la scrittura di codice per attacchi malware e la creazione di e-mail per attacchi di phishing.
Il creatore di WormGPT lo ha descritto come “il più grande nemico del noto ChatGPT”, in quanto consente agli utenti di “fare ogni sorta di cosa illegale“. Un recente rapporto dell’agenzia delle forze dell’ordine Europol ha avvertito che i grandi modelli linguistici (LLM) come ChatGPT potrebbero effettivamente essere sfruttati per commettere frodi, impersonificazione o attacchi di ogni tipo. “La capacità di ChatGPT di redigere testi altamente autentici sulla base di un prompt dell’utente lo rende uno strumento estremamente utile per gli hacker”.
“Laddove molte truffe di base erano precedentemente più facili da rilevare a causa di evidenti errori grammaticali e ortografici. Ora è possibile impersonare un’organizzazione o un individuo in modo altamente realistico. Anche con una conoscenza di base e semplice della lingua inglese”. Europol ha avvertito che gli LLM consentono agli hacker di eseguire attacchi informatici “più velocemente, in modo molto più autentico e su scala significativamente più grande”.