L’uso di chatbot basati sull’Intelligenza Artificiale (IA) sta diventando sempre più comune in vari settori, ma recentemente è emersa una tendenza preoccupante: il loro uso con lo scopo di generare malware e condurre attacchi informatici.
Chatbot: attenti a WormGPT, FraudGPT e DarkBART
Circa due settimane fa, è stato scoperto WormGPT, un chatbot creato da cybercriminali. Da allora, sono apparsi online altri chatbot malevoli come FraudGPT, DarkBART e DarkBERT, versioni “black hat” dei noti chatbot di OpenAI e Google.
FraudGPT è stato annunciato il 25 luglio come uno strumento progettato per truffatori, hacker e spammer. L’autore, noto come “CanadianKingpin12”, ha dichiarato che il chatbot può scrivere codici malware, creare pagine di phishing, scrivere lettere per truffe e trovare vulnerabilità nei software. Gli esperti di SlashNext hanno persino scoperto un video che mostra le funzionalità di FraudGPT. Durante una conversazione privata, CanadianKingpin12 ha dichiarato che FraudGPT è superiore a WormGPT e ha rivelato di aver avviato lo sviluppo di un altro chatbot chiamato DarkBART, una versione oscura di Google Bard. Un secondo chatbot, DarkBERT, sfrutta l’omonimo modello sviluppato da ricercatori sudcoreani per combattere il cybercrimine.
CanadianKingpin12 ha ottenuto l’accesso al modello IA, probabilmente tramite dati rubati di un’istituzione accademica. La versione oscura può creare campagne di phishing per rubare password e dati delle carte di credito, creare e distribuire malware, effettuare attacchi di ingegneria sociale, fornire informazioni su vulnerabilità zero-day e sfruttare vulnerabilità di software, computer e reti.
Sia DarkBART che DarkBERT possono elaborare le immagini grazie all’integrazione di Google Lens, e gli sviluppatori di questi chatbot offriranno presto le API che consentiranno di integrarli in altri strumenti utilizzati dai cybercriminali.
La scoperta di questi chatbot malevoli solleva anche domande etiche e legali. La responsabilità di prevenire l’uso improprio di queste tecnologie ricade su chi le sviluppa? Come possono le autorità regolamentare e controllare l’uso di chatbot in questo contesto?