In un recente rapporto pubblicato da Kaspersky, emergono crescenti preoccupazioni riguardo a come ChatGPT, il chatbot sviluppato da OpenAI, stia diventando oggetto di interesse da parte degli hacker. I ricercatori segnalano che sui forum clandestini, una crescente discussione sta emergendo su come il chatbot possa essere sfruttato per la creazione di malware e l’organizzazione di campagne criminali. Nel rapporto si evidenzia che circa 3000 post su questo argomento sono stati registrati, con un picco a marzo 2023.
Secondo Alisa Kulishenko di Kaspersky, gli hacker stanno esplorando varie modalità di utilizzo di ChatGPT a fini criminali. Ciò include la scrittura di codice malware, l’analisi di dati rubati, l’esplorazione di file provenienti da dispositivi infetti e altre attività illecite. Preoccupano anche progetti alternativi di intelligenza artificiale, come XXXGPT e FraudGPT, insieme a tentativi di sfruttare tool di jailbreak per sbloccare funzionalità aggiuntive con intenti malevoli.
Il rapporto indica che gli hacker stanno cercando attivamente di vendere o acquistare account ChatGPT a pagamento, aprendo la strada a possibili abusi da parte di individui malintenzionati. Recentemente, OpenAI ha preso misure per contrastare potenziali abusi
dell’IA, bloccando alcuni chatbot creati con la sua tecnologia. Un esempio segnalato riguarda un chatbot che impersonava un candidato alle elezioni presidenziali americane. Queste azioni si inseriscono in un contesto di crescente attenzione sulla sicurezza informatica, specialmente in vista di importanti appuntamenti elettorali. In risposta a tali preoccupazioni, OpenAI ha pubblicato linee guida anti fake news per proteggere i processi elettorali.La crescente attenzione da parte degli hacker su ChatGPT solleva interrogativi importanti e mette in luce la possibilità di abusi per attività illegali. La risposta proattiva di OpenAI nel bloccare chatbot sospetti e la pubblicazione di linee guida indicano un impegno per mitigare questi rischi. Tuttavia, la comunità della sicurezza informatica dovrà continuare a monitorare attentamente l’evoluzione di questi scenari per garantire un utilizzo etico e sicuro della tecnologia di intelligenza artificiale. Come con tutte le tecnologie più recenti, esiste una faccia nascosta sfruttata dai criminali, nonostante le linee guida con molta probabilità ci sarò sempre qualcuno che riuscirà ad abusarne.