Secondo quanto riportato, i criminali informatici hanno usufruito di ChatGPT per numerose finalità, dal generare script per malware alla creazione di e-mail di phishing, fino a sviluppare i metodi per sfuggire alla rilevazione. Alla luce del sole compaiono anche i nomi dei gruppi coinvolti, fra cui i cinesi di “SweetSpecter” e gli iraniani “CyberAv3ngers” e “Storm-0817”, i quali hanno sviluppato software dannosi e creato infrastrutture di controllo per Android. A proposito dello sviluppo del Mlaware, Il gruppo iraniano “Storm-0817” ha utilizzato l’IA per creare malware Android capace di sottrarre dati personali.
Tra gli utilizzi illeciti da parte degli hacker, OpenAI ha evidenziato diversi casi specifici, come ad esempio quello della ricognizione, in cui si è cercata la vulnerabilità e le credenziali predefinite in vari sistemi, al fine di acquisire informazioni utili a sferrare attacchi mirati. Oltre a questo è presente anche l’ingegneria sociale, in cui ChatGpt è stato utilizzato per le mail di phishing e messaggi di reclutamento. In tutto questo, ovviamente, OpenAI si è mosso immediatamente, bloccando tutti i nomi coinvolti in questo abuso. L’uso di ChatGPT, secondo quanto scritto dal sito Bleeping Computer, non sembra aver permesso di congegnare nuove tipologie d’attacco, ma in compenso deve essere comunque motivo di preoccupazione dati i casi sopracitati da parte dei gruppi cinesi e iraniani. Una situazione che implica dei maggiori controlli ed una maggiore sicurezza, affinché non si ricada in utilizzi illeciti di questo tipo.