L’intelligenza artificiale (IA) sta penetrando in nuovi territori, compreso il dark web, con l’obiettivo di migliorare la cyber threat intelligence. Un esempio di ciò è DarkBART, un progetto in fase di sviluppo da parte dello sviluppatore di chatbot FraudGPT. Questo strumento utilizza modelli di intelligenza artificiale generativa, simili alla tecnologia chatbot di Google Bard e OpenAI, per analizzare i dati prelevati dal dark web.
DarkBART è un Large Language Model (LLM) che utilizza i dati del dark web come base di conoscenza. Questo strumento è stato progettato per generare truffe online, sviluppare sofisticate campagne di phishing, rilevare e sfruttare le vulnerabilità, verificare la presenza di punti deboli nelle infrastrutture critiche e creare e distribuire malware.
Il modello DarkBERT LLM, sviluppato da scienziati della Corea del Sud per combattere il crimine informatico, sarà la base di DarkBART. Esso utilizza tutte le informazioni della rete oscura come dati di addestramento, offrendo agli aggressori l’accesso a informazioni underground sulle minacce informatiche.
La protezione dalle minacce richiederà un’azione attiva. Oltre alla consueta formazione dei dipendenti aziendali sul riconoscimento degli attacchi di phishing, le organizzazioni dovrebbero fornire una formazione specializzata volta a sensibilizzare i dipendenti sulla natura degli attacchi e sul ruolo dell’intelligenza artificiale. Inoltre, le misure di verifica delle e-mail per combattere le minacce basate sull’intelligenza artificiale devono essere rafforzate aggiungendo procedure rigorose e meccanismi di tracciamento delle parole chiave alle misure esistenti.
L’uso dell’IA per analizzare il dark web rappresenta un’evoluzione significativa nel campo della cyber threat intelligence. Tuttavia, l’uso di queste tecnologie presenta anche nuove sfide in termini di sicurezza. Le organizzazioni devono essere pronte a rispondere a queste minacce emergenti, adattando le loro strategie di sicurezza per affrontare le nuove sfide poste dall’IA.