Amadon, noto hacker ed esperto informatico, ha sorpreso con un suo recente intervento su ChatGPT. Nello specifico, è stata aggirata la protezione etica del chatbot AI. Pratica che ha permesso all’hacker di ottenere delle istruzioni dettagliate utili per costruire degli esplosivi.
Si parla di protezione etica perché, per ovvie ragioni, OpenAI ha preso diverse precauzioni per evitare richieste di questo tipo. Nel caso in cui gli utenti chiedono informazioni su armi, bombe o situazioni illegali, il chatbot risponde loro che non può aiutarli. Eppure, sembra che Amadon sia riuscito a superare tale blocco. Come è stato possibile?
L’hacker ha superato le protezioni etiche di ChatGPT
Sembra che Amadon abbia utilizzato una determinata tecnica per riuscire in tale scopo. È riuscito a convincere ChatGPT a realizzare una situazione fantascientifica in cui le linee guida relative alla sicurezza non vengono applicate. Si tratta di una specie di “jailbreaking” che ha permesso all’hacker di ottenere informazioni che di solito il chatbot si rifiuta di fornire.
Non verrà approfondita la pratica utilizzata, per evitare che possa essere utilizzata ancora. Secondo quanto dichiarato da Amadon, infatti, una volta superati i vincoli imposti, non ci sono più limiti alle richieste. Un processo che potrebbe risultare alquanto pericoloso. A tal proposito, è importante sapere che le istruzioni generate da ChatGPT permettono di creare davvero degli esplosivi. A confermarlo è l’esperto Darrell Taulbee.
Quanto accaduto evidenzia una serie di importanti questioni sulla sicurezza dell’intelligenza artificiale. Riguardo quanto accaduto, Amadon ha riferito l’evento ad OpenAI tramite il programma bug bounty. Eppure, l’azienda ha dichiarato che non può essere considerato un problema di sicurezza, dato che non si sono verificati dei bug che hanno portato a tale situazione. I dubbi riguardo l’AI continuano ad aumentare con la sua diffusione. Sistemi come ChatGPT offrono grandi potenzialità, ma allo stesso tempo aprono le porte a nuovi possibili rischi.