News

ChatGPT: sicurezza in pericolo per un attacco hacker

È stata scovata una falla per ChatGPT sui dispositivi macOS. Tale vulnerabilità è stata denominata “SpAIware” ed è stata scovata dal ricercatore di sicurezza, Johann Rehberger. Secondo quanto riportato la falla permetteva agli hacker di accedere alla memoria persistente di ChatGPT. In questo modo era possibile rubare i dati dalle conversazioni degli utenti che utilizzano il chatbot.

L’attacco risulta particolarmente allarmante. Infatti, quest’ultimo può essere eseguito anche senza un accesso diretto all’account della vittima. Ma come funziona? Gli hacker codificano il payload in un’immagine o un sito web. Se gli utenti, ignari del pericolo, chiedono a ChatGPT di scansionare quel contenuto malevolo si attiva la falla e il sistema viene compromesso all’istante.

ChatGPT in pericolo: ecco i dettagli della falla

Rehberger ha segnalato quanto scoperto, ma in un primo momento OpenAI sembra aver sottovalutato la situazione. L’azienda madre di ChatGPT aveva, a tal proposito, parlato di un problema legato alla sicurezza e non di un’effettiva vulnerabilità del suo chatbot. Solo dopo che sono state presentate delle prove effettive OpenAI ha agito cercando di risolvere la minaccia

.

Per il momento è stato rilasciato un aggiornamento parziale. Quest’ultimo impedisce a ChatGPT di inviare dati a server remoti. Si tratta però di un primo passo che non risolve del tutto il problema. Il chatbot, infatti, può ancora accettare prompt da fonti non attendibili. Tale opzione offre ancora la possibilità di iniezioni di prompt nella memoria a lungo termine.

La presenza di una simile vulnerabilità per la sicurezza degli utenti su ChatGPT ha sollevato una serie di preoccupazioni. I comandi malevoli, infatti, possono restare attivi anche durante le sessioni di chat successive. Ciò permette agli hacker di accedere costantemente a nuovi dati relativi agli utenti colpiti.

Per potersi difendere da tale scenario, gli utenti sono invitati ad utilizzare l’opzione di gestione della memoria dell’app di ChatGPT. In questo modo sarà possibile eliminare delle voci sospette. Non si tratta di una soluzione definitiva, ma può tamponare il pericolo relativo a tale vulnerabilità.

Condividi
Pubblicato da
Margareth Galletta