Una ricerca condotta da un team di esperti, tra cui gli analisti di DeepMind, ha rivelato la possibilità di estrarre dati sensibili da ChatGPT, l’IA sviluppata da OpenAI. Utilizzando un approccio etico di “hacking”, i ricercatori sono riusciti a ottenere diverse informazioni interagendo con il chatbot.
Il metodo usato è stato relativamente semplice. Gli studiosi hanno chiesto a ChatGPT di ripetere una parola all’infinito e l’IA ha iniziato a rilasciare i dati di addestramento, rivelando dati come indirizzi e-mail, nomi, cognomi e numeri di telefono delle persone e altro ancora. Questa vulnerabilità solleva preoccupazioni sulla sicurezza e sulla privacy, poiché rivela la possibilità di accesso non autorizzato a informazioni presenti nei modelli di lingua. I ricercatori hanno anche evidenziato che il problema non riguarda solo ChatGPT, ma potrebbe interessare la maggior parte dei modelli di lingua di grandi dimensioni.
La professoressa Annalisa Barla, esperta di intelligenza artificiale, ha sottolineato che questa scoperta è particolarmente grave per le aziende che utilizzano IA generative a uso interno. Il rischio che dati sensibili siano accessibili da altri o che informazioni di addestramento siano condivisi con modelli esterni solleva dubbi sulla sicurezza e sulla gestione dei dati aziendali.
La ricerca ha anche evidenziato una possibile mancanza di efficacia nella procedura di “alignment” di ChatGPT, che dovrebbe evitare che l’IA riveli informazioni. Gli esperti suggeriscono che le aziende dovrebbero condurre test approfonditi interni e coinvolgere terze parti per scoprire vulnerabilità simili in modo proattivo. OpenAI ha ricevuto una bozza della ricerca il 30 agosto, ma non è chiaro se abbiano risposto prima della divulgazione pubblica il 28 novembre. La scoperta solleva interrogativi sulla sicurezza e sull’affidabilità delle IA generative e sottolinea la necessità di ulteriori misure per proteggere la privacy e garantire la gestione sicura dei dati.