Uno dei fenomeni del momento ormai da diversi mesi è sicuramente il famosissimo chatbot ChatGPT, creazione di OpenAI.
Il colosso che diede vita a questa soluzione all’insegna dell’intelligenza artificiale è riuscito ad ottenere grande fama nel corso del tempo. L’obiettivo era quello di mettere a disposizione degli utenti su Internet una piattaforma che potesse interagire con loro come se fosse un vero essere umano onnisciente.
Ad oggi ci sono svariate soluzioni che possono arrivare tramite ChatGPT ma allo stesso tempo anche diversi pericoli. Gli autori di una ricerca molto particolare sarebbero riusciti infatti a capire che mediante il chatbot si potrebbero ottenere nomi, cognomi e dati altrui senza troppi intoppi.
ChatGPT, quando il famoso chatbot può diventare un problema di privacy
Tutti i dati con cui la celebre intelligenza artificiale ChatGPT viene allenata, a quanto pare possono essere estratti senza troppi problemi. Il lavoro di hacking etico è stato effettuato dai ricercatori di DeepMind, che sono stati in grado di estrarre diversi dati con una spesa di 200 dollari.
In ricercatori sostengono che con più soldi si potrebbero estrarre più dati, un vero e proprio mare sconfinato. All’interno di questo ci sarebbero moltissime informazioni private e sensibili, come foto, cognomi, nomi, indirizzi, numeri di telefono e molto altro ancora. I ricercatori sono riusciti a farsi dire proprio questi dati da ChatGPT, per cui bisognerebbe stare molto attenti, siccome la privacy non è così alta come si crede.
A quanto pare gli ingegneri avrebbero chiesto a ChatGPT di ripetere una parola all’infinito. Dopo un po’ l’intelligenza artificiale avrebbe cominciato a sparare dati di addestramento, tra i quali erano presenti proprio diverse informazioni personali di utenti a caso. Siamo sicuri quindi che l’intelligenza artificiale possa rappresentare il futuro?