La fuga accidentale di dati riservati di Samsung da parte dei suoi dipendenti ha sollevato preoccupazioni sulla privacy e sulla sicurezza delle informazioni condivise con ChatGPT. L’episodio è avvenuto quando i dipendenti della divisione semiconduttori hanno utilizzato l’AI per verificare il codice sorgente e ottimizzarlo. The Economist Korea ha riportato tre episodi distinti in cui sono stati rivelati involontariamente dati sensibili a ChatGPT, tra cui la condivisione di codici sorgente confidenziali e la registrazione di una riunione.
Questo incidente mette in luce i rischi connessi all’utilizzo di ChatGPT per gestire informazioni riservate, come documenti legali o dati medici, che potrebbero essere utilizzati per migliorare ulteriormente il modello. Gli esperti avvertono che ciò potrebbe violare la conformità al GDPR
, motivo per cui l’Italia ha recentemente vietato il chatbot.Samsung ha così adottato misure immediate limitando la capacità di caricamento su ChatGPT a 1024 byte per persona e indagando sui dipendenti coinvolti nella fuga di informazioni. L’azienda sta anche valutando la possibilità di creare un proprio chatbot AI interno per prevenire futuri incidenti imbarazzanti.
Tuttavia, è improbabile che Samsung riesca a recuperare i dati trapelati, poiché la politica dei dati di ChatGPT prevede l’utilizzo di tali informazioni per addestrare i suoi modelli, a meno che l’utente non richieda esplicitamente di escluderle. La guida all’uso di ChatGPT avverte chiaramente gli utenti di non condividere informazioni sensibili nelle conversazioni.