OpenAI rischia di compromettere la sua credibilità a seguito della recente rivelazione che le conversazioni sull’app ChatGPT per macOS venivano memorizzate localmente in testo non crittografato, esponendo i dati sensibili degli utenti al rischio di accesso da parte di altre app e malware. La problematica è stata identificata dallo sviluppatore Pedro José Pereira Vieito, scatenando immediatamente un ampio dibattito. Questa situazione ha costretto la società, guidata da Sam Altman, a rilasciare rapidamente un aggiornamento che introduce la crittografia per le conversazioni archiviate localmente.
Una sicurezza che non convince
Un aspetto rilevante è che l’app non è disponibile sull’App Store ma può essere scaricata esclusivamente dal sito web di OpenAI. Questo dettaglio significa che l’app non è obbligata a rispettare i requisiti di sandbox per la sicurezza, che sono progettati per prevenire la diffusione di infezioni tra le applicazioni installate. La mancanza di queste misure di sicurezza ha alimentato ulteriormente i dubbi sulla protezione dei dati degli utenti.
Non è solo all’esterno che sorgono preoccupazioni riguardo alla sicurezza e alla privacy del servizio. All’interno dell’azienda, il responsabile del programma tecnico, Leopold Aschenbrenner, ha espresso seri timori ai membri del consiglio di amministrazione sulle possibili conseguenze dell’attacco hacker subito da OpenAI la scorsa primavera. L’accesso illecito ai sistemi di messaggistica interna ha sollevato questioni significative sul sistema di sicurezza dell’azienda, evidenziando la vulnerabilità delle sue applicazioni.
Tuttavia, le preoccupazioni sollevate da Aschenbrenner non sono state accolte favorevolmente dall’azienda. OpenAI ha reagito licenziandolo, con un portavoce che ha dichiarato che “l’azienda non era d’accordo con molte delle affermazioni che aveva fatto [sulla sicurezza]”. Questa decisione ha generato ulteriore dibattito sulla gestione interna delle problematiche di sicurezza e sulla trasparenza dell’azienda riguardo alle misure adottate per proteggere i dati degli utenti.
Seri problemi di fiducia e non solo, per OpenAI
OpenAI si trova in un momento critico in cui deve affrontare non solo le sfide tecniche legate alla sicurezza delle sue applicazioni, ma anche questioni di fiducia e trasparenza che potrebbero avere un impatto significativo sulla sua reputazione nel lungo termine.