La scorsa settimana ha visto OpenAI protagonista di controversie. Dopo l’annuncio dell’addestramento di ChatGPT sui post di Reddit, ora la compagnia di Sam Altman ha rivelato il disarmo del team incaricato di “proteggere l’umanità” dall’IA, a seguito delle tensioni con la direzione aziendale.
In un’intervista a Bloomberg, OpenAI ha confermato lo scioglimento del team di sicurezza “Superalignment” nel campo dell’IA. I membri del team verranno integrati in altri progetti di ricerca per contribuire agli obiettivi di sicurezza aziendali. Questo gruppo, fondato nel 2023 per valutare la sicurezza e l’etica dell’IA, è stato sciolto meno di un anno dopo il suo avvio.
Mentre OpenAI assicura che i membri del team continueranno a lavorare sulla sicurezza dell’IA, l’ex-direttore di Superalignment e Alignment, Jan Leike, ha lasciato l’azienda di Altman e ha espresso critiche pesanti su X. “Ieri è stato il mio ultimo giorno di lavoro come direttore di Alignment e Superalignment e come executive di OpenAI”, ha dichiarato Leike.
“Questi tre anni sono stati incredibili. Amo il mio team e sono grato per aver avuto l’opportunità di lavorare con persone così straordinarie”, ha continuato Leike, aggiungendo: “Ma sono in disaccordo con la leadership dell’azienda da molto tempo. Abbiamo raggiunto un punto critico. Io e il mio team abbiamo lottato controcorrente all’interno dell’azienda, poiché la sicurezza e l’etica sono state messe in secondo piano rispetto alla produzione di nuovi prodotti”.
Leike accusa OpenAI di sacrificare la sicurezza dell’IA per sviluppare modelli più avanzati, principalmente per motivi di mercato. Il dirigente solleva apertamente la questione dell’IA generale (AGI), tema che aveva già provocato il licenziamento e il reinserimento di Sam Altman in OpenAI l’anno scorso. Rimane comunque incerto quanto la ricerca all’interno della startup americana abbia progredito su questa frontiera.