OpenAI sembra voler a tutti i costi tenere sotto il massimo controllo l’Intelligenza Artificiale, ha infatti recentemente messo in piedi un nuovo team che avrà il compito di “monitorare, valutare, prevedere e proteggerci dai rischi catastrofici” che sono legati ad un’IA sempre più evoluta e che potrebbe magari fuori controllo creare dei rischi reali per l’essere umano.
Il nuovo gruppo dunque si chiama Preparedness ed è guidato da Aleksander Madry, ex direttore del Center for Deployable Machine Learning del MIT.
Non come Terminator
Ovviamente OpenAI quando parla di rischi catastrofici non intende uno scenario simile a quanto visto nei film della saga di Terminator, ma comunque parla di situazioni importanti quali la capacità dell’IA di persuadere e ingannare gli uomini, di generare del codice maligno, ma anche di minacce di carattere chimico, biologico, radiologico e nucleare.
Dunque il team appena formato avrà il compito di monitorare profondamente tutto il lavoro svolto da OpenAI per capire se l’evoluzione dei vari modelli di deep learning possano avere risvolti benefici per l’umanità oppure costituire un pericolo concreto e dunque procedere con misure di contenimento cautelari.
Secondo OpenAI, maggiori saranno performance dei modelli IA maggiori saranno i benefici che questi ultimi potranno apportare all’umanità ma, allo stesso tempo, maggiori saranno i rischi ad essi connessi, dinamica che rende indispensabile disporre della massima comprensione e delle infrastrutture necessarie a intervenire per garantire la sicurezza dei sistemi di intelligenza artificiale.
Si tratta dunque di una presa di coscienza ufficiale da parte di OpenAI, figlia forse della filosofia molto AI Doomsayer del suo CEO Sam Altman.