Ormai tutti conoscono OpenAI. L’azienda che ha rilasciato ChatGPT e che continua a lavorare per sviluppare un modello di linguaggio tra i più importanti del web sta per presentare un’interessante novità. Secondo recenti indiscrezioni l’azienda sta intervenendo per preparare un team in gradi di impedire all’AI di iniziare potenzialmente una guerra nucleare o di essere un pericolo concreto per tutta l’umanità.
La questione è ormai al centro di numerose discussioni e probabilmente sarà anche oggetto principale del documento sull’AI che dovrebbe preparare il G7. In un recente post pubblicato sul suo blog, OpenAI ha annunciato la creazione del team denominato Preparedness, guidato da Aleksander Madry. Nel post l’azienda afferma che i prossimi aggiornamenti per i modelli dell’intelligenza artificiale stanno diventando sempre più avanzati e acquisiscono sempre di più capacità in grado di recare grandi benefici a tutta l’umanità. Questo sicuramente è un bene, ma comporta anche dei rischi sempre più gravi.
Il team impedisce all’AI di iniziare una guerra nucleare
Preparedness ha lo scopo di ridurre al minimo tutti i rischi legati dall’uso e dalla diffusione dei nuovi modelli di intelligenza artificiale di nuovissima generazione. Il progetto include anche la sicurezza informativa, la persuasione individualizzata, le minacce biologiche, nucleari e radioattive. Inoltre, è presente anche la replicazione e l’adattamento autonomo. E non solo questo.
Al gruppo verrà data anche la responsabilità delle implicazioni politiche dello sviluppo informato riguardo i possibili rischi. Il ruolo del team, dunque, descriverà nel dettaglio l’intero approccio dell’azienda rispetto allo sviluppo di valutazioni rigorose e al monitoraggio delle capacità di tutti i modelli attualmente “attivi”. In questo modo verrà creata una gamma di azioni atte alla sicurezza che lavoreranno per stabilire una vera e propria struttura di governance per la responsabilità così come la supervisione del processo di sviluppo stesso.
OpenAI è l’azienda più attiva in ambito di intelligenza artificiale. Il suo chatbot è uno dei più usati dagli utenti al momento e la sua ascesa non accenna a diminuire. Nonostante il continuo impegno verso lo sviluppo delle tecnologie che si fondano sull’intelligenza artificiale si sta dimostrando anche consapevole di quelli che possono essere i possibili rischi. Il team ideato dall’azienda è l’esempio concreto di questa consapevolezza. Questo è dunque, un modo concreto di dimostrare agli utenti che lo scopo della loro AI è quella di portare solo benefici per tutta l’umanità.