La prima area riguarda lo stabilire una governance indipendente per quanto riguarda la sicurezza. La seconda fa riferimento alla possibilità di collaborare con organizzazioni esterne. Ci sono due aree dedicate all’essere trasparenti sul lavoro e il migliorare le misure di sicurezza. Infine, c’è la possibilità di raggruppare i quadri di sicurezza. Quest’ultimo dettaglio permette di favorire lo sviluppo dei modelli.
Con tali caratteristiche il Safety and Security Committee diventa un comitato che si proccupa di supervisionare la situazione in maniera indipendente. Quest’ultimo comprende il Consiglio incentrato sulla protezione e la sicurezza. Alla sua guida è stato scelto Zico Kolter
, Direttore del Dipartimento di Machine Learning. Fa parte della School of Computer Science della Carnegie Mellon University, di cui fanno parte, tra gli altri, anche Adam D’Angelo, CEO di Quora, e Nicole Seligman, l’ex VP esecutivo di Sony Corporation. Inizialmente a capo di tale organizzazione c’era Sam Altman, che è stato poi rimosso per evitare conflitti di interessi.Lo scopo del Safety and Security Committee di OpenAI è di supervisionare i modelli di intelligenza artificiale, in unione con il Consiglio di amministrazione. Il team di ricerca e sicurezza è dunque protagonista di un processo di riassestamento. Lo scopo è quello di rafforzare la collaborazione per definire un framework integrato per la sicurezza. Ciò si basa su una serie di valutazioni riguardanti i rischi. Quest’ultime devono essere approvate da Safety and Security Committee. È un cambiamento importante che dimostra l’attenzione di OpenAI nei confronti della sicurezza e la protezione dell’azienda stessa.