Il 23 marzo 2023, OpenAI ha reso pubblica la politica d’uso di ChatGPT attraverso un documento dettagliato accessibile online. Inizialmente, il testo escludeva chiaramente l’uso militare o legato alla guerra dell’intelligenza artificiale. Il 10 gennaio, OpenAI ha però apportato una modifica sostanziale, cancellando la frase che proibiva gli utilizzi bellici di ChatGPT. L’azienda ha spiegato che questa modifica mira a rendere la policy più chiara e offrire delle linee guida più specifiche per il servizio.
La notizia della modifica è stata riportata da The Intercept, che ha evidenziato che nonostante la rimozione del divieto diretto sull’uso bellico di ChatGPT, alcune restrizioni rimangono in vigore. Ad esempio, la policy attuale impedisce ancora l’utilizzo dei modelli linguistici avanzati
(LLM) per azioni che possano causare danni a terzi, e per sviluppo e uso delle armi. La mancanza di menzione specifica del settore bellico però ha suscitato preoccupazioni tra gli osservatori internazionali.Alcuni analisti suggeriscono che questa modifica potrebbe indicare la possibilità di un accordo imminente tra OpenAI e una forza armata. Alcune speculazioni suggeriscono, infatti, il coinvolgimento dell’esercito americano. Sebbene la versione originale delle policy sia ancora consultabile sull’Internet Archive, la comunità internazionale teme che OpenAI stia aprendo la porta a una collaborazione più stretta con il Dipartimento della Difesa degli Stati Uniti per l’utilizzo di ChatGPT in operazioni militari.
Sarah Myers, Managing Director dell’AI Now Institute, ha sottolineato la delicatezza del momento. Infatti, ha messo in evidenza l’uso di sistemi di intelligenza artificiale nel targeting dei civili a Gaza. Nonostante ciò, OpenAI ha difeso la modifica sostenendo che il nuovo documento mira a creare principi universali facili da ricordare e applicare. In questo modo l’azienda ha messo in evidenza come un principio generale come “non fare del male agli altri” è più comprensibile rispetto a una specifica menzione delle armi.