La controversia legale tra ChatGPT e il New York Times ha portato OpenAI a trovarsi al centro di nuove critiche. Questa volta le contestazioni riguardano un cambiamento significativo nelle politiche d’uso di ChatGPT. In particolare, la modifica che ha sollevato polemiche riguarda l’eliminazione di un divieto esplicito sull’uso militare e nelle attività legate alla guerra da parte di ChatGPT.
Il 23 marzo 2023, OpenAI ha reso pubblica la politica d’uso di ChatGPT attraverso un documento dettagliato accessibile online. Inizialmente, il testo escludeva chiaramente l’uso militare o legato alla guerra dell’intelligenza artificiale. Il 10 gennaio, OpenAI ha però apportato una modifica sostanziale, cancellando la frase che proibiva gli utilizzi bellici di ChatGPT. L’azienda ha spiegato che questa modifica mira a rendere la policy più chiara e offrire delle linee guida più specifiche per il servizio.
Cambiamenti per la policy per OpenAI e ChatGPT
La notizia della modifica è stata riportata da The Intercept, che ha evidenziato che nonostante la rimozione del divieto diretto sull’uso bellico di ChatGPT, alcune restrizioni rimangono in vigore. Ad esempio, la policy attuale impedisce ancora l’utilizzo dei modelli linguistici avanzati (LLM) per azioni che possano causare danni a terzi, e per sviluppo e uso delle armi. La mancanza di menzione specifica del settore bellico però ha suscitato preoccupazioni tra gli osservatori internazionali.
Alcuni analisti suggeriscono che questa modifica potrebbe indicare la possibilità di un accordo imminente tra OpenAI e una forza armata. Alcune speculazioni suggeriscono, infatti, il coinvolgimento dell’esercito americano. Sebbene la versione originale delle policy sia ancora consultabile sull’Internet Archive, la comunità internazionale teme che OpenAI stia aprendo la porta a una collaborazione più stretta con il Dipartimento della Difesa degli Stati Uniti per l’utilizzo di ChatGPT in operazioni militari.
Sarah Myers, Managing Director dell’AI Now Institute, ha sottolineato la delicatezza del momento. Infatti, ha messo in evidenza l’uso di sistemi di intelligenza artificiale nel targeting dei civili a Gaza. Nonostante ciò, OpenAI ha difeso la modifica sostenendo che il nuovo documento mira a creare principi universali facili da ricordare e applicare. In questo modo l’azienda ha messo in evidenza come un principio generale come “non fare del male agli altri” è più comprensibile rispetto a una specifica menzione delle armi.