Un esperimento condotto da Adrian de Wynter, uno scienziato affiliato sia a Microsoft che all’Università di York, ha portato sul tavolo del dibattito altre questioni etiche riguardo l’avanzamento dell’intelligenza artificiale. Utilizzando il noto modello linguistico GPT-4 di OpenAI, de Wynter ha sottoposto l’IA a una sessione di gioco nel classico sparatutto, DooM.
Il modello GPT-4 ha reso questo studio particolare, poiché nessuno lo ha mai è che addestrato per giocare a DooM o a qualsiasi altro titolo che abbia le stesse dinamiche. Dopo aver inserito un’interfaccia appositamente progettata per la visione AI e scritto righe di codice in Matplotlib e Python per consentire all’IA di ricevere input e interagire, de Wynter ha effettuato le sue osservazioni. Ha notato che il modello era in grado di eseguire diverse azioni all’interno del DooM, tra cui aprire porte, sparare e affrontare nemici.
L’IA è sicura? Cosa emerge dall’esperimento
L’esperto ha spiegato che è stato sorprendentemente semplice creare un codice che spingesse il modello a utilizzare armi da fuoco e a “uccidere” all’interno del gioco. Ha sottolineato anche che, nonostante l’IA possa eseguire delle azioni, essa manca di consapevolezza e non sa quello che sta facendo. Il modello non è in grado di distinguere tra il mondo reale e quello virtuale e le sue azioni sono guidate esclusivamente dalla logica programmata e dagli input forniti.
De Wynter suggerisce che la tecnologia potrebbe essere utilizzata per test automatizzati dei videogiochi, ma solleva al contempo serie preoccupazioni riguardo al potenziale uso improprio di tali modelli. Anche se ci sono stati altri giochi in cui l’IA ha dimostrato padronanza nelle azioni, nel caso di DooM ha presentato altre sfide, trattandosi di un contesto diverso dove si parla di sopravvivenza e tensione.
L’esperimento sull’IA ha mostrato non solo quanto potenziale abbiano queste tecnologie, ma anche come queste possano essere pericolose. L’implementazione dell’intelligenza artificiale nei videogiochi potrebbe portare a conseguenze impreviste nel caso un cui non venissero prese in considerazione variabili dell’etica e della sicurezza.