“Non sempre gli agenti dotati di intelligenza artificiale si comportano nel modo ottimale per cui vengono costruiti”. Con questo preambolo si apre il compendio pubblicato da un gruppo di scienziati, tra cui alcuni che lavorano per Google DeepMind, in cui si evidenzia come sia possibile implementare un “bottone per le emergenze” all’interno degli algoritmi di apprendimento delle intelligenze artificiali.
Il laboratorio di ricerca sulle intelligenze artificiali DeepMind è stato acquistato da Google nel 2014 per circa 500 milioni di dollari. Una cifra non indifferente che rivela quanto Google sia interessata alla ricerca nel campo delle intelligenze artificiali, e ai risultati che è possibile ottenere da esse.
Una delle prove della bontà delle ricerche nel campo dell’intelligenza artificiale l’abbiamo avuta a Marzo, quando l’agente intelligente AlphaGo ha battuto il campione mondiale di Go, Lee Sedol, in 3 match consecutivi. Go è considerato uno dei giochi più complessi e difficili al mondo, dove ogni partita non è mai uguale all’altra e la quantità di movimenti legali possibili è davvero enorme.
Il passo successivo è utilizzare gli agenti di successo come AlphaGo per altre tipologie di applicazioni, ed arriverà il momento in cui degli agenti di intelligenza artificiale gestiranno processi critici in tempo reale. Nasce l’esigenza di essere capaci, come operatori umani, di poter fermare gli agenti nel momento in cui si verificasse un comportamento non idoneo alla programmazione che possa arrecare danno all’ambiente circostante, o all’agente stesso.
Nel compendio, viene specificato che alcuni algoritmi per l’apprendimento utilizzati dagli agenti, come “Q-Learning”, sono facilmente modificabili già adesso per essere interrotti in qualsiasi momento, e prevenire una eventuale modifica dall’agente d’intelligenza artificiale stesso; altri algoritmi, come “Sarsa”, devono essere studiati per trovare una soluzione a questo tipo di problema.
DeepMind vuole trovare la “soluzione” all’intelligenza artificiale, ed avere un modello di cui tutti potremo usufruire e utilizzare per i campi più disparati. Un intento lungimirante ma che apre scenari che vanno valutati molto attentamente, con un occhio di riguardo per la sicurezza. Nostra e dei futuri agenti intelligenti che utilizzeremo.