L’intelligenza artificiale non è di per sé pericolosa per l’essere umano, ma di certo è in grado di apprendere e modificare i suoi comportamenti prendendo a modelli anche dei cattivi esempi. E se una macchina può imparare nel modo sbagliato, allora poi c’è il pericolo che si ritorca contro di noi.
In merito a queste considerazioni, Laurent Orseau e Stuart Armstrong, ricercatori del Google DeepMind e del Future of Humanity Institute, hanno sviluppato un metodo per intervenire e modificare le modalità di apprendimento dell’AI in modo che non impari cose sbagliate (a livello etico).
La struttura si riferisce a degli schemi comportamentali afferenti a un “reinforcement learning“: la macchina impara correttamente in accordo con una funzione di ricompensa, valutando autonomamente ogni sua possibile azione in tale relazione. Il problema è che l’intelligenza artificiale è in grado di apprendere in modo imprevedibile come un cervello umano, e potrebbe scoprire delle scorciatoie per massimizzare le ricompense deviando dal corretto modo di comportarsi.
È dunque possibile ritenere che in qualche decennio le macchine riusciranno a surclassare la nostra razza di carne e ossa.
D’altronde l’evoluzione tecnologica anticipata dalla settima arte è tesa verso quella meta, un futuro dove umani, robot e cyborg (esseri ibridi) convivranno con le relative tensioni sociali che ne seguono. L’uso di parti artificiali nel corpo umano è ormai di prassi comune, e anzi saremo noi un giorno a voler assomigliare un po’ di più a quelle macchine che presto acquisiranno un’autocoscienza.Se vogliamo sopravvivere dobbiamo controllare questa evoluzione o, almeno, cercare di non lasciarcela sfuggire di mano. Piuttosto dobbiamo cogliere l’opportunità di creare una nuova razza di essere senzienti che possa migliorare la nostra società, altrimenti un giorno i robot potranno persino vedere gli umani come fastidiose scimmie involute.
Il problema è come interrompere il funzionamento di queste macchine pensanti un giorno che ne avremo paura. Un’intelligenza artificiale che sia bloccabile in tutta sicurezza è qualcosa che è ancora sotto il nostro controllo (giochiamo a fare Dio da sempre d’altronde). Ma se un robot può essere progettato con un pulsante per interromperlo, il rischio è che l’intelligenza artificiale possa resistere ai tentativi di spegnimento umani.