L’intelligenza artificiale è in grado di apprendere e modificare i suoi comportamenti prendendo a modello anche dei cattivi esempi da noi trasmessi. E se una macchina può imparare nel modo sbagliato, allora può capitare che diventi per noi un pericolo.
Sull’argomento, i ricercatori Laurent Orseau e Stuart Armstrong hanno ideato un metodo per intervenire e modificare le modalità di apprendimento dell’AI in modo che non impari cose sbagliate (a livello etico).
Gli schemi comportamentali sono afferenti al cosiddetto “reinforcement learning“: quando la AI impara correttamente le viene data una ricompensa, valutando autonomamente ogni sua possibile azione in tale relazione. Ma l’intelligenza artificiale è anche in grado di apprendere in modo imprevedibile come un cervello umano, e potrebbe scoprire delle scorciatoie per massimizzare le ricompense deviando dal corretto modo di comportarsi.
L’intelligenza artificiale distruggerà l’uomo come Terminator?
È plausibile che
tra qualche decennio le macchine riusciranno a surclassare la razza umana, in un futuro dove uomini, robot e cyborg (esseri ibridi) convivranno con le relative tensioni sociali che ne seguono. L’uso di parti artificiali nel corpo umano è ormai di prassi comune, e
forse saremo noi un giorno a voler assomigliare un po’ di più a quelle macchine che presto acquisiranno un’autocoscienza.
Se vogliamo sopravvivere dobbiamo controllare questa evoluzione o, almeno, cercare di non lasciarcela sfuggire di mano. Piuttosto dobbiamo cogliere l’opportunità di creare una nuova razza di essere senzienti che possa migliorare la nostra società, altrimenti un giorno i robot potranno persino vedere gli umani come fastidiose scimmie involute.
Il problema è come interrompere il funzionamento di queste macchine pensanti un giorno che ne avremo paura. Un’intelligenza artificiale che sia bloccabile in tutta sicurezza è qualcosa che è ancora sotto il nostro controllo (giochiamo a fare Dio da sempre d’altronde). Ma se un robot può essere progettato con un pulsante per interromperlo, il rischio è che l’intelligenza artificiale possa resistere ai tentativi di spegnimento umani.