Il co-fondatore di DeepMind, società acquistata da Google per 500 milioni di dollari anni fa, spiega che la prossima generazione di strumenti basati sull’intelligenza artificiale rappresenterà “un cambio importante per la storia della nostra specie”. Consentirà alle persone non solo di ottenere informazioni ma anche di dare ordini. “La prima ondata di dispositivi con IA riguardava la capacità di classificare. Il deep learning, infatti, ha dimostrato che possiamo addestrare un computer a classificare vari tipi di dati di input: immagini, video, audio, linguaggio. Ora siamo nell’onda generativa, che oltre a rilevare gli input produce nuovi dati”.
“La terza ondata sarà la fase interattiva
. Ecco perché scommetto da tempo che sarà l’interfaccia del futuro. Invece di limitarti a fare clic sui pulsanti e digitare, parlerai con l’intelligenza artificiale in modo diretto. Ciò permetterà agli utenti di chiedere a questi strumenti di eseguire compiti per loro, che svolgeranno parlando con altre persone e interagendo con altre IA. Si tratta di un enorme cambiamento per il mondo tech. È un momento molto, molto profondo nella storia della tecnologia che penso che molte persone sottovalutino”.“La tecnologia oggi è statica. Fa, grosso modo, quello che gli dici di fare. Non sarà più così. È davvero un cambiamento radicale nella storia della nostra specie”. Interrogato sui potenziali rischi derivanti dal dare autonomia all’intelligenza artificiale, Suleyman ha affermato che è importante stabilire dei limiti e assicurarsi che sia gestibile. Quando Suleyman lavorava ancora presso DeepMind, i suoi colleghi contribuirono a sviluppare quello che divenne noto come un “grande pulsante rosso” che sarebbe effettivamente servito come interruttore di spegnimento per i primi strumenti dotati di IA. Un documento di ricerca intitolato “Safely Interruptible Agents” spiega in che modo si potrebbe evitare di incorrere in rischi. Qualsiasi robot che si comporta in modo anomalo potrebbe essere spento o sovrascritto da un operatore umano al fine di evitare “conseguenze irreversibili”.