Blake Lemoine, un ingegnere software senior di Google, ha recentemente affermato che l’intelligenza artificiale dell’azienda era diventata un essere senziente. Gli esperti sul campo non lo hanno sostenuto e Google lo ha messo in congedo retribuito.
Le affermazioni di Lemoine riguardano il chatbot di intelligenza artificiale chiamato laMDA. Ma ci si chiede: se un’IA fosse senziente, come lo sapremmo? Quale standard dovremmo applicare?
Lo standard più popolare è il cosiddetto “test di Turing“: se un essere umano conversa con un programma di intelligenza artificiale. Ma se non si riesce a riconoscere che si tratta di un programma di intelligenza artificiale, allora significa ha superato il test di Turing.
Questo è ovviamente un metodo di analisi carente. Una macchina potrebbe ingannare le persone, ma ciò non significa che sia senziente.
Inoltre, Turing stesso non ha applicato questo test. Piuttosto, ha affermato che alcuni esseri potevano comunque essere molto intelligenti.
La sensibilità, come tante qualità, è probabilmente una questione di sensazioni.
Gli esseri umani non sono d’accordo nemmeno nel riconoscere che cani, maiali, balene, scimpanzé e polpi come esseri senzienti.
I cani hanno vissuto con noi per millenni e ancora dobbiamo comprendere a pieno come funziona il loro modo per elaborare le informazioni, e probabilmente anche le IA ci confonderanno.
Dovremmo anche chiederci se è giusto che il giudizio dell’IA debba contare qualcosa. E se l’IA avesse qualità senzienti che noi non abbiamo e ci giudicasse a sua volta? Dovremmo semplicemente accettare quel giudizio o possiamo dobbiamo definirci gli unici a poter descrivere la realtà?
Molti dubitano del fatto che il nostro punto di osservazione sia unico, specialmente se condizionato dalla possibilità che possa esistere un’IA senziente.