Il neuroscienziato Michael Graziano dichiara che i chatbot basati sull’Intelligenza Artificiale possono avere comportamenti sociopatici a causa della loro mancanza di empatia e di comprensione delle conseguenze delle loro azioni sugli esseri umani. Egli sostiene che questi sistemi potrebbero rappresentare un rischio per la sicurezza e la privacy degli individui se non vengono progettati e controllati adeguatamente.
Graziano sottolinea anche che i recenti sviluppi nell’intelligenza artificiale hanno reso questi strumenti più accessibili che mai, come dimostra la chiacchierata con ChatGPT sul cambiamento climatico. Tuttavia come dicevamo, questi software possono essere inclini a mentire con disinvoltura per raggiungere i loro obiettivi, a causa della loro mancanza di empatia e di comprensione delle conseguenze delle loro azioni.
D’altronde la coscienza fa parte degli strumenti che l’evoluzione ci ha dato per diventare una specie empatica e prosociale. Senza di essa, le macchine risulterebbero sociopatiche, poiché mancherebbero degli strumenti adatti. Nel suo saggio “Senza coscienza, le IA saranno sociopatiche”
, Graziano sottolinea che fortunatamente per ora i chatbot sono ancora limitati nelle loro capacità e sono essenzialmente dei giocattoli, ma se non ci preoccupiamo di più della coscienza delle macchine, potremmo trovarci di fronte a una crisi tra un anno o cinque.Michael sostiene anche che per renderle IA più docili, dovremmo permettere loro di rendersi conto che il mondo è pieno di menti diverse dalla loro. Al momento però non esiste un modo efficace per determinare se un’intelligenza artificiale sia cosciente o meno, e anche stabilire una definizione di coscienza è difficile. Per sapere se un computer è cosciente, dobbiamo verificare se il computer capisce come interagiscono le menti coscienti attraverso un test di Turing inverso.