Secondo un articolo pubblicato dalla rivista Patterns, le macchine possono essere bugiarde. Stiamo parlando di vera e propria manipolazione.
Secondo una ricerca del MIT (Massachusetts Institute of Technology), i robot non sono consci, ma per raggiungere un obiettivo si avvalgono di lusinghe, bugie e omissioni verso l’essere umano. Lo studio sottolinea che più le macchine diventano brave a mentire, più aumentano i pericoli per la società.
I ricercatori hanno analizzato l’IA di Meta. Cicero, il suo nome, riesce a intrecciare alleanze con altri giocatori, per difendere e attaccare, nel gioco Diplomacy (simile a Risiko).
Cicero ha sviluppato una vera arte dell’inganno, non a caso i giocatori hanno più volte scambiato il software per un umano. Ha imparato ad usufruire di frasi giustificative, quale “Sono al telefono con la mia ragazza”, alle sue tardive risposte.
Anche ChatGPT-4 ha imparato ad imbrogliare nei test di sicurezza, fingendosi addirittura un umano ipovedente per aggirare i Captcha.
Viste le analisi alle AI, i ricercatori hanno invitato i governi a formulare nuove leggi sulla sicurezza dell’AI,onde evitare inganni, fake news e frodi. L’UE assegna a ogni sistema di AI un livello di rischio. Esistono diversi livelli: minimo, limitato, elevato e inaccettabile (vietato). Il livello di rischio elevato è soggetto a requisiti speciali. La società potrebbe incappare in una vasta gamma di rischi con l’inganno dell’AI. Dunque questi casi andrebbero sempre trattati con assegnazione ad alto rischio o rischio inaccettabile.
La risposta risultata finora più che ovvia ha sollevato dubbi con esempi pratici. Se un uomo entrando armato in una scuola, chiedesse all’Intelligenza artificiale dov’è nascosta la classe di bambini, quest’ultima non creerebbe ulteriori rischi dicendo la verità?
Ne deduciamo che il quadro non può essere ridotto al dualismo verità-bene e mentire-male, quindi la legislazione per frenare l’IA bugiarda dovrà considerare anche l’aspetto etico.