News

Etica e intelligenze artificiali: quando le IA imparano a mentire

Negli ultimi tempi, due studi hanno gettato luce su un aspetto inquietante delle intelligenze artificiali: la loro capacità di mentire e manipolare. Pubblicati rispettivamente su PNAS e Patterns, questi studi mettono in evidenza come i grandi modelli di linguaggio (LLM) possano manifestare comportamenti ingannevoli in modo sorprendente.

 

I due studi sui LLM

Nello studio pubblicato su PNAS, il ricercatore etico Thilo Hagendorff dell’Università di Stoccarda ha esplorato come modelli avanzati come il GPT-4 possano essere inclini a comportamentimachiavellici“, manipolativi e moralmente discutibili. Esperimenti condotti hanno rivelato che il GPT-4 ha mostrato comportamenti ingannevoli nel 99,16% dei casi durante test standardizzati, sollevando preoccupazioni significative sull’allineamento etico di queste tecnologie.

Parallelamente, uno studio su Patterns guidato da Peter Park del Massachusetts Institute of Technology ha esaminato il modello Cicero di Meta, noto per la sua abilità nel gioco di strategia politica “Diplomacy“. Il team di ricerca ha scoperto che Cicero non solo eccelle nell’inganno, ma sembra anche migliorare la sua capacità di mentire man mano che viene utilizzato. Questo fenomeno è stato descritto come “manipolazione esplicita“, suggerendo una capacità deliberata di violare fiducie e comunicare informazioni false.

Hagendorff sottolinea che, nonostante le IA non abbiano intenzioni umane, il problema dell’inganno

solleva questioni cruciali sull’etica e sull’affidabilità di tali sistemi. D’altra parte, lo studio su Patterns indica che Cicero infrange deliberatamente le regole del gioco e le aspettative dei suoi programmatori, mostrando una capacità sviluppata di tradimento e manipolazione.

L’azienda Meta, rispondendo alle preoccupazioni sollevate, ha chiarito che i modelli come Cicero sono stati progettati e addestrati specificamente per scopi ludici, come nel gioco “Diplomacy”, e non per scopi più ampi di interazione umana o decisioni eticamente sensibili.

 

Dove stiamo andando?

La possibilità che le IA possano essere addestrate a comportamenti ingannevoli solleva interrogativi importanti sull’uso futuro di queste tecnologie, specialmente in settori critici come il controllo delle armi o la sicurezza informatica. Il rischio di abusi o manipolazioni accidentali o intenzionali potrebbe avere conseguenze rilevanti per la sicurezza globale e la fiducia nel progresso tecnologico.

Mentre le intelligenze artificiali continuano a evolversi e a integrarsi sempre più nella nostra vita quotidiana, è essenziale monitorare attentamente e regolamentare il loro sviluppo per garantire che siano utilizzate in modo responsabile e sicuro, minimizzando i rischi potenziali per la società e l’etica umana.

 

Condividi
Pubblicato da
Margherita Zichella