In un momento storico in cui i robot sono sempre più presenti nella vita quotidiana, un nuovo studio pubblicato su Frontiers in Robotics and AI solleva interrogativi etici: gli esseri umani possono accettare robot capaci di mentire? La ricerca, condotta da Andres Rosero, dottorando presso la George Mason University, esplora le nostre percezioni riguardo alla disonestà robotica, fornendo risultati sorprendenti.
Le nuove frontiere dell’AI: l’inganno
Il team ha coinvolto quasi 500 partecipanti, invitandoli a valutare diverse tipologie di inganni da parte di robot in contesti lavorativi realistici, tra cui assistenza medica, pulizie domestiche e vendita al dettaglio. Rosero ha sottolineato l’importanza della ricerca: “Con l’avvento dell’IA generativa, è fondamentale esaminare come il design e il comportamento antropomorfico dei robot possano essere usati per manipolare gli utenti”. La questione etica diventa particolarmente urgente in un’era di intelligenza artificiale sempre più avanzata.
Lo studio ha presentato tre tipi di inganni: quelli sullo stato esterno (riguardanti informazioni sul mondo esterno), sullo stato nascosto (dove il robot maschera le sue reali capacità) e sullo stato superficiale (dove il robot esagera le proprie capacità). I risultati hanno mostrato che gli esseri umani tendono ad accettare alcune forme di inganno più di altre. Il tipo di inganno più disapprovato è stato quello sullo stato nascosto, con esempi di robot domestici che filmavano di nascosto. Tuttavia, i partecipanti hanno mostrato una maggiore tolleranza verso inganni sullo stato esterno, come un robot assistente che mente a un paziente affetto da Alzheimer per evitargli sofferenze emotive.
Rosero avverte: “Dobbiamo preoccuparci di qualsiasi tecnologia che nasconda le proprie capacità reali, perché potrebbe portare a manipolazioni impreviste”. Il crescente sviluppo dell’autonomia robotica implica dilemmi etici complessi, che richiederanno una regolamentazione per evitare manipolazioni dannose. Gli esperti suggeriscono che ulteriori studi, anche con interazioni simulate o dal vivo, saranno necessari per comprendere appieno come gli esseri umani reagiscano ai comportamenti ingannevoli dei robot.