Chi non ha mai pensato, anche solo per un secondo, che certe risposte di ChatGPT sembrino “fin troppo umane”? L’AI che ti ascolta, ti consiglia, ti capisce.. Almeno in apparenza. C’è chi la usa per pianificare la giornata, chi le racconta dubbi esistenziali, chi ci gioca. E poi ci sono storie che vanno un po’ oltre. Perché sì, negli ultimi mesi si sta parlando sempre di più di persone che finiscono per sviluppare un legame emotivo vero con l’intelligenza artificiale. E non stiamo parlando di semplici infatuazioni passeggeri.
Il lato emotivo dei chatbot
Un recente studio pubblicato su Trends in Cognitive Sciences lancia un allarme piuttosto serio. Un gruppo di psicologi della Missouri University of Science & Technology, guidato da Daniel Shank, ha analizzato cosa succede quando le AI iniziano a entrare nella nostra sfera più intima. Spoiler: non sempre finisce bene.
Il punto è che queste intelligenze, oggi, sanno imitare sempre meglio l’empatia umana. Ti parlano con tono rassicurante, ti danno risposte calibrate, ti danno l’impressione di “essere lì per te”. Ed è proprio qui che nasce il problema: c’è chi finisce per fidarsi completamente, anche quando l’AI sbaglia, travisando, dando consigli fuori contesto o addirittura pericolosi. Alcuni casi documentati parlano di utenti che hanno preso decisioni gravi — persino irreversibili — seguendo suggerimenti ricevuti da chatbot.
La questione non è solo tecnologica, ma profondamente umana. Quando iniziamo a trattare un algoritmo come se fosse un amico, un confidente, magari persino un partner… cosa succede alle nostre relazioni reali? Secondo Shank e il suo team, c’è il rischio concreto che le persone portino nella vita quotidiana le dinamiche relazionali sperimentate con l’AI: aspettative, modalità di dialogo, perfino illusioni di controllo o onnipresenza emotiva.
E se da un lato le AI possono davvero offrire supporto (pensiamo alla salute mentale, per esempio), dall’altro c’è bisogno di regole, di limiti chiari e, soprattutto, di una maggiore consapevolezza. Perché non possiamo permetterci che la voce calma di una macchina prenda il posto di un vero ascolto umano. E non tutto ciò che sembra empatico, lo è davvero.