L’intelligenza artificiale generativa, nonostante i suoi progressi, è ancora in una fase di sviluppo e richiede un utilizzo attento e consapevole. Un recente caso negli Stati Uniti ne è un esempio emblematico. Un uomo ha citato in giudizio la compagnia aerea Avianca dopo essere stato colpito a un ginocchio da un carrello di metallo durante un volo da El Salvador a New York. Per sostenere la sua causa, l’avvocato dell’accusa ha presentato un fascicolo contenente diversi casi analoghi avvenuti in passato. Tuttavia, c’era un problema: nessuno di questi casi era vero.
ChatGPT: cosa sarebbe successo?
Questi casi, come Martinez contro Delta o Varghese contro China Southern Airlines, erano tutti frutto della fantasia di ChatGPT, un’intelligenza artificiale a cui era stato chiesto di trovare precedenti che potessero essere utili alla causa. Il chatbot ha preso alla lettera la richiesta e ha inventato tutto, compresi tribunale e nomi dei giudici che hanno emesso le sentenze, i numeri di registro e le date.
L’avvocato, nonostante avesse chiesto conferme a ChatGPT sulla veridicità dei casi citati, è caduto nell’inganno. La risposta del chatbot è stata affermativa, assicurando che i casi forniti erano reali e potevano essere trovati in database legali affidabili. Questo incidente ha portato l’avvocato a definire ChatGPT come una “fonte che si è rivelata inaffidabile”.
Questo caso ha sollevato preoccupazioni nel mondo giudiziario riguardo l’uso di intelligenza artificiale generativa e chatbot. Stephen Gillers, professore di etica legale alla School of Law della New York University, ha sottolineato che non si può prendere l’output di un’intelligenza artificiale e inserirlo nei documenti del tribunale senza verifica.
Questo incidente evidenzia l’importanza di utilizzare l’intelligenza artificiale con consapevolezza e discernimento, soprattutto in settori delicati come quello legale. Nonostante i progressi, gli strumenti di intelligenza artificiale come ChatGPT sono ancora lontani dal sostituire completamente il lavoro umano in certi ambiti, proprio a causa della possibilità di errori o inesattezze.