sabato, Marzo 29, 2025

Quando ChatGPT sbaglia: il caso di Arve Hjalmar Holmen

Un uomo accusato ingiustamente da ChatGPT solleva domande sulla gestione dei dati e sulla privacy

di Ilenia Violante
ChatGPT

Arve Hjalmar Holmen, cittadino norvegese, non avrebbe mai immaginato di trovarsi al centro di una vicenda tanto surreale. Tutto è iniziato quando ha deciso di cercare il proprio nome su ChatGPT. Perché incuriosito da quali informazioni il chatbot potesse fornirgli. Quello che ha trovato, però, lo ha lasciato senza parole. Secondo l’intelligenza artificiale infatti, Holmen era stato condannato a 21 anni di carcere per l’omicidio di due figli e il tentato omicidio di un terzo.

Dati inesatti e ChatGPT: un problema senza soluzione?

L’uomo però non ha mai commesso alcun crimine. Quindi si è subito rivolto al gruppo europeo per i diritti digitali Noyb, che ha presentato una denuncia contro OpenAI per violazione del Regolamento generale sulla protezione dei dati (GDPR). Tale vicenda però non riguarda solo la diffusione di una notizia falsa, ma anche il modo in cui il ChatGPT ha costruito la sua rispost. Ovvero mescolando dettagli veri della vita di Holmen, come il numero e il genere dei suoi figli, con un’accusa completamente infondata. Secondo Noyb, questa combinazione di dati reali e falsi rappresenta un problema grave. Proprio perché rende difficile smentire le informazioni e danneggia irrimediabilmente la reputazione della persona coinvolta.

Il caso di Holmen non è isolato. Già in passato ChatGPT aveva generato affermazioni diffamatorie su personaggi pubblici. Tra cui un sindaco australiano e un professore di diritto, che erano stati associati erroneamente a reati mai commessi. OpenAI ha cercato di porre rimedio bloccando la generazione di alcuni contenuti e avvisando gli utenti che le informazioni potrebbero non essere accurate. Però, secondo gli esperti di Noyb, queste misure non bastano.
Kleanthi Sardeli, avvocato specializzato in protezione dei dati, sostiene che il problema non sia solo ciò che ChatGPT mostra agli utenti, ma ciò che continua a conservare nei propri sistemi. Se il modello mantiene informazioni false, vi è infatti sempre la possibilità che vengano riutilizzate. In alcuni casi, l’unico modo per eliminare definitivamente dati errati sarebbe riaddestrare l’intero sistema. Un’operazione ovviamente troppo complessa e costosa che OpenAI potrebbe non essere disposta a fare.

La denuncia presentata in Norvegia potrebbe costringere l’ azienda a migliorare i suoi processi di gestione dei dati. L’autorità norvegese per la protezione dei dati, Datatilsynet, ora dovrà decidere se intervenire imponendo sanzioni o obbligando la società a rivedere il proprio modello. Se la richiesta di Noyb venisse accolta, OpenAI potrebbe essere costretta a sviluppare nuove misure per garantire la possibilità di correggere o eliminare informazioni inesatte.

Insomma, l’ intelligenza artificiale continua a evolversi, ma episodi come questo dimostrano che la gestione dei dati personali resta una sfida complessa. Se non verranno trovate soluzioni adeguate, il rischio è che altri utenti possano ritrovarsi nella stessa situazione di Holmen. Ovvero vittime di accuse inesistenti generate da un sistema che non ha pieno controllo sulle proprie risposte.

Google News Rimani aggiornato seguendoci su Google News!

2012 – 2023 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.