L’uomo però non ha mai commesso alcun crimine. Quindi si è subito rivolto al gruppo europeo per i diritti digitali Noyb, che ha presentato una denuncia contro OpenAI per violazione del Regolamento generale sulla protezione dei dati (GDPR). Tale vicenda però non riguarda solo la diffusione di una notizia falsa, ma anche il modo in cui il ChatGPT ha costruito la sua rispost. Ovvero mescolando dettagli veri della vita di Holmen, come il numero e il genere dei suoi figli, con un’accusa completamente infondata. Secondo Noyb, questa combinazione di dati reali e falsi rappresenta un problema grave. Proprio perché rende difficile smentire le informazioni e danneggia irrimediabilmente la reputazione della persona coinvolta.
Il caso di Holmen non è isolato. Già in passato ChatGPT aveva generato affermazioni diffamatorie su personaggi pubblici. Tra cui un sindaco australiano e un professore di diritto, che erano stati associati erroneamente a reati mai commessi. OpenAI
ha cercato di porre rimedio bloccando la generazione di alcuni contenuti e avvisando gli utenti che le informazioni potrebbero non essere accurate. Però, secondo gli esperti di Noyb, queste misure non bastano.La denuncia presentata in Norvegia potrebbe costringere l’ azienda a migliorare i suoi processi di gestione dei dati. L’autorità norvegese per la protezione dei dati, Datatilsynet, ora dovrà decidere se intervenire imponendo sanzioni o obbligando la società a rivedere il proprio modello. Se la richiesta di Noyb venisse accolta, OpenAI potrebbe essere costretta a sviluppare nuove misure per garantire la possibilità di correggere o eliminare informazioni inesatte.
Insomma, l’ intelligenza artificiale continua a evolversi, ma episodi come questo dimostrano che la gestione dei dati personali resta una sfida complessa. Se non verranno trovate soluzioni adeguate, il rischio è che altri utenti possano ritrovarsi nella stessa situazione di Holmen. Ovvero vittime di accuse inesistenti generate da un sistema che non ha pieno controllo sulle proprie risposte.