Le autorità di regolamentazione di tutta Europa stanno esaminando se ChatGPT è conforme alle normative sulla privacy dopo il blocco dell’Italia, il primo paese occidentale a dichiarare l’accaduto.
L’autorità italiana per la protezione dei dati ha dichiarato la scorsa settimana che sta aprendo un’indagine contro OpenAI, la società dietro il popolarissimo chatbot, citando preoccupazioni sulla privacy dei dati dato che il sito ha subito una violazione dei dati che coinvolge conversazioni degli utenti e informazioni di pagamento.
ChatGPT può praticamente rispondere a qualsiasi domanda, superare esami e persino codificare un intero sito web per te.
Centinaia di milioni di persone hanno utilizzato il bot da novembre 2022, rendendola l’applicazione consumer in più rapida crescita nella storia, secondo uno studio di UBS.
Ma ci sono state crescenti preoccupazioni sui potenziali rischi dell’IA, inclusa la sua minaccia di cancellare molti posti di lavoro e anche di diffondere disinformazione.
4 anni di attesa
Il mese scorso, figure di spicco della tecnologia, tra cui il capo di Twitter Elon Musk, hanno persino chiesto di interrompere lo sviluppo di questi tipi di sistemi di intelligenza artificiale tra i timori che la corsa per svilupparli sia andata fuori controllo.
“I consumatori non sono pronti per questa tecnologia. Non si rendono conto di quanto possa essere manipolativa e ingannevole. Non si rendono conto che le informazioni che ottengono potrebbero essere sbagliate“, ha affermato Ursula Pachl, vicedirettore del BEUC.
“Penso che questo incidente con ChatGPT sia molto importante. È una specie di campanello d’allarme per l’Unione Europea perché anche se le istituzioni europee hanno lavorato a un AI Act, non sarà applicabile per altri quattro anni. E abbiamo visto quanto velocemente si stanno sviluppando questi tipi di sistemi“, ha detto a Euronews.