News

Modelli AI: in arrivo la prima bozza per l’Europa

L’Unione Europea ha diffuso la prima bozza del Codice di Condotta per l’intelligenza artificiale di uso generale. Il documento, elaborato da esperti indipendenti, fornisce linee guida per promuovere lo sviluppo sicuro, etico e trasparente dei modelli AI avanzati. Suddetta prima versione costituisce la base di un processo articolato in quattro cicli di revisione. Quest’ultimo si concluderà nell’aprile del prossimo anno. La bozza sarà discussa in un evento che coinvolgerà circa 1000 stakeholder. Tra cui aziende, ricercatori, organizzazioni governative, rappresentanti degli Stati membri dell’UE e osservatori internazionali.

Novità per il funzionamento dei modelli AI

I General-Purpose AI (GPAI) rappresentano i sistemi di intelligenza artificiale più potenti al momento in sviluppo. Con una capacità computazionale che supera i 10²⁵ FLOPs. Tali modelli, estremamente versatili, trovano applicazione in diversi settori. È però importante sottolineare che presentano anche rischi significativi. Quest’ultimi sono dovuti alla loro natura sistemica e al potenziale impatto su larga scala. Tra le aziende che rientrano nelle linee guida delineate dal Codice figurano OpenAI

, Google, Meta, Anthropic e Mistral.

La redazione del Codice, avviata il 30 settembre sotto il coordinamento dell’European AI Office, si è avvalsa della collaborazione di Presidenti e Vice-Presidenti di quattro gruppi di lavoro tematici. La bozza integra esperienze dei principali fornitori di GPAI e approcci internazionali. Garantendo così una prospettiva globale. Strutturata in 36 pagine, affronta temi centrali come trasparenza, conformità al copyright, gestione dei rischi e mitigazione tecnica e di governance.

Tra i punti più rilevanti, il Codice richiede ai fornitori di modelli AI di fornire informazioni dettagliate sui sistemi di raccolta dati utilizzati per l’addestramento. Un passo fondamentale per tutelare i diritti di copyright e garantire responsabilità. Include, inoltre, misure per prevenire rischi sistemici quali discriminazioni, crimini informatici o scenari di perdita di controllo sull’intelligenza artificiale. Per rafforzare la sicurezza, propone l’adozione di un Safety and Security Framework (SSF), con protocolli di protezione dei dati e accesso controllato ai modelli AI.

Condividi
Pubblicato da
Margareth Galletta