I General-Purpose AI (GPAI) rappresentano i sistemi di intelligenza artificiale più potenti al momento in sviluppo. Con una capacità computazionale che supera i 10²⁵ FLOPs. Tali modelli, estremamente versatili, trovano applicazione in diversi settori. È però importante sottolineare che presentano anche rischi significativi. Quest’ultimi sono dovuti alla loro natura sistemica e al potenziale impatto su larga scala. Tra le aziende che rientrano nelle linee guida delineate dal Codice figurano OpenAI
, Google, Meta, Anthropic e Mistral.La redazione del Codice, avviata il 30 settembre sotto il coordinamento dell’European AI Office, si è avvalsa della collaborazione di Presidenti e Vice-Presidenti di quattro gruppi di lavoro tematici. La bozza integra esperienze dei principali fornitori di GPAI e approcci internazionali. Garantendo così una prospettiva globale. Strutturata in 36 pagine, affronta temi centrali come trasparenza, conformità al copyright, gestione dei rischi e mitigazione tecnica e di governance.
Tra i punti più rilevanti, il Codice richiede ai fornitori di modelli AI di fornire informazioni dettagliate sui sistemi di raccolta dati utilizzati per l’addestramento. Un passo fondamentale per tutelare i diritti di copyright e garantire responsabilità. Include, inoltre, misure per prevenire rischi sistemici quali discriminazioni, crimini informatici o scenari di perdita di controllo sull’intelligenza artificiale. Per rafforzare la sicurezza, propone l’adozione di un Safety and Security Framework (SSF), con protocolli di protezione dei dati e accesso controllato ai modelli AI.