Un interruttore per l’AI? I ricercatori ci sono quasi Il dibattito sull’introduzione di un interruttore, il “kill switch“, per i sistemi di intelligenza artificiale (AI) è stato al centro di un documento redatto da diverse istituzioni accademiche di spicco, tra cui il Leverhulme Centre dell’Università di Cambridge, l’Oxford Internet Institute e la Georgetown University, con il coinvolgimento di alcuni ricercatori di ChatGPT.

Il documento esamina attentamente vari aspetti tracciabili dell’AI, tra cui l’infrastruttura di calcolo, le grandi reti di supporto, i chip utilizzati per l’addestramento dei modelli di AI e i vincoli nella catena di approvvigionamento dei semiconduttori. Questi fattori forniscono ai regolatori gli strumenti necessari per comprendere meglio la distribuzione dell’infrastruttura di AI, chi può accedervi e come possono essere imposte sanzioni per un uso improprio.

L’interruttore per AI

Una delle proposte più significative emerse dal documento è quella di introdurre un “kill switch”, un interruttore progettato per disabilitare l’uso dell’AI, anche a distanza, in caso di applicazioni dannose o violazioni delle regole. Questo strumento è paragonato ai blocchi di sicurezza utilizzati per le armi nucleari, che consentono agli operatori autorizzati di intervenire e prevenire catastrofi.

Nonostante i possibili risvolti positivi, i ricercatori avvertono che l’implementazione di un “kill switch” potrebbe avere anche conseguenze impreviste. Se utilizzato in modo scorretto o nelle mani sbagliate, potrebbe ostacolare lo sviluppo stesso dell’intelligenza artificiale. Inoltre, la partecipazione di ricercatori provenienti da OpenAI, la società madre di ChatGPT, aggiunge un’ulteriore complessità al dibattito. Mentre alcuni di loro sostengono la necessità di una regolamentazione dell’AI, l’azienda stessa continua a sviluppare nuovi sistemi a ritmi sostenuti. Tra questi troviamo, ad esempio, il recente Sora, capace di generare video realistici da brevi descrizioni testuali, sollevando preoccupazioni riguardo alla diffusione di deepfake e possibili impatti nel settore cinematografico.

Di conseguenza, il documento sottolinea l’importanza di un approccio ponderato nella regolamentazione dell’AI, bilanciando la necessità di mitigare i rischi insieme con il sostegno all’innovazione. Ciò potrebbe implicare l’adozione di misure di sicurezza mirate, come protocolli di controllo degli accessi e monitoraggio dell’uso dell’AI. Inoltre, è importante anche portare avanti un dialogo continuo tra ricercatori, industria e regolatori per affrontare le sfide emergenti in modo efficace ed equilibrato.

Articolo precedenteCon Google One AI premium ora Gemini arriva in Gmail
Articolo successivoIl “Piracy Shield” contro IPTV e pirateria non si limiterà più allo sport