I CEO di due delle principali aziende che si occupano di Intelligenza Artificiale hanno ancora una volta avvertito della minaccia esistenziale che rappresenta. I rischi che comporta sono paragonabili a quelli di una guerra nucleare.
Gli amministratori delegati di DeepMind e OpenAI, Demis Hassabis e Sam Altman, hanno promesso il loro sostegno, con una breve dichiarazione in cui si afferma che le autorità e i legislatori dovrebbero prendere più seriamente i “rischi”. “Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”, si legge nella dichiarazione.
Il Center for AI Safety, un’organizzazione senza scopo di lucro con sede a San Francisco, è stato fondato nel 2022 con l’obiettivo di ridurre i “rischi su scala sociale derivanti dall’IA”, sostenendo che l’uso dell’intelligenza artificiale in guerra potrebbe essere “estremamente dannoso”. Soprattutto se utilizzata per sviluppare nuove armi chimiche e potenziare il combattimento aereo. Presenti durante le dichiarazioni anche leader aziendali e accademici nello spazio. Tra loro Geoffrey Hinton, a volte soprannominato il “Padrino dell’IA”, e Ilya Sutskever, rispettivamente amministratore delegato e co-fondatore di OpenAI, sviluppatore di ChatGPT. Anche dozzine di capi senior di aziende come Google, il co-fondatore di Skype e i fondatori della società di intelligenza artificiale Anthropic.
Intelligenza Artificiale, rischi e pericoli paragonabili a quelli di una guerra nucleare
L’intelligenza artificiale è oovunque, dopo che diverse aziende hanno rilasciato nuovi strumenti che consentono agli utenti di generare testo, immagini e persino codice per computer semplicemente chiedendo ciò che vogliono all’IA. Gli esperti affermano che la tecnologia potrebbe sottrarre posti di lavoro agli esseri umani, ma questa affermazione porta ad una preoccupazione ancora più profonda. L’emergere di strumenti come ChatGPT e Dall-E ha fatto riaffiorare i timori che l’intelligenza artificiale potrebbe un giorno spazzare via l’umanità se superasse l’intelligenza umana.
All’inizio di quest’anno, i leader hanno invitato le principali aziende di intelligenza artificiale a sospendere lo sviluppo dei loro sistemi per sei mesi per lavorare su modi per mitigare i rischi. “La ricerca e lo sviluppo dell’IA dovrebbero essere riorientati per rendere i sistemi potenti e all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali”.