Il Progetto Nimbus è un particolare progetto nato dalla collaborazione tra Google e Deepmind che sta facendo discutere per la sua etica.

Google e la sua divisione DeepMind sono al centro di una crescente controversia interna riguardante l’uso dell’intelligenza artificiale per scopi militari. La disputa si concentra sul Progetto Nimbus, un contratto da 1,2 miliardi di dollari che prevede la fornitura di servizi e strumenti basati sull’IA, sviluppati da DeepMind, all’esercito israeliano. La questione ha attirato l’attenzione e il dissenso di molti dipendenti, creando tensioni etiche all’interno del colosso tecnologico.

 

Il dilemma etico del Progetto Nimbus

A maggio, un gruppo di circa 200 dipendenti di DeepMind ha firmato una lettera di protesta contro i contratti di Google con le forze armate. La lettera, recentemente divulgata da TIME, esprime preoccupazione per il coinvolgimento dell’azienda con l’industria militare e la produzione di armi, ritenuto contrario alla missione etica dichiarata di Google nel campo dell’IA. I dipendenti si lamentano anche della mancanza di trasparenza da parte dell’azienda riguardo ai dettagli del Progetto Nimbus e temono che potrebbero esserci clausole che consentono l’uso della tecnologia per scopi militari.

Nonostante le sollecitazioni, i dipendenti affermano di non aver ricevuto “alcuna risposta significativa dalla leadership” nei tre mesi successivi alla lettera. La situazione è ulteriormente complicata dalla recente fusione di DeepMind con Google Brain, che ha ridotto l’autonomia di DeepMind e la sua capacità di influenzare le decisioni etiche all’interno dell’azienda. Ora, DeepMind è vincolata alla politica etica generale di Google, la quale consente lo sviluppo di tecnologie potenzialmente dannose se i benefici sono ritenuti superiori ai rischi. Ma non è chiaro come venga effettuata questa valutazione.

Google, da parte sua, sostiene che il Progetto Nimbus non sia destinato a “carichi di lavoro altamente sensibili, classificati o militari rilevanti per armi o servizi di intelligence”. Nonostante queste dichiarazioni, i dipendenti di DeepMind rimangono scettici e preoccupati riguardo all’effettivo utilizzo della loro tecnologia.

Attualmente, è confermato che Israele e il suo Ministero della Difesa hanno accesso al software Cloud di Google, che integra tecnologie basate sull’IA. Google afferma che il software non è utilizzato per scopi militari o per la produzione di armi, ma i dipendenti non hanno modo di verificare queste affermazioni. Questa situazione sottolinea l’urgenza di un dialogo aperto e trasparente sul ruolo delle grandi aziende tecnologiche nei contratti militari, evidenziando le sfide etiche cruciali per il futuro della tecnologia e della società.

Articolo precedenteGalaxy Z Fold 6 e Z Flip 6: in arrivo il primo aggiornamento
Articolo successivoAmazon annuncia la Festa delle Offerte Prime: appuntamento a Ottobre