Il colosso di Mountain View ha infatti eliminato alcuni principi fondamentali che in passato limitavano la creazione di tecnologie potenzialmente pericolose.
Fino a poco tempo fa, Google dichiarava esplicitamente di non voler sviluppare intelligenza artificiale per “armi o altre tecnologie il cui scopo principale fosse quello di causare o facilitare direttamente danni alle persone”. Inoltre, l’azienda evitava la creazione di “tecnologie per la sorveglianza che violino le norme internazionali accettate”. Tuttavia, questi impegni sono stati ora rimossi dai principi ufficiali.
Un cambiamento nell’uso dell’AI
Questa decisione rappresenta un cambiamento radicale rispetto alla posizione assunta nel 2018, quando Google rifiutò di rinnovare il contratto “Project Maven” con il governo degli Stati Uniti. Questo progetto prevedeva l’uso dell’intelligenza artificiale per analizzare le immagini dei droni militari. Nello stesso periodo, l’azienda scelse di non partecipare a una gara d’appalto per un contratto cloud con il Pentagono, citando preoccupazioni legate alla compatibilità con i propri principi etici.
Negli ultimi anni, tuttavia, la strategia di Google è cambiata. Un primo segnale di questa evoluzione è stato il “Project Nimbus” nel 2022, un’iniziativa che ha sollevato preoccupazioni interne per il possibile utilizzo dei servizi Google Cloud in contesti che potrebbero violare i diritti umani. L’azienda ha reagito imponendo restrizioni ai propri dipendenti riguardo alla discussione di questioni geopolitiche delicate, come il conflitto israelo-palestinese, provocando proteste e licenziamenti.
Demis Hassabis, CEO di Google DeepMind, ha affermato in un recente post aziendale che “le democrazie dovrebbero guidare lo sviluppo dell’AI”. Parole che risuonano in un contesto più ampio, soprattutto alla luce delle dichiarazioni di Shyam Sankar, CTO di Palantir, secondo cui la corsa agli armamenti nell’AI deve essere “uno sforzo nazionale che coinvolga non solo il Dipartimento della Difesa, ma l’intero Paese per garantire la vittoria”.
Alla base di questa decisione potrebbero esserci principalmente motivazioni economiche. I contratti governativi, in particolare quelli del Dipartimento della Difesa e del Pentagono, rappresentano opportunità estremamente redditizie per le aziende tecnologiche. Di conseguenza, l’idea di impiegare l’intelligenza artificiale per scopi militari, un tempo relegata alla fantascienza, sta rapidamente diventando una realtà concreta. Se siete interessati all’argomento vi consigliamo articoli simili in modo tale da rimanere aggiornati sul mondo AI.