La giuria nominata dal governo ha presentato una bozza di un rapporto al Congresso dopo due giorni di discussioni incentrate sull’uso dell’IA da parte della più grande potenza militare del mondo. Robert Work, vicepresidente della giuria ed ex vice segretario alla difesa, ha affermato che le armi autonome dovrebbero fare meno errori di quelli che fanno gli umani in battaglia. Questo comporterebbe una riduzione delle vittime causate dall’errata identificazione del bersaglio.
Abbastanza palesi le controversie sui diritti dell’uomo e della guerra. Per circa otto anni, una coalizione di organizzazioni non governative ha voluto un trattato che bandisca i “robot assassini”. Questa coalizione ritiene che il controllo umano sia necessario per stabilire chi è vittima e chi carnefice durante una battaglia. Trenta Paesi, tra cui Brasile e Pakistan, pretendono un ban a riguardo. Sebbene le capacità delle armi Robot siano vecchie di decenni, è in aumento la preoccupazione riguardanti lo sviluppo dell’IA per alimentare concretamente tali sistemi.
Il panel statunitense, chiamato National Security Commission on Artificial Intelligence, ha riconosciuto i rischi delle armi autonome. Un membro di Microsoft Corp, ad esempio, ha avvertito della pressione per costruire macchine che reagiscono rapidamente, il che potrebbe aumentare i conflitti. Mary Wareham, coordinatrice della campagna per fermare i robot assassini, ha affermato che “l’attenzione della commissione sulla necessità di competere con investimenti simili fatti da Cina e Russia serve solo ad incoraggiare”.
La commissione dovrebbe presentare il suo rapporto finale al Congresso a marzo, ma le raccomandazioni non sono vincolanti. Nel 2018, più di 3.000 dipendenti di Google hanno firmato una lettera aperta invitando il gigante della tecnologia a tagliare tutti i legami con le forze armate statunitensi. “Crediamo che Google non dovrebbe essere coinvolto esplicitamente nelle guerre. Non possiamo affidare a terzi la responsabilità morale delle nostre tecnologie“.