News

Meta alla base di un modello AI sviluppato da ricercatori cinesi

Lo sviluppo dell’intelligenza artificiale e dei suoi modelli avanza sempre di più. A tal proposito, di recente, l’AI è arrivata anche in settori inaspettati come quello militare. Strategia che solleva interrogativi etici e strategici importanti. La questione è molto rilevante soprattutto considerando le recenti notizie riportate da Reuters. Sembra, infatti, che un gruppo di ricercatori cinesi ha impiegato il modello Llama di Meta per sviluppare un sistema di intelligenza artificiale con potenziali applicazioni in ambito militare. Il modello, disponibile pubblicamente, sarebbe stato utilizzato per creare un prototipo di nome “ChatBIT“. Quest’ultimo è ottimizzato per analisi di intelligence, pianificazione strategica e simulazione militare.

Meta alla base di un nuovo modello di intelligenza artificiale

Secondo quanto riportato, i ricercatori coinvolti provengono da istituzioni connesse all’Esercito Popolare di Liberazione (EPL) cinese. In particolare, dall’Accademia di Scienze Militari. Essi hanno utilizzato Llama 2 13B, versione rilasciata da Meta a febbraio 2023, integrandolo con parametri specifici per costruire uno strumento AI in grado di raccogliere e interpretare dati rilevanti per le operazioni militari. In questo modo si facilita la presa di decisioni tattiche e strategiche.

L’uso di Llama da parte dell’EPL però violerebbe esplicitamente i termini di utilizzo

stabiliti da Meta. Quest’ultimi proibiscono l’applicazione del modello in ambiti militari o bellici. Meta, rappresentata da Molly Montgomery, direttrice delle politiche pubbliche, ha confermato a Reuters che l’azienda non autorizza l’impiego dei suoi modelli per scopi militari e che tale uso è contrario alle politiche di licenza. Tale caso solleva quindi il problema del controllo sull’open source. Quando un modello è reso accessibile a tutti, risulta complesso monitorare e limitare i suoi impieghi, specialmente quando vengono utilizzati in contesti geopoliticamente delicati.

La situazione mette in discussione la filosofia stessa dell’open source per modelli avanzati di AI. Meta, infatti, sostiene che la condivisione aperta dei modelli possa accelerare lo sviluppo globale dell’intelligenza artificiale grazie al contributo di ricercatori di tutto il mondo. In questo contesto però le implicazioni di sicurezza e le possibili applicazioni militari preoccupano vari governi. Alla luce di tali considerazioni, è lecito domandarsi se modelli come Llama debbano essere limitati o regolamentati con più rigore. O se, in alternativa, sia possibile trovare un equilibrio tra apertura e sicurezza.

Condividi
Pubblicato da
Margareth Galletta