Un gruppo di 26 ricercatori specializzati in intelligenza artificiale si è incontrato per parlare con precisione dei pericoli che potrebbe causare l’uso improprio di questa tecnologia. Al di là di uno scenario simile alla ribellione delle macchine, gli specialisti mettono in evidenza le conseguenze dell’intelligenza artificiale se vengono messe in pratica per scopi dannosi o illeciti.
I risultati di questa discussione si sono riflessi in un rapporto dell’Università di Oxford che descrive in dettaglio il tipo di pericoli che questa tecnologia può causare e le strategie per ridurre al minimo i rischi.
I cosiddetti deepfakes erano sotto i riflettori alcune settimane fa ed sono stati anche uno degli esempi dei ricercatori. Questa tattica comporta il cambiamento del volto di una persona ed è stata utilizzata dagli utenti di Reddit per creare video porno falsi in cui hanno sostituito il volto dell’attrice porno con quello di celebrità come Gal Gadot e Taylor Swift. Attraverso l’intelligenza artificiale, queste pratiche sono diventate popolari su alcune piattaforme fino a quando non sono state in grado di agire. Reddit, Twitter e Pornhub mettono fine a questi video porno falsi proibiti e li considerano illegali perché non hanno il consenso della persona il cui volto è stato utilizzato per creare contenuti falsi.
Questo esempio è stato evidenziato dai ricercatori perché, anche se l’apprendimento automatico può essere di grande importanza per settori come gli effetti speciali nel cinema, dobbiamo tener conto del pericolo che non ci sia controllo su chi può usa questa tecnologia attraverso applicazioni come FakeApp. Grazie alle quali tutti gli utenti possono creare i propri deepfakes
senza bisogno di conoscenze tecniche particolari.Oltre a creare falsi video pornografici, l’intelligenza artificiale potrebbe essere utilizzata anche per un altro tipo di contenuto che potrebbe comportare un rischio politico. I ricercatori che si sono incontrati a Oxford hanno dato come esempio una registrazione di Donald Trump che dichiara guerra alla Corea del Nord dopo il conflitto nucleare tra i due paesi. Le conseguenze di questo video falso potrebbero essere catastrofiche.
Per evitare tali situazioni, la relazione raccomanda che i ricercatori e gli ingegneri nel campo dell’intelligenza artificiale “dovrebbero prendere sul serio la natura duplice uso del loro lavoro, quando le applicazioni dannose sono prevedibili“.
In termini di sicurezza digitale, gli esperti hanno avvertito dell’aumento degli attacchi informatici negli ultimi anni e di come l’uso improprio della tecnologia potrebbe aumentare il numero ancora di più. Pratiche come il phishing e il furto di identità potrebbero essere un pericolo su larga scala se le persone avessero accesso e sapessero usare l’intelligenza artificiale per commettere crimini informatici. La ricerca e lo sviluppo sono in prima linea ma “se queste tendenze continueranno per i prossimi 5 anni, ci aspettiamo che la capacità degli hacker di causare danni ai sistemi digitali e robotici aumenterà in modo significativo“.
D’altra parte, l’intelligenza artificiale ha un’importanza crescente per le attività quotidiane come la guida. L’aumento delle automobili autonome è una delle più grandi innovazioni nel settore automobilistico. Tuttavia, immaginiamo per un momento che un veicolo di queste caratteristiche possa essere hackerato e che una terza persona sia in grado di guidare l’auto a proprio piacimento.
Allo stesso modo, le smarthome hanno molti vantaggi, anche se i dati cadessero nelle mani sbagliate sarebbe estremamente facile controllare l’accesso alle case. Infine, i ricercatori hanno aggiunto la creazione di armi autonome come un altro dei pericoli dell’intelligenza artificiale se non viene usato correttamente.