Se nel prossimo futuro i sistemi di guida autonoma controlleranno tutte le auto in circolazione, al momento sono delle macchine basate su AI che possono essere ingannate pericolosamente. Infatti è stato dimostrato che la manomissione dell’autopilot di Tesla ha messo in pericolo gli automobilisti che si affidano a soluzioni di guida assistita. L’inganno ha funzionato senza problemi su Tesla Model X e Model S grazie a un cartello che limita la velocità manomesso per farle sfrecciare a più di 130 km/h in strade dove il limite era di 50.
Senza passare da complicate operazioni di hacking sui sistemi informatici dell’auto, i ricercatori hanno manomesso un cartello stradale in modo che il sistema di riconoscimento della segnaletica incorporato nell’Autopilot lo interpretasse male. La dimostrazione avvenuta negli Stati Uniti si è avvalsa di semplice nastro adesivo nero. il quale sul cartello ha fatto sembrare un 8 quello che era un 3.
Tesla in pericolo: basta una manomissione per causare un incidente
Sappiamo che l’autopilot delle Tesla imposta la velocità di crociera del veicolo su ciò che l’auto riesce a leggere dai simboli stradali. L’inganno ha quindi dimostrato che il sistema può violare i limiti di velocità senza che ci sia un errore intelligibile dall’intelligenza artificiale.
L’attacco ha avuto come unico bersaglio il chip intelligente per il riconoscimento delle immagini chiamato Mobileye EyeQ 3, ovvero quello impiegato da Tesla su alcune delle sue auto meno recenti. Sebbene non sia la prima volta che un algoritmo per la guida assistita possa essere ingannato con trucchi ottici, in merito non esiste ancora una soluzione al problema.
Tradizionalmente i produttori impiegano poco tempo a sviluppare dei correttivi software ma senza un sistema capace di prevedere nuovi attacchi non saremo veramente al sicuro. Anche sulle auto più all’avanguardia e costose non sarà semplice togliere le mani dal volante e affidarsi all’Autopilot.