Società come Google si stanno impegnando al fine di ottimizzare i propri sistemi di assistenza vocale al fine di garantire una comunicazione molto più umana ed user-friendly. Ma il pericolo è dietro l’angolo visto che malintenzionati potrebbero nascondere messaggi segreti dentro file musicali o persino testuali come un eBook al fine di avviare azioni malevole volte a sottrarre dati sensibili come codici bancari ed info personali.
Lo abbiamo visto nel video che vi proponiamo qui a seguire che fa da sostegno ad una ricerca condotta sia in Cina che negli Stati Uniti sulla base di uno studio datato 2016 portato avanti dalla prestigiosa Università di Berkeley che all’epoca dimostrava che era possibile “nascondere” comandi segreti all’interno del rumore bianco
.Trattasi di un exploit ancora poco in voga ma potenzialmente applicabile ad ampio raggio nel contesto dei sistemi AI comandati a voce. Secondo Nicholas Carlini dell’Università di Berkeley pare che gli hacker si siano già messi in moto in tale direzione e non manca poco prima di prevederne l’applicabilità sul piano pratico. I risvolti negativi sono più che lampanti. Occorre correre ai ripari.
Google, Apple, Amazon e Microsoft si sono rifiutate all’unisono di commentare in via diretta ma hanno ricordato congiuntamente che la sicurezza del proprio assistente vocale così come di tutti i loro altri prodotti e piattaforme di servizio viene prima di tutto. C’è da fidarsi?