I truffatori al centro delle ultime polemiche hanno sfruttato l’Intelligenza Artificiale per clonare la voce di una bambina vittima di un finto rapimento. L’intento era improvvisare una telefonata creata con IA per far credere alla madre della bambina che la figlia fosse scomparsa.
Jennifer DeStefano, madre della vittima di questo inganno, ha risposto alla chiamata dei truffatori, i quali hanno messo in scena una telefonata costernata di pianti e disperazione della quindicenne Brie. Lo scopo era chiedere un riscatto in cambio della sua libertà. Subito dopo il finto pianto della figlia di Jennifer, clonato con l’IA, è intervenuta una voce maschile minacciosa per chiedere la ricompensa alla povera madre disperata. L’apparente rapitore ha anche sottolineato: “Se chiami la polizia, o chiunque, la riempirò di droga, farò a modo mio con lei e la lascerò in Messico.” In sottofondo, la signora DeStefano ha detto di aver sentito sua figlia dire “aiutami, mamma, per favore aiutami” e piangere a singhiozzi. “Era al 100% la sua voce”, ha ribadito.
Intelligenza Artificiale usata per clonare la voce di una bambina e fingere un rapimento
L’apparente rapitore ha chiesto 1 milione per il rilascio della figlia, prima di abbassare la cifra a 50.000 dollari. La signora DeStefano si è resa conto che sua figlia fosse al sicuro solo quando suo marito ha confermato che fosse in gita con la scuola. Il truffatore, su cui la polizia sta ancora indagando, sembra aver utilizzato l’intelligenza artificiale. Negli ultimi anni è diventata sempre più competente nell’imitare le voci delle persone.
È anche relativamente facile da utilizzare, con strumenti di intelligenza artificiale ormai disponibili gratuitamente su Internet. Le voci generate dall’intelligenza artificiale sono già state utilizzate nei film per replicare attori come James Earl Jones. Per chi non lo sapesse, ha doppiato il personaggio originale di Darth Vader nel franchise di Star Wars. Le app di questo genere stanno diventando sempre più popolari e potenti. Questo metodo è stato anche pubblicizzato come un modo per gli autori di ottenere audiolibri senza passare ore in uno studio a rileggere il proprio lavoro.
La tecnologia rischia anche di essere utilizzata per creare video con la tecnologia del deepfake. In un comunicato stampa dello scorso anno, l’azienda Respeecher ha dichiarato: “L’attenzione diffusa e l’adozione delle tecnologie del deepfake accelereranno la necessità di regolamentare l’uso della tecnologia”.