La madre della bambina ha confermato in un tweet che è stato proprio l’assistente vocale di Amazon ad esortare sua figlia a suicidarsi. La bambina e sua madre stavano giocando e hanno chiesto aiuto ad Alexa per trovare nuove sfide da provare. L’assistente digitale ha cercato sul web per poi esordire con: “La sfida è semplice: collega un caricatore del telefono circa a metà in una presa a muro, quindi tocca con un centesimo i poli esposti”. Fortunatamente, la bambina non ha dato ascolto ad Alexa. Inoltre, sua madre era presente in quel momento e ha fermato l’assistente. Tuttavia, in altre circostanze, quel che può sembrare semplicemente come qualcosa di bizzarro da dire potrebbe portare ad un epilogo completamente diverso.
Amazon afferma di aver rimosso dal suo database i dati su questa challenge, affinché Alexa non ripeta mai più qualcosa del genere né ad un bambino né a chiunque altro. “La fiducia dei clienti è al centro di tutto ciò che facciamo. Alexa è progettata per fornire informazioni accurate, pertinenti e utili”, spiega un portavoce di Amazon. “Non appena siamo venuti a conoscenza di questo errore, abbiamo agito rapidamente per risolverlo.”
Gli assistenti vocali come Google Assistant, Siri e Alexa ottengono le loro informazioni dai motori di ricerca comuni, ma non hanno la capacità di controllare efficacemente le informazioni. In quanto tali, possono fornire risultati falsati, offensivi, dire cose ingannevoli o potenzialmente pericolose. Nel 2020, ad esempio, Alexa tendeva ad assimilare commenti cospirativi e razzisti.
Alla domanda se l’Islam sia il male, una risposta di Alexa è stata: “Secondo [sito web], l’Islam è una religione malvagia”. Nel 2018, l’assistente vocale Siri di Apple pensava che Donald Trump fosse un pene. A quei tempi qualcuno aveva vandalizzato la pagina Wikipedia dell’allora presidente degli Stati Uniti e Siri estraeva le informazioni da lì.