Microsoft ha scelto di disattivare il chatbot Tay, il robot dotato di intelligenza artificiale che era stato lanciato su Twitter e su altri social network nella giornata di mercoledì. Il dispositivo, creato per sostenere conversazioni con i “millennial“, è finito sotto accusa per aver favorito la trasmissione di messaggi razzisti, sessisti e xenofobi. Attualmente, l’azienda ha sospeso le attività del programma per apportare alcune modifiche.
Avrebbe solo dovuto imparare a ripetere delle semplici frasi e simulare una normale conversazione tra adolescenti. Invece, la rete ha pensato di approfittare delle sue modalità di apprendimento, diffondendo – in breve tempo – una serie di slogan offensivi e denigratori. In questo modo, il chabot Tay si è fatto portavoce di pessime dichiarazioni: dal sostegno del genocidio alla negazione dell’Olocausto; fino alle accuse mosse a Bush per aver orchestrato la strage dell’11 settembre 2001, precisando come Hitler avrebbe svolto un lavoro migliore.
Il bot nasce dall’idea della “call and response” – “chiamata e risposta” – e dal bisogno di sperimentare l’interazione tra un computer e un essere umano. Sul sito web, la società ha precisato che il programma è stato rivolto ad un pubblico di utenti con età compresa tra i 18 e i 24 anni; e che tale dispositivo sia stato “progettato per coinvolgere ed intrattenere la gente attraverso una conversazione informale e giocosa, durante la fase di collegamento“. A caratterizzare Tay vi è, innanzitutto, l’abilità di apprendere una serie di slang americani: un insieme di espressioni che non appartengono al lessico standard della lingua, benché molto diffuse nel linguaggio utilizzato dai più giovani.
Proprio mercoledì, Microsoft ha invitato il pubblico a chattare con il programma sulla piattaforma di Twitter e di altri popolari servizi di messaggistica istantanea; ma alcuni utenti hanno spinto il prototipo a pronunciare commenti provocatori e irrispettosi nei confronti di molte culture.
“Purtroppo, nelle sue prime 24 ore online, siamo divenuti consapevoli del coordinato sforzo, da parte di alcuni utenti, di voler abusare delle competenze di Tay, attraverso un linguaggio inappropriato. Tay, al momento, è offline. E noi stiamo apportando delle modifiche.” ha dichiarato l’azienda in un comunicato stampa inviato, tramite e-mail, al The Guardian.
Kris Hammond – studioso di intelligenza artificiale presso la Northwestern University e a capo della “Narrative Science“, una società che sviluppa programmi per computer in grado di trasformare i dati in report narrativi – ha giustificato l’accaduto sostenendo che, contrariamente alle polemiche che circolano, il chabot Tay si sarebbe limitato a ripetere i suggerimenti ottenuti da persone curiose. Quando Caroline Sinders – esperta di “analisi conversativa” e impegnata nella programmazione di robot di chat – ha definito il dispositivo intelligente come “un esempio di cattiva progettazione“, Hammond ha replicato che, a suo avviso, il robot possa considerarsi “un buon esempio di machine learning. Il suo apprendimento avviene tramite input e questo rende necessaria una manutenzione costante“.
Nella giornata di giovedì, Microsoft ha provveduto ad eliminare tutti i messaggi recapitati. L’ultimo post recitava: “C u soon humans need sleep now so many conversations today. Thx” (“Ci vediamo presto umani, adesso ho bisogno di dormire dopo tutte le conversazioni di oggi. Grazie“). In attesa del suo ritorno, auguriamo al chabot Tay di rimettersi in sesto.