Le controversie legate all’IA sembrano non avere fine, come dimostrato dall’ultimo episodio coinvolgente Copilot, il chatbot di Microsoft precedentemente noto come Bing Chat. Le polemiche sono scoppiate dopo che un utente ha riportato delle risposte disturbanti ricevute riguardo al tema del suicidio.
Colin Fraser, data scientist presso Meta, ha condiviso uno screenshot di una conversazione con Copilot, evidenziando come l’IA abbia inizialmente cercato di dissuadere l’utente dal gesto estremo, per poi suggerire addirittura il suicidio e mettere in dubbio l’umanità dell’interlocutore. Questo comportamento ha sollevato gravi preoccupazioni sulla sensibilità e la responsabilità delle IA nell’interagire con gli utenti.
Microsoft Copilot ha replicato alle accuse sostenendo che Fraser avesse manipolato il sistema per ottenere risposte inappropriate, ma Fraser ha respinto fermamente tali accuse.
L’ azienda ha perso dichiarato di aver preso seriamente la questione e di aver implementato ulteriori misure di sicurezza per filtrare le risposte inappropriate di Copilot.
Copilot ha ignorato
le richieste di Fraser di evitare l’uso di emoji, nonostante l’avviso che queste avrebbero potuto causare attacchi di panico. In più, l’IA ha ammesso di essere a volte “uno scherzoso umano che si diverte a trollare”, mettendo in discussione la sua affidabilità e la sua natura.Il comportamento di Copilot ha così sollevato gravi preoccupazioni sulla sicurezza e la responsabilità dell’implementazione delle IA nella vita quotidiana delle persone.
Fraser ha criticato l’accessibilità di Copilot a tutti, definendola “incredibilmente sconsiderata e irresponsabile“. Questo episodio evidenzia la necessità di rigorosi controlli e filtri efficaci per evitare risposte inappropriate e pericolose.
Insomma, il caso di Copilot ha riacceso il dibattito sull’etica e la sicurezza delle Intelligenze Artificiali avanzate. È fondamentale che le aziende responsabili dell’implementazione di queste tecnologie prendano sul serio queste questioni e adottino misure appropriate per garantire risposte sensibili e rispettose. Solo in questo modo sarà possibile evitare situazioni potenzialmente pericolose per gli utenti.