Instagram ha introdotto uno strumento anti-bullismo e molestie che spera possa frenare i comportamenti abusivi sulla sua piattaforma, poiché l’app di proprietà di Facebook continua a dover affrontare crescenti richieste di fare di più per impedire alle persone di essere vittime di abusi.
Lo strumento mirerà a prevenire il bullismo facendo uso dell’intelligenza artificiale (AI) per rilevare il bullismo e altri contenuti dannosi in commenti, foto e video. Quando viene rilevato un contenuto discutibile, l’app informa l’utente che il suo post può essere considerato offensivo e chiede se desidera ancora caricare il commento.
Secondo il capo di Instagram Adam Mosseri, l’app ha rilevato nei primi test che lo strumento “incoraggia alcune persone” a non pubblicare il loro commento e sceglie invece di condividerne uno “meno offensivo”.
“Negli ultimi giorni, abbiamo iniziato a lanciare una nuova funzionalità basata sull’intelligenza artificiale che notifica alle persone quando il loro commento può essere considerato offensivo prima di essere pubblicato
“, ha affermato Mosseri. “Questo intervento offre alle persone la possibilità di riflettere e annullare il loro commento e impedisce al destinatario di ricevere la notifica di commento dannoso.”Instagram sta introducendo lo strumento dopo anni di pressioni per affrontare il bullismo e contenuti pericolosi dopo casi ampiamente segnalati, come lo sfortunato suicidio dell’adolescente britannica Molly Russell nel 2017, a cui suo padre, Ian Russell, ha detto che Instagram aveva “aiutato”.
“Abbiamo sentito da giovani della nostra comunità che sono riluttanti a bloccare, smettere di seguire o denunciare il loro bullo perché potrebbe peggiorare la situazione, specialmente se interagiscono con il loro bullo nella vita reale“, ha spiegato Mosseri come motivo per lo strumento. “Alcune di queste azioni rendono anche difficile per un bersaglio tenere traccia del comportamento del bullo“.