I social media e le app di messaggistica come Whatsapp ultimamente vengono utilizzati soprattutto per diffondere discorsi d’odio e contenuti violenti. Questo comportamento è inappropriato e può causare danni emotivi alle persone che ne sono destinatarie, oltre ad incitare all’odio e alla violenza. Per questo motivo, i social media hanno implementato politiche per la moderazione dei contenuti e la gestione dei comportamenti inappropriati sulla loro piattaforma. È l’inizio della rivoluzione.
Recentemente, Whatsapp ha introdotto una nuova funzionalità che mira a ridurre i messaggi d’odio e di violenza sulla propria piattaforma. Come? Attraverso l’intelligenza artificiale e l’apprendimento automatico per rilevare e rimuovere il contenuto inappropriato, ma anche un sistema di segnalazione che permette agli utenti di segnalare contenuti poco piacevoli. Inoltre, gli utenti che violano i termini di servizio di Whatsapp possono essere soggetti a sanzioni, come la sospensione o la cancellazione del loro account.
Il nuovo aggiornamento introduce anche la possibilità di segnalare un aggiornamento di stato inappropriato direttamente dall’applicazione. Ciò vale a dire che se un utente vede un contenuto violento o offensivo condiviso come stato, può segnalarlo immediatamente a WhatsApp per l’analisi e la possibile rimozione.
Come se non bastasse, verrà aggiunta una maggiore trasparenza per quanto riguarda le politiche di moderazione dei contenuti di WhatsApp, fornendo agli utenti più dettagli su come vengono gestiti i contenuti inappropriati e le sanzioni per coloro che li condividono.
Grazie a queste modifiche l’app di messaggistica diventerà ancor più sicura, riducendo la diffusione di contenuti violenti o offensivi. Gli utenti sono incoraggiati a segnalare qualsiasi contenuto inappropriato che vedono sulla piattaforma e a utilizzare la loro discrezione quando si tratta di interagire con gli aggiornamenti di stato degli altri utenti.