Frances Haugen, ex product manager di Facebook, ha svuotato il sacco in un’intervista di 60 minuti. Haugen ha confermato che Facebook fomenta l’odio e la disinformazione dando priorità ai profitti. “La cosa che ho visto più e più volte erano i conflitti di interesse tra ciò che era buono per il pubblico e ciò che era buono per Facebook”. Haugen ha lavorato in diverse aziende, tra cui Google e Pinterest, ma “è stato sostanzialmente peggio lavorare per Facebook”. Il problema principale è stato un cambiamento che la società ha apportato nel 2018 ai suoi algoritmi, che decidono cosa vedono gli utenti nel feed di notizie della piattaforma.
“Il feed stesso dimostra che il contenuto pieno d’odio, che divide, che è polarizzante, è più facile, ispira le persone alla rabbia
, le tiene incollate allo schermo. Se la società cambiasse il suo algoritmo per essere al sicuro, le persone tenderebbero a trascorrere meno tempo sulla piattaforma, facendo clic su meno annunci e ottenendo meno soldi”. “Facebook guadagna di più quando si consumano più contenuti. Alle persone piace interagire con cose che suscitano una reazione emotiva. E più rabbia a cui vengono esposti, più interagiscono e più consumano”, spiega l’ex manager.La società ha attivato temporaneamente i sistemi di sicurezza durante il periodo elettorale per ridurre la disinformazione. “Non appena le elezioni sono finite, li hanno disattivati o hanno riportato le impostazioni a quelle che erano prima, per dare priorità alla crescita rispetto alla sicurezza”. L’azienda replica: “Proteggere la nostra comunità è più importante che massimizzare i nostri profitti. Dire che chiudiamo un occhio sul feedback ignora questi investimenti. Comprese le 40.000 persone che lavorano per la sicurezza su Facebook e il nostro investimento di 13 miliardi di dollari dal 2016″.