Facebook afferma che i suprematisti bianchi “non possono avere una presenza” sul social network

Facebook ha rimosso dalla sua piattaforma più di 200 organizzazioni di suprematisti bianchi per aver violato gli standard della comunità del terrorismo e dei discorsi d'odio, ha detto un rappresentante di Facebook a Digital Trends, come parte di una più ampia repressione dei contenuti dannosi.

"Se sei un membro o un leader di uno di questi gruppi, non puoi avere una presenza su Facebook", ha detto Sarah Pollack, portavoce della società di Facebook, mercoledì. Le classificazioni di "terrorismo" e "discorsi di odio" si basano sul comportamento, ha affermato.

"In base al loro comportamento, alcune delle organizzazioni suprematiste bianche che abbiamo bandito nell'ambito della nostra politica sugli individui e le organizzazioni pericolose sono state bandite come organizzazioni terroristiche, le altre sono state bandite come gruppi di odio organizzati".

In precedenza, Facebook si concentrava su ISIS, Al Qaeda e sui loro affiliati, e ora ha ampliato la definizione, il che significa che alcuni gruppi di suprematisti bianchi sono ora inclusi.

Inoltre, Pollack ha affermato, "altre persone non possono pubblicare contenuti, sostenere lodi o rappresentare [quei gruppi]. Questo è per gruppi, singoli individui, così come per gli attacchi rivendicati da questi gruppi. ”Pollack ha anche affermato che i tiratori di massa rientrerebbero in questa categoria.

In totale, Facebook afferma di aver rimosso oltre 22,8 milioni di contenuti da Facebook e circa 4,4 milioni di post da Instagram nel secondo e terzo trimestre del 2019 per aver violato gli standard della propria comunità, secondo il suo quarto Rapporto sull'applicazione delle norme della comunità pubblicato Mercoledì.

Facebook ha anche affermato di essere in grado di "rilevare in modo proattivo" oltre il 96% dei contenuti offensivi che ha rimosso da Facebook e oltre il 77% di quelli da Instagram.

Ciò ha segnato la prima volta che Instagram è stato incluso nel Rapporto sugli standard comunitari, nonché la prima volta che Facebook ha incluso dati su suicidio e autolesionismo.

"Collaboriamo con esperti per garantire che venga considerata la sicurezza di tutti", ha dichiarato Guy Rosen, vicepresidente di Facebook Integrity, in una nota . "Rimuoviamo i contenuti che descrivono o incoraggiano il suicidio o l'autolesionismo, tra cui alcune immagini grafiche e rappresentazioni in tempo reale che gli esperti ci dicono che potrebbero indurre altri a impegnarsi in comportamenti simili".

Rosen ha anche scritto che Facebook ha "apportato miglioramenti alla nostra tecnologia per trovare e rimuovere contenuti più violanti", incluso l'espansione dei dati sulla propaganda terroristica. Facebook ha affermato di aver identificato una vasta gamma di gruppi come organizzazioni terroristiche ed è riuscito a rimuovere in modo proattivo, hanno affermato, il 99% dei contenuti associati ad Al-Qaeda, all'ISIS e ai loro affiliati.

Inoltre, hanno affermato di aver ampliato i loro sforzi per rilevare e rimuovere in modo proattivo il 98,5% dei contenuti di Facebook da "tutte le organizzazioni terroristiche" oltre ad Al-Qaeda e ISIS e il 92,2% di post simili su Instagram.

La piattaforma ha anche affermato di aver rimosso 11,6 milioni di post da Facebook nel terzo trimestre del 2018 che la morte per nudità e sfruttamento dei bambini, il 99% dei quali è stata rilevata in modo proattivo, e significativamente superiore ai 5,8 milioni di post rimossi nel primo trimestre del 2018. Su Instagram, hanno detto hanno rimosso circa 1,3 milioni di post.

Sulla vendita illecita di droghe e armi da fuoco, Facebook ha anche affermato di aver notevolmente migliorato il suo tasso di abbattimento dal Q1 al Q3, rimuovendo un totale di 5,9 milioni di post da Facebook e circa 2,4 milioni da Instagram.