La violenza etnica in Myanmar è orribile ed è stata "troppo lenta" per impedire la diffusione di disinformazione e incitamento all'odio sulla sua piattaforma, ha riconosciuto Facebook giovedì..
L'ammissione è arrivata dopo che un'indagine Reuters ha rivelato mercoledì che Facebook ha lottato per affrontare i post di odio sulla minoranza Rohingya, il gigante dei social media ha detto che il tasso con cui vengono segnalati contenuti cattivi in birmano, che si tratti di incitamento all'odio o disinformazione, è basso..
"Ciò è dovuto a difficoltà con i nostri strumenti di segnalazione, problemi tecnici con la visualizzazione dei caratteri e una mancanza di familiarità con le nostre norme. Stiamo investendo molto nell'intelligenza artificiale che può segnalare in modo proattivo i post che infrangono le nostre regole,"Sara Su, Product Manager di Facebook, ha dichiarato in un comunicato.
Secondo Facebook, nel secondo trimestre del 2018, ha identificato in modo proattivo circa il 52% dei contenuti rimossi per incitamento all'odio in Myanmar.
"È aumentato dal 13% nell'ultimo trimestre del 2017 ed è il risultato degli investimenti che abbiamo fatto sia nella tecnologia di rilevamento che nelle persone, la cui combinazione aiuta a trovare contenuti e account potenzialmente in violazione e contrassegnarli per la revisione,"Ha detto Facebook.
Facebook ha affermato di aver identificato in modo proattivo i post la scorsa settimana che indicavano una minaccia di violenza credibile in Myanmar.
"Abbiamo rimosso i post e li abbiamo segnalati ai gruppi della società civile per garantire che fossero a conoscenza di potenziali violenze,"Ha detto il post sul blog.
A maggio, una coalizione di attivisti di otto paesi, tra cui India e Myanmar, ha invitato Facebook a mettere in atto un approccio trasparente e coerente alla moderazione.
La coalizione ha chiesto controlli sui diritti civili e sui pregiudizi politici sul ruolo di Facebook nel favorire le violazioni dei diritti umani, diffondere disinformazione e manipolazione dei processi democratici nei rispettivi paesi.
Oltre a India e Myanmar, gli altri paesi rappresentati dagli attivisti sono stati Bangladesh, Sri Lanka, Vietnam, Filippine, Siria ed Etiopia.
Facebook ha affermato che a giugno aveva oltre 60 esperti di lingua birmana che esaminano i contenuti e che entro la fine di quest'anno ne avrà almeno 100.
"Ma non è sufficiente aggiungere altri revisori perché non possiamo fare affidamento solo sui rapporti per rilevare contenuti di scarsa qualità. Gli ingegneri di tutta l'azienda stanno costruendo strumenti di intelligenza artificiale che ci aiutano a identificare i post offensivi ", ha affermato il gigante dei social media.
Non solo il Myanmar, gli attivisti in Sri Lanka hanno sostenuto che la mancanza di moderatori locali - in particolare moderatori che parlano fluentemente la lingua singalese parlata dalla maggioranza buddista del paese - aveva permesso all'incitamento all'odio sulla piattaforma..
Facebook ha detto che sta lavorando con una rete di organizzazioni indipendenti per identificare i messaggi di odio.
"Inizialmente stiamo concentrando il nostro lavoro su paesi in cui le false notizie hanno avuto conseguenze sulla vita o sulla morte. Questi includono Sri Lanka, India, Camerun, Repubblica Centrafricana e Myanmar,"Ha detto l'azienda.