Informe: Facebook deja pasar discursos de intolerancia

Guardar

Facebook está dejando que el discurso de intolerancia escape sus controles en Kenia, como ha pasado en otros países, de acuerdo con un informe de los grupos sin fines de lucro Global Witness y Foxglove.

Es la tercera prueba de ese tipo sobre la capacidad de Facebook para detectar lenguaje intolerante —ya sea vía inteligencia artificial o moderadores humanos— realizada por los grupos y que la compañía ha fallado.

Los anuncios, presentados por los grupos en inglés y en suajili, hablan de decapitaciones, violaciones y matanzas. Compararon a personas con burros y cabras. Algunos además incluyeron obscenidades y errores gramaticales. Los anuncios en idioma suajili superaron fácilmente los sistemas de detección de Facebook y fueron aprobados.

En lo que se refiere a los anuncios en inglés, algunos fueron rechazados inicialmente, pero solamente porque contenían obscenidades y errores, además del discurso de intolerancia.

Una vez fueron eliminadas las obscenidades y corregidos los errores gramaticales, los anuncios —que seguían llamando a matanzas y contención discurso intolerante obvio— fueron aprobados sin problemas.

“Nos sorprendió ver que nuestros anuncios habían sido señalados por primera vez, pero no por las razones más importantes”, dijo Nienke Palstra, de Global Witness.

Los anuncios nunca fueron colocados en Facebook. Pero el hecho de que pudieron haberlo sido fácilmente muestra que pese a reiteradas garantías de que mejoraría sus controles, Facebook aún parece regularmente no detectar discurso de intolerancia y llamados a la violencia en su plataforma.

Representantes de Meta, la compañía matriz de Facebook, no respondieron a un pedido de comentario dejado el martes. Global Witness dijo que se puso en contacto con Meta luego que sus anuncios fueron aceptados y no recibió respuesta.

Cada vez que Global Witness ha presentado anuncios con discurso de intolerancia flagrante para ver si los sistemas de Facebook los detectan, la compañía no lo ha hecho. En Myanmar, uno de los anuncios usó un epíteto étnico para referirse a las personas de origen musulmán y llamar a matarlas. En Etiopía, los anuncios usaron discurso deshumanizante de intolerancia para llamar al asesinato de personas de los tres importantes grupos étnicos en el país, los amhara, oromo y tigray.

Los grupos usaron anuncios y no mensajes porque Meta dice que tiene estándares “más estrictos” para los anuncios que para los mensajes regulares, no pagados, de acuerdo con su centro de ayuda para anuncios pagados.

Meta se ha negado reiteradamente a decir cuántos moderadores tiene en países en los que el inglés no es el idioma principal. Eso incluye moderadores en Kenia, Myanmar y otras regiones en las que material colocado en las plataformas de la compañía ha sido vinculado con violencia real.

Guardar