Este año Facebook creó una serie de reglas nuevas diseñadas para mejorar el discurso en sus plataformas. Pero cuando los usuarios reportan contenido que incumple las normas, un examen de The Wall Street Journal descubrió que el corporativo normalmente falla en aplicar las reglas.
Facebook permite a todos los usuarios reportar contenido para que sea evaluado si suponen que no debe pertenecer a la plataforma. Cuando The Wall Street Journal reportó más de 150 elementos, que Facebook después confirmó violan sus normas, el sistema de evaluación del corporativo permitió que el contenido permaneciera más de tres cuartas partes del tiempo, incluido contenido que representa o promueve espantosa violencia.
Los errores de Facebook para bloquear el contenido denunciado por The Wall Street Journal no representan la fidelidad general de su sistema de moderación de contenido, afirmó Sarah Pollas, portavoz de la organización. Para promediar los más de 100,000 millones de elementos de contenido que se publican todos los días en la plataforma de Facebook, el personal de evaluación del corporativo revisa y analiza activamente el contenido mediante instrumentos automatizados, mencionó Pollack.
“Nuestra prioridad es erradicar el material de contenido basado principalmente en la gravedad y la posibilidad de que se vuelva viral”, mencionó.
En medio de un ciclo electoral polémico y disturbios civiles, la red social ha elaborado nuevas pautas que prohíben afirmaciones falsas como la de que los incendiarios antifascistas de extrema izquierda están detrás de los catastróficos incendios forestales en el oeste de Estados Unidos y que impiden la difusión de fotografías de dos diputados de Los Ángeles. Antes de eso, la empresa mencionó que no permitiría recompensas por las fotografías de tres personas en una protesta de Black Lives Matter en Kenosha, Wisconsin, y se comprometió a quitar las publicaciones que se burlaban de George Floyd, cuya muerte desencadenó protestas en todo el país contra la brutalidad policial.
En la última semana, el corporativo introdujo un número de medidas asociadas con las elecciones presidenciales de noviembre, junto con una prohibición de cualquier publicación que incluya lenguaje militar asociado con la vigilancia de los comicios. El lunes, el director Mark Zuckerberg mencionó que Facebook está prohibiendo la negación del Holocausto en la plataforma, mejorando las restricciones que existían anteriormente sobre este contenido, debido al incremento del antisemitismo.
La moderación del material de contenido de Facebook ganó una renovada consideración el miércoles cuando la empresa restringió el intercambio en línea de los artículos de New York Publish sobre el hijo del candidato presidencial demócrata Joe Biden, diciendo que quería la dirección de verificadores de datos de terceros que rutinariamente examinan el material de contenido en la plataforma.
Sin embargo, en una plataforma con 1,800,000,000 de clientes diarios, establecer una norma que prohíba el contenido no implica que el contenido desaparezca en todo momento de Facebook.
“Facebook publica una serie de declaraciones de cobertura que suenan bien en el papel, sin embargo, existen consideraciones serias con respecto a su potencial o voluntad para implementar los principios tal como están escritos”, mencionó Evelyn Douek, profesora e investigadora de la Universidad de Harvard en Berkman Klein Heart for Web & Society que investiga los esfuerzos de las corporaciones de redes sociales para gestionar los hábitos de sus clientes.
Durante varios días a finales de septiembre, el Journal marcó 276 publicaciones, memes y comentarios que parecían interrumpir las pautas de Facebook hacia la promoción de la violencia y la desinformación dañina.
Facebook eliminó 32 publicaciones de las que informó el Journal, dejando publicaciones falsas, un par sobre conspiración incendiaria de izquierda, bromas sobre las víctimas de la violencia de Kenosha montadas sobre fotografías de sus heridas y comentarios con deseos de muerte o discapacidades de por vida a los oficiales de Los Ángeles que sobrevivieron.
“Todos sabemos que esto no es lo que necesitabas, y pensamos que sería útil si aclaramos cómo funciona el curso de evaluación”, dice la respuesta estandarizada de Facebook a las publicaciones enviadas por el Journal. “Nuestros expertos revisaron su informe y, finalmente, decidimos no eliminar el contenido”.
Cuando el Journal se puso en contacto con Facebook para evaluar las más de 240 publicaciones que el sistema de moderación de la empresa había considerado permitidas, la empresa concluyó que más de la mitad “debería haberse eliminado por violar nuestras pólizas de seguro”, mencionó Pollack. Posteriormente, la empresa eliminó muchas de estas publicaciones.
Como resultado de que los programas de inteligencia artificial de Facebook están cada vez más orientados a descubrir material que tiene el potencial de volverse viral, a muchas de las publicaciones que reportó el Journal -comparables con comentarios en artículos de información o publicaciones en grupo privados con una baja cantidad de vistas- se le habría dado poca prioridad para la evaluación, mencionó Pollack.
Las selecciones destacan cada uno de los problemas que enfrenta Facebook al imponer sus políticas y las distinciones efectivas que hace la empresa al definir qué contenido está permitido y cuál rompe sus pautas. Por ejemplo, la cobertura de Facebook sobre comentarios denigrantes contra las víctimas de tragedias tiene una excepción para las declaraciones sobre los antecedentes penales de las víctimas, incluso cuando estas declaraciones son falsas.
Zuckerberg advirtió sobre los peligros de que las elecciones estadounidenses puedan generar violencia en las calles e introdujo una serie de medidas para detener el despliegue de información errónea y contenido que incita a cualquier tipo de violencia. La empresa mencionó que eliminó más de 120,000 elementos de contenido por violar las políticas de interferencia de votantes y mostró advertencias en más de 150,000,000 de dispositivos que los trabajadores de verificación de datos de Facebook habían considerado falsos.
Facebook también se enfrenta a la tensión de los clientes que se quejan de que sus pólizas de seguro de contenido son demasiado estrictas y restringen el discurso público. En grabaciones filtradas de conferencias internas reveladas por Verge, Zuckerberg advirtió a los trabajadores que la crítica más típica de los clientes es que la empresa elimina demasiadas publicaciones, lo que muchos de estos clientes entienden como una indicación de sesgo hacia puntos de vista conservadores.
El sistema de moderación de contenido de Facebook depende de las revisiones de cada persona y de un sistema de detección automático que busca eliminar de inmediato el material de contenido infractor o marcar posibles violaciones para evaluación humana. Luego, los algoritmos de Facebook dan prioridad a qué el contenido sea revisado por miles de moderadores humanos, generalmente trabajadores contratados.
Pollack, portavoz de Facebook, mencionó que las interrupciones empresariales relacionadas con el coronavirus y las mejoras en sus programas de inteligencia artificial han llevado a la empresa a cambiar las fuentes hacia evaluaciones automatizadas de publicaciones y lejos de las opiniones de los clientes de personas en particular.
En una publicación de blog de agosto, Facebook mencionó que su inteligencia artificial puede detectar violaciones de contenido “generalmente con mayor precisión que las revisiones de los clientes” y “con mayor prioridad al trabajo esencialmente más impactante para nuestros grupos de evaluación”.
El análisis del Journal descubrió que Facebook no siempre se ocupaba de las revisiones de los usuarios tan pronto como se había prometido. La mitad de los dispositivos que el Journal marcó se revisaron en 24 horas, el período de tiempo en el que el sistema de Facebook mencionó inicialmente en sus mensajes de respuesta automática que podría presentar una solución. Algunas, junto con las publicaciones que se informó que incitaban a la violencia o que vendían terrorismo, siguieron siendo excelentes durante mucho más tiempo, y algunas, sin embargo, aguardaban una llamada más de dos semanas después.
En una convención con los reporteros la semana pasada, Man Rosen, vicepresidente de integridad de Facebook, se negó a decir cuánto tiempo lleva Facebook evaluar el material de contenido informado por los usuarios.
El sistema de informes brinda a los clientes la oportunidad de apelar la resolución corporativa. Cuando el Journal presentó tales apelaciones, un día después Facebook envió correos electrónicos automáticos que indicaban que las limitaciones de recursos útiles de COVID-19 significaban que “no podemos evaluar su informe por segunda vez”.
El mensaje indicaba cómo ocultar o bloquear el contenido “perturbador” en lugar de construir una apelación, y mencionaba que el informe se puede utilizar para entrenar los algoritmos de la plataforma.
Con información de The Wal Street Journal
MÁS SOBRE OTROS TEMAS