LONDRES — En Sri Lanka y Birmania, Facebook no eliminó publicaciones de las que se le había advertido que contribuían a la violencia. En India, activistas han instado a la compañía a combatir publicaciones de figuras políticas en contra de los musulmanes. Y en Etiopía, varios grupos imploraron a la red social que bloqueara el discurso de odio después de que cientos de personas fueron asesinadas a causa de la violencia por origen étnico exacerbada por las redes sociales.
“Los problemas que ocurren fuera de internet y que estremecieron al país son completamente visibles en línea”, expresaron el año pasado diversos activistas, grupos de la sociedad civil y periodistas de Etiopía en una carta abierta.
Durante años, Facebook y Twitter han rechazado en gran medida las solicitudes para eliminar el discurso de odio u otros comentarios hechos por figuras públicas y funcionarios gubernamentales que, según grupos de la sociedad civil y activistas, corrían el riesgo de incitar a la violencia. Las compañías se apegaron a las políticas, impulsadas por el ideal estadounidense de la libertad de expresión, que les otorgan a esas figuras más flexibilidad al momento de usar sus plataformas para comunicarse.
Pero la semana pasada, Facebook y Twitter expulsaron al presidente Donald Trump de sus plataformas por incitar a una muchedumbre que atacó al Capitolio de Estados Unidos. Esta decisión enfureció a grupos y activistas de derechos humanos, quienes ahora están exhortando a esas compañías a que apliquen sus políticas de manera equitativa, específicamente en países pequeños donde las plataformas dominan las comunicaciones.
“Cuando vi lo que las plataformas habían hecho con Trump, pensé: ‘Deberían haber hecho esto antes y deberían hacerlo constantemente en otros países del mundo’”, aseguró Javier Pallero, director de políticas en Access Now, un grupo de derechos humanos vinculado a la carta abierta de Etiopía. “En todo el mundo, estamos a merced de cuándo decidan actuar”.
“A veces actúan demasiado tarde”, agregó, “y a veces no actúan en absoluto”.
David Kaye, profesor de Derecho y exsupervisor del área de libertad de expresión de las Naciones Unidas, dijo que las figuras políticas en India, Filipinas, Brasil y el resto del mundo merecían ser supervisadas por su comportamiento en línea. Pero dijo que las acciones en contra de Trump planteaban preguntas difíciles sobre cómo se ejercía el poder de las compañías estadounidenses de internet, y si sus acciones establecían un nuevo precedente de vigilancia más agresiva sobre la libertad de expresión en todo el mundo.
“En el futuro, la pregunta es si este será un nuevo tipo de normativa que planean aplicar a todos los líderes en el planeta, y si tienen los recursos para hacerlo”, añadió Kaye. “Se va a incrementar la exigencia de que tomen estas medidas en otras partes del mundo”.
Facebook, que también es propietaria de Instagram y WhatsApp, es la red social más grande del mundo, con más de 2700 millones de usuarios; más del 90 por ciento de los cuales vive fuera de Estados Unidos. La compañía se rehusó a comentar al respecto, pero ha dicho que las acciones en contra de Trump se derivan de la violación de las normas existentes en la que incurrió y no representan una nueva política global.
“Nuestras políticas son aplicables a todos”, aseguró Sheryl Sandberg, la directora de operaciones de Facebook, durante una entrevista reciente con Reuters. “La política es que no puedes incitar a la violencia, no puedes ser parte de la incitación a la violencia”.
Twitter, que cuenta con cerca de 190 millones de usuarios diarios, dijo que sus normas para los líderes mundiales no eran nuevas. Cuando se verifican publicaciones que podrían incitar a la violencia, Twitter dijo que el contexto de los eventos es crucial.
“El daño fuera de internet como resultado del discurso en línea es demostrablemente real, y es lo que impulsa nuestras políticas y su cumplimiento por encima de todo”, expresó Jack Dorsey, director ejecutivo de Twitter, en una publicación el miércoles. Sin embargo, Dorsey aseguró que la decisión establecía un precedente que estimaba peligroso: “El poder que un individuo o una corporación tienen sobre parte de la conversación pública en el mundo”.
Hay señales de que Facebook y Twitter han comenzado a actuar de manera más asertiva. Después del ataque al Capitolio, Twitter actualizó sus políticas para decir que suspendería permanentemente las cuentas de los reincidentes en violaciones de sus normas sobre contenido político. Facebook tomó medidas en contra de varias cuentas fuera de Estados Unidos, esto incluyó la eliminación de la cuenta de un medio de comunicación estatal en Irán y la suspensión de cuentas gestionadas por el gobierno de Uganda, donde hubo altercados violentos antes de las elecciones. Facebook dijo que las suspensiones no tenían ninguna relación con la decisión que se tomó en el caso de Trump.
Muchos activistas señalaron a Facebook por su influencia global y por no aplicar sus normas de manera equitativa. Dijeron que, en muchos países, no contaba con la comprensión cultural necesaria para identificar las publicaciones que podrían incitar a la violencia. Los activistas sostienen que, con bastante frecuencia, Facebook y otras compañías de redes sociales no actúan incluso cuando reciben advertencias.
En muchos países, hay una percepción de que Facebook fundamenta sus acciones en sus intereses comerciales más que en los derechos humanos. En India, el país con más usuarios de Facebook, la compañía ha sido acusada de no vigilar el contenido contra los musulmanes que publican las figuras políticas por miedo a disgustar al gobierno del primer ministro Narendra Modi y a su partido.
“Las situaciones de nuestros países no se atienden con seriedad”, aseguró Mishi Choudhary, abogada de tecnología y fundadora de Software Freedom Law Center, un grupo de derechos digitales en India. “Cualquier suspensión de contenido genera interrogantes sobre la libre expresión, pero incitar a la violencia o usar una plataforma para emitir un mensaje peligroso no es una cuestión de libertad de expresión, sino un asunto de democracia, ley y orden”.
Sin embargo, aunque muchos activistas instaron a Facebook y a Twitter a que fuesen más proactivos en la protección de los derechos humanos, también expresaron indignación ante el poder que tienen las compañías para controlar los discursos e influir en la opinión pública.
Algunos también advirtieron que las acciones en contra de Trump podrían generar represalias, y que los líderes políticos de algunos países tomarían medidas para evitar que las empresas de redes sociales censuren el discurso.
Funcionarios de los gobiernos de Francia y Alemania se mostraron alarmados tras la suspensión de las cuentas de Trump, cuestionando si las compañías privadas deberían tener el poder de silenciar de manera unilateral a un líder electo democráticamente. Un proyecto de ley que se está considerando para las 27 naciones de la Unión Europea busca imponer nuevas reglas en torno a las normativas de moderación de contenido en las redes sociales más grandes.
Barbora Bukovská, la directora principal de derecho y políticas en Artículo 19, un grupo de derechos digitales, dijo que el riesgo era particularmente palpable en países cuyos líderes tienen antecedentes de usar las redes sociales para avivar las divisiones. Bukovská dijo que los eventos en Washington generaron en Polonia el impulso para un proyecto de ley del partido nacionalista de derecha gobernante que multaría a las empresas de redes sociales por eliminar contenido que no es explícitamente ilegal, lo que podría permitir que más personas de la comunidad LGBTQ se conviertan en objetivos de acoso.
“Estas medidas en el caso de Trump fueron las decisiones correctas, pero más allá de él hay cuestiones más amplias”, aseguró Bukovská.