Cómo enseñarle trucos nuevos a una rana vieja

Por Brittan Heller

Guardar
Un hombre con un cartel con la imagen de la rana pepe que dice "las vidas verdes importan", una burla a los activistas de derechos humanos de Black Lives Matter. (JOSH EDELSON/AFP/Getty Images)
Un hombre con un cartel con la imagen de la rana pepe que dice "las vidas verdes importan", una burla a los activistas de derechos humanos de Black Lives Matter. (JOSH EDELSON/AFP/Getty Images)

La idea de que plataformas como Twitter, Facebook e Instagram deben eliminar el discurso de odio es relativamente controvertida. Sin embargo, hacerlo no es fácil. El discurso de odio es fluido; depende del contexto cultural y del significado social. Para gestionarlo, las plataformas deben revaluar constantemente los símbolos de odio y comunicarse con los usuarios sobre su toma de decisiones.

Pocos ejemplos ilustran esta necesidad mejor que la travesía larga y extraña de Pepe, la rana, el dibujo mal hecho de un anfibio que se originó como mascota para los haraganes; fue alterado en repetidas ocasiones por los supremacistas blancos para crear memes racistas, homofóbicos y antisemitas; fue clasificado por la Liga Antidifamación como un símbolo de odio en 2016; y fue readaptado este verano y otoño por los manifestantes en Hong Kong para promover un mensaje prodemocrático que no tenía nada que ver con la supremacía blanca ni el terrorismo.

Aunque tiene exactamente la misma apariencia, la versión de Hong Kong de Pepe es una rana distinta. Es una demostración en tiempo real de cómo puede trastornarse el discurso de odio, con base en circunstancias cambiantes, marcos de referencia expandidos y un uso común variado.

A veces, las personas a quienes van dirigidos estos términos de odio los reutilizan o los revierten. Tomemos de ejemplo un antiguo epíteto como “queer”. Originalmente tenía connotaciones neutrales de comportamiento general no tradicional antes de principios del siglo XX. “Queer” se asoció en un principio con hombres homosexuales entre las décadas de 1910 y 1920, y se convirtió en un término peyorativo. A partir de la década de 1990, los activistas del SIDA se reapropiaron del término como significante de identidad propia, para enfatizar la fealdad de la homofobia con el fin de enfrentarla. “Queer”, en general, ha retomado una connotación positiva neutral o incluso positiva. Para muchos, representa la inclusividad. De igual manera, el triángulo rosa, que originalmente era una marca usada por los nazis para identificar a las personas homosexuales, se transformó en una señal de orgullo.

Cambios como este siempre han ocurrido. Sin embargo, actualmente, gracias a la cultura de los memes, las audiencias en línea pueden revertir el discurso de odio más rápido que nunca. En abril, el partido político español Vox tuiteó un meme haciendo referencia a “El señor de los anillos”: una imagen de Aragorn, manipulado digitalmente para incluir el logotipo del partido y una bandera española. Aragorn estaba enfrentando a los orcos, que cargaban los símbolos del feminismo, el comunismo, los medios de comunicación y, extrañamente, un emoticono de Android de fantasma que llevaba rayas arcoíris. Los usuarios ingeniosos lo llamaron Gaysper y, conforme se hizo viral la imagen, pasó de ser un insulto dirigido a una declaración en contra del odio mediante la burla y el humor.

Pepe, Gaysper y otros símbolos de odio nos enseñan que las compañías tecnológicas deberían institucionalizar la impermanencia: deberían crear sus políticas de manera que se adapten continuamente al mundo cambiante. Quienes les piden a las compañías que tomen medidas para acabar con la ola de xenofobia, racismo y persecución de minorías que estamos viendo en todo el mundo también deberían tener esto en mente.

Los activistas locales en Hong Kong transformaron a Pepe en un emoticono en las plataformas cifradas, vestido como manifestante o periodista. “Los símbolos y los colores que significan algo en una cultura pueden significar algo completamente distinto en otra”, le dijo un manifestante a The Times, “pienso que, si los estadounidenses se ofenden, deberíamos explicarles qué significa para nosotros”. La mayoría parece entender que la rana es un símbolo de juventud y no estaban conscientes de su vínculo con la extrema derecha. Si Google, Twitter y Facebook hubieran integrado el reconocimiento fotográfico para eliminar todas las imágenes de Pepe, la rana, el movimiento quizá no habría tenido esta consigna crítica.

¿Entonces qué pueden hacer las plataformas? Primero, pueden llenar el vacío de información pública en torno a las políticas del discurso de odio. Aunque las plataformas han estado mejorando en cuanto a hacer compromisos más amplios en contra del odio, como el anuncio reciente de Facebook sobre adoptar una vista más amplia del discurso de odio y el contenido relacionado con el extremismo, lo que falta es la perspectiva en primer plano. Los términos de servicio de la empresa no explican cómo, en la práctica, deciden si el contenido no histórico es de odio o ya no lo es. No establecen cómo los cambios de contexto afectan sus operaciones. El público no sabe si las compañías reconsideran sus medidas ni —lo más importante— los contextos de cómo podría ocurrir eso.

En segundo lugar, las plataformas deben considerar ponerle una fecha de caducidad periódica a las acciones excluyentes. El objetivo no es desdentarlas, sino proporcionar un mecanismo que permita que las políticas de las compañías vuelvan a calibrarse en ciertos momentos, y se ajusten a la fluidez del internet y la evolución de las convenciones sociales. Eso también puede ayudar a las víctimas del discurso de odio. Las empresas quizá estén más dispuestas a tomar medidas si todos entienden que sus procesos están evolucionando de manera constante.

En tercer lugar, las empresas deben ser sensibles a los memes cambiantes, especialmente en los contextos volátiles. Las evaluaciones del impacto de los derechos humanos son las mejores prácticas comunes en materia de responsabilidad social corporativa, pero aún no se trata de una actividad regular para la mayoría de las compañías tecnológicas, sobre todo en el contexto del discurso de odio y sus repercusiones. Las plataformas deben evaluar cuándo es más probable que el contenido de las redes sociales dé como resultado consecuencias en la vida real, sobre todo en situaciones riesgosas como la inestabilidad política y las elecciones, y después designar rápidamente más personal, tiempo y atención para monitorear las tendencias y los desafíos en materiales relacionados con el fin de responder velozmente.

Si el uso común puede transformar un dibujo en un símbolo de odio, entonces la interacción auténtica puede cambiar su significado de igual manera. Si las plataformas quieren proteger a los usuarios del contenido de odio y a la vez asegurarse de que la expresión política vital no se vea afectada, deben crear políticas en torno al discurso de odio con base en esta realidad.

*Copyright:c.2019 The New York Times Company

Guardar