El contaminado legado de Facebook: 20 años de ‘fake news’, incitación al odio y filtración de datos

La plataforma creada por Mark Zuckerberg cumple dos décadas y deja tras de sí un reguero tan contaminado que cuestiona su utilidad y exige cambios para cuidar la propagación de mensajes falsos o violentos

Guardar
Imagen de archivo de Mark Zuckerberg.
Imagen de archivo de Mark Zuckerberg.

“Señor Zuckerberg, ¿le importaría compartir con nosotros el nombre del hotel en el que se alojó anoche?”, “Si ha chateado con alguien esta semana, ¿compartiría con nosotros el nombre de las personas a las que ha escrito?”, preguntaron al creador de Facebook en su comparecencia ante el Congreso de los Estados Unidos en abril de 2018. Las filtraciones de Cambridge Analytica supusieron a la multinacional una multa de 5.000 millones de dólares, una pequeña suma para una compañía que acumula beneficios anuales de 22.000 millones de dólares.

Nadie imaginaba el 4 de febrero de 2004 que ese ‘campus virtual’ creado para compartir fotos entre amigos se convertiría en el gigante digital que es veinte años después. Más allá del idealismo sobre el que se construyó Silicon Valley, que soñaba con dar cada vez más poder y libertad al individuo, la compañía de Zuckerberg ha condicionado el transcurso, no solo de la vida privada, también de países enteros.

Te puede interesar: Ocho de cada diez alumnos españoles han utilizado la IA: realizan trabajos, complementan materias y preparan exámenes

En el marco del aniversario de su creación, Facebook y otras plataformas se enfrentan esta vez al Senado estadounidense, que investiga los peligros que acarrean para los menores de edad. Aunque Zuckerberg ha negado que el uso de las redes sociales dañe la salud mental de los menores, la comunidad científica apunta a todo lo contrario. Este escándalo y muchos otros han marcado la reputación de la red social.

En sus dos décadas de historia, la red social más conocida del mundo ha dado paso a una polarización jamás antes vista, ha alterado el resultado de elecciones nacionales, impulsado las teorías conspiratorias y hasta al genocidio de minorías. Todo por obtener mayor tráfico, mayores interacciones y, en definitiva, mayores ingresos.

Una espiral incontrolable de odio

Para entender cómo una plataforma creada en una residencia universitaria ha podido causar tantos problemas, hay que analizar su funcionamiento. En Las redes del caos, el periodista Max Fisher explica que las redes como Facebook favorecen aquellos comportamientos que generan más interacciones: ‘me gustas’, comentarios, reacciones… todo lo que consiga que pases más horas en su web y participes activamente en ella. Son las identidades enfrentadas (ellos contra nosotros), la desconfianza, los prejuicios, el miedo y otras publicaciones emocionales las que más activan los instintos sociales de los seres humanos. Ello, unido a la adición creada de forma intencionada a través de recompensas con sonidos, luces y vibraciones que recuerdan a las máquinas tragaperras, crearon el caldo de cultivo perfecto para generar odio y la desinformación.

Imagen del éxodo de los refugiados rohingya (Foto de ARCHIVO)
Imagen del éxodo de los refugiados rohingya (Foto de ARCHIVO)

Marián Alonso González, profesora de la Facultad de Comunicación de la Universidad de Sevilla, explica a Infobae el funcionamiento: “Tú tienes un grupo cercano de gente que por lo general suele pensar igual que tú. Refuerzan tus ideas o las concepciones que tienes sobre el mundo. Así que confías en ellos ciegamente. Al aceptarlo como parte de nuestro círculo de confianza, provoca que no pongamos esos límites y no verifiquemos las informaciones”, añade.

Te puede interesar: Una desconocida cláusula irrumpe en los contratos de alquiler para esquivar la ley de vivienda y facilitar desahucios

Si bien aún están frescos los recuerdos del asalto al Capitolio en Estados Unidos, hubo un experimento accidental que mostró verdaderamente hasta dónde puede llegar el poder de Facebook. Myanmar, antes conocido como Birmania, era una férrea dictadura militar aislada del mundo a principios de los noventa. Rechazaba cualquier nueva tecnología occidental y por tanto no vivió el auge de internet hasta años después.

En 2011, bajo el gobierno ligeramente progresista de Thai Sein, se permitió la llegada de Internet. De la mano, entraron cientos de compañías digitales, con Facebook a la cabeza. El impulso que pegó la red social, en un inicio apoyado por el propio Estado, fue enorme, y sus efectos negativos aparecieron de forma rápida y agudizada. Los mensajes de odio y desinformación difundidos por la aplicación se extendieron por todo el país surasiático, en el que el 38% de la población se informaba a través de Facebook. Las llamadas a la violencia contra la etnia musulmana del país, los rohinyá, acabaron propiciando un genocidio. Todo bajo la inacción de la compañía estadounidense, que desoyó las advertencias de los gobernantes birmanos.

La ONU aseguró en 2018 que las redes sociales, y en especial Facebook, habían “contribuido sustancialmente al nivel de acrimonia, disensión y conflicto, si se quiere, dentro del público” birmano. Zuckerberg admitió ese mismo año la responsabilidad de la plataforma en la difusión de la violencia étnica y el discurso del odio en Myanmar. “El informe concluye que, antes de este año, no estábamos haciendo lo suficiente para evitar que nuestra plataforma se use para fomentar la división e incitar a la violencia offline. Estamos de acuerdo en que podemos y debemos hacer más”, expresó Facebook en un comunicado.

Una oleada de desinformación ante una normativa impotente

En 2021, los españoles votaron a Facebook como la red social con más bulos de internet. Ese año, el mundo luchaba por poner fin a los confinamientos, las mascarillas y el distanciamiento social. Junto con los estragos del covid-19, los ciudadanos habían sufrido los efectos de la ‘infodemia’: una cantidad de información excesiva y en muchos casos incorrecta que dificulta a las personas encontrar fuentes fiables.

Los datos recogidos por la OMS al respecto muestran que en un periodo de 30 días llegaban a colgarse 361 millones de vídeos en YouTube relacionados con el covid-19. Todavía a día de hoy pueden encontrarse miles de publicaciones sobre la “plandemia”, la teoría conspiranoica que apunta a que el coronavirus nunca existió. A ello se unieron movimientos contra el uso de las vacunas, las mascarillas y los consejos a falsos remedios alternativos, como inyectarse lejía.

Hay dos teorías, según señala Alonso, respecto a la viralización de estos bulos: una responde a la polarización y otra, al efecto cascada. “En el momento en el que yo formo parte de tu círculo de confianza, te mando una información que tú no pones en duda. La sigues compartiendo con tus conocidos, con tus familiares y como tú eres parte de su círculo de confianza, lo continúan. Eso es lo que hace que los bulos se difundan a gran escala”, explica.

Según llegaban los confinamientos, la actividad digital crecía: en algunos países, el uso de Facebook creció un 70%. “Toda nuestra vida social giró en torno a las redes sociales y a las plataformas de streaming. Fue el año del boom”, resalta Alonso. Esta expansión se junta con la falta de alfabetización mediática de los usuarios: “Llega un momento en el que la información es tan grande que tienes que optar por darle mayor validez a unas fuentes que a otras. Pero no todo el mundo tiene mecanismos para identificar la validez de la fuente”.

Ya en abril de 2020,la organización Aavaz detectó cien publicaciones conspirativas sobre el covid-19 en Facebook, que fueron compartidas 1,7 millones de veces. Esta vez, la colaboración con las autoridades y los intentos de frenar los bulos sí sucedieron, pero no fueron suficiente y llegaron tarde: tal y como denunció el Washington Post en 2021, existen documentos internos que apuntan que los ejecutivos de la compañía conocían de antes que sus algoritmos estaban fomentando la desinformación. Pero cambiarlos podría haber supuesto una pérdida de tráfico y no sería (tan) rentable.

Tiempo después, el propio Zuckerberg protestó por las medidas que “censuraron” la red social durante la pandemia. El CEO sentía que les habían obligado a “censurar” gente “solo por estar equivocadas” cuando, en algunos casos, no había “ningún tipo de daño”, según relató en el podcast de Lexi Fridman.

Promesas frustradas de cambio

El CEO de Meta, Mark Zuckerberg, frente a la audiencia en la jornada en la que da su testimonio al Comité Judicial del Senado (REUTERS/Evelyn Hockstein)
El CEO de Meta, Mark Zuckerberg, frente a la audiencia en la jornada en la que da su testimonio al Comité Judicial del Senado (REUTERS/Evelyn Hockstein)

Si los bulos se difundieron tan bien por la plataforma no fue (solo) por el contexto del confinamiento: la información falsa se difunde un 70 % mejor que la veraz, según un estudio de la revista Science del 2018. Facebook, al igual que otras redes sociales, está enfocada a maximizar las interacciones, no a verificar el contenido, y una publicación polémica y combativa genera mucha actividad, ya sea por sus férreos defensores como por sus enfadados detractores.

En los últimos años se han producido ciertos cambios que intentan revertir esta dinámica, entre ellos los avisos de información falsa o dudosa y la inclusión de equipos de verificación de datos (fact-checking). Pero las normativas que regulan estas plataformas “no están adaptadas a la realidad del contenido que vemos”, explica Fisher en su libro. Sus conversaciones con trabajadores de Facebook le dejaron una cosa bien clara: “solo les interesa la productividad”. Por eso las reglas se dejan incompletas y la inacción es la política a seguir. Esto no solo da rienda suelta a los bulos, también a contenido más peligroso como el extremismo, la radicalización, la violencia o abusos.

Los juicios celebrados esta semana han dejado una imagen potente: Zuckerberg ha pedido perdón a los familiares de víctimas de abusos sexuales por culpa de la plataforma durante una audiencia en el Senado. Él y otros líderes del mundo virtual han prometido, una vez más, trabajar duro para “mantener a los jóvenes seguros en la red”, mientras entre las pruebas los documentos muestran que Zuckerberg se negó a reforzar los equipos dedicados a rastrear peligros en línea para los adolescentes. Los Estados y la ciudadanía exigen cada vez controles más duros y verdaderamente efectivos que puedan parar las consecuencias que Facebook y otros gigantes de internet han dejado en el mundo. El pulso a una de las empresas más ricas del mundo continúa, aunque tal vez se requieran otros 20 años para ver progresos.

Guardar