“El editor de un periódico es responsable de la decisión de qué poner en portada”, recordó Yuval Noah Harari en la presentación de su nuevo libro, Nexus, sobre las redes de información y la inteligencia artificial (IA). “Si el editor de The New York Times decide poner una teoría de conspiración en la portada, esto es un gran problema y él debería responsable de ello. Y creo que lo mismo correspondería si el algoritmo de Facebook o el de TikTok deciden deliberadamente impulsar y promover noticias falsas: las compañías deberían responsables”.
En diálogo con la prensa en español, el autor de los best sellers globales Sapiens y Homo Deus recorrió temas claves de la nueva revolución de la IA y los peligros que encarna: por ejemplo, por qué es diferente de todas las tecnologías anteriores y qué implicaría su autonomía, o cómo amenaza la privacidad y tiene una capacidad de control totalitario que ninguna dictadura hasta la fecha ha logrado.
Nexus
Audiolibro
$24,99 USD
Y le dedicó varios momentos a un tema, que volvió a lo largo de la charla con los medios de América Latina y España: las redes sociales y su inmenso poder. “Hay un gran debate sobre la responsabilidad de estos nuevos gigantes”, siguió el historiador y filósofo israelí. “Cada vez que se les acusa de algo, sacan a relucir que por la libertad de expresión no quieren censurar a nadie. Esto está ahora en el centro de esta enorme controversia en Brasil sobre X”, ilustró.
Las redes sociales, insisten sus propietarios, no son medios de comunicación y, por ende, no son responsables de la información que circula en ellas. Son —repiten— simplemente el canal en el que otros ponen los contenidos. Y en tanto mero canal tampoco pueden censurar a quien allí publica: estarían violando la libertad de expresión.
Que eso haya permitido las operaciones de agentes foráneos en Facebook y Twitter, con consecuencias como la injerencia de una potencia antagónica en las elecciones de un país independiente, bueno, serán cosas de la vida. Como que la circulación de mensajes de odio contra una minoría étnica haya tenido que ver con un genocidio en Asia. Como que la discriminación en Instagram haya llevado al suicidio de un menor de edad.
En cada ocasión que el conflicto llegó a los tribunales las redes sociales respondieron lo mismo: no son un medio, no tienen discrecionalidad de editor, sólo son una herramienta neutral, una plataforma tecnológica. Harari piensa distinto.
“Me gustaría instar a la gente a distinguir entre las decisiones de los usuarios humanos y las decisiones de los algoritmos corporativos”, propuso. “Si un usuario humano decide inventar una noticia falsa —tal vez por error, tal vez a propósito— y publicarla, en situaciones extremas podría ser perseguido por difamación y castigado”. Sería cuando, por ejemplo, comete calumnia o injuria.
Pero son casos extremos, y en una democracia, remarcó, “hay que tener mucho cuidado antes de empezar a censurar”. En este punto estaría de acuerdo con gente como Elon Musk o Mark Zuckerberg. Dio un ejemplo: “Si vamos a un parque en cualquier ciudad, la gente dice todo tipo de cosas: a veces inventa mentiras, a veces simplemente fantasea y a veces cae presa del engaño. Tal vez no sea muy común decirlo, pero la gente tiene derecho a la estupidez. La gente tiene derecho incluso a decir mentiras. En muchas situaciones la gente miente y, aunque no está bien, está protegido por la ley y forma parte de la libertad de expresión”.
Pero Facebook no es una persona. X no es una persona.
“El principal problema no es el contenido producido por los usuarios humanos: el principal problema son las decisiones editoriales de los algoritmos”. Explicó que ni siquiera si un individuo publica un mensaje lleno de odio en Twitter o Facebook hay problema: su post podría morir ahí, anegado bajo otros posts, como los gritos del abuelo Simpson a una nube que pasa. “El problema son los algoritmos de las plataformas que recogen esa teoría conspiranoica y empiezan a recomendarla porque eso está a favor de los intereses comerciales de la empresa”.
“Los gigantes de las plataformas basan su modelo de negocio en aumentar la participación de los usuarios en su producto”, detalló Harari. “La palabra participación, engagement, suena agradable, pero lo que realmente significa es que quieren mantener a más gente más tiempo en la plataforma. A medida que la gente pasa más tiempo en YouTube, en Twitter, en TikTok o en Instagram, las empresas venden más anuncios y recopilan más datos que luego pueden vender a terceros. Así es como ganan dinero: este es su modelo de negocio”.
Y para retener al usuario en su doomscrolling, los algoritmos de las redes sociales encontraron una fórmula que no falla. Definió el autor de Nexus: “Descubrieron que la forma más fácil de captar la atención humana, la forma más fácil de mantener a más gente más tiempo en la plataforma, es pulsar el botón del odio”.
Los medios de comunicación, del papel a la televisión, de la radio a internet, tienen responsabilidad editorial porque cumplen un papel en las sociedades democráticas. “Las decisiones más importantes en un periódico son siempre las que toma el editor. Puedes escribir cualquier artículo que quieras, pero al final es el editor quien decide qué sale. Y si el jefe de The New York Times decide publicar una noticia falsa en la portada, no puede decir: ‘Yo no la inventé, simplemente decidí publicarla’”. La responsabilidad radica, precisamente, en haberla publicado.
Hoy las redes sociales son mucho más influyentes que los medios de comunicación tradicionales. “Este poder está en manos de Facebook y X e Instagram y demás, y en manos de sus algoritmos. Es la decisión editorial del algoritmo corporativo para promover este contenido específico”.
¿Hay odio en el mundo? Claro, y mucha gente puede elegir exponerlo a sus seguidores en YouTube. Pero también hay mucha compasión en el mundo, recordó Harari. Circulan noticias falsas y también circulan noticias verdaderas. “Y es decisión del algoritmo si millones de personas estarán expuestas a noticias falsas o a la verdad”.
Eso, argumentó el autor de libros que han vendido más de 45 millones de ejemplares en 65 idiomas, es la definición de responsabilidad editorial.
Subrayó: “Las empresas deberían ser consideradas responsables de las decisiones de sus algoritmos, del mismo modo que hacemos responsables a los directores de los periódicos de sus decisiones editoriales. Quien esté a cargo de estos medios tiene la responsabilidad de lo que allí se difunde, de aquello en lo que se impulsa que la gente se centre para retenerla”.
Un problema adicional, sumó, es el que desarrolla en Nexus: el impacto de la IA en el futuro inmediato. “En algunas de las plataformas de medios de comunicación más importantes del mundo, como X o Facebook, el papel del editor ha sido asumido por la IA”. Y no sólo la IA decide cuál será la publicación recomendada: “Cada vez más puede crear nuevas ideas por sí misma”.