
La inteligencia artificial está automatizando la creación de noticias falsas, estimulando una explosión de contenidos web que imitan artículos basados en hechos reales y que, en cambio, difunden información falsa sobre elecciones, guerras y catástrofes naturales. Desde mayo de 2023, los sitios web que albergan artículos falsos creados por inteligencia artificial aumentaron más de un 1.000%, pasando de 49 a más de 600, según NewsGuard, una organización que rastrea la desinformación.
Históricamente, las operaciones de propaganda han dependido de ejércitos de trabajadores mal pagados o de organizaciones de inteligencia altamente coordinadas para crear sitios que parezcan legítimos. Pero la inteligencia artificial está facilitando la creación de estos medios a casi cualquiera, ya forme parte de una agencia de espionaje o sea un adolescente en el sótano de su casa, y produce contenidos que a veces son difíciles de diferenciar de las noticias reales.
Una investigación de NewsGuard descubrió que un artículo generado por IA contaba una historia inventada sobre el psiquiatra de Benjamin Netanyahu, alegando que había muerto y dejado una nota que sugería la implicación del primer ministro israelí. Al parecer, el psiquiatra no existe, pero la noticia apareció en un programa de televisión iraní y se difundió en medios de comunicación árabes, ingleses e indonesios, así como en TikTok, Reddit e Instagram.

La creciente proliferación de contenidos polarizadores y engañosos puede dificultar saber qué es verdad, lo que perjudicaría a los candidatos políticos, a los líderes militares y a los esfuerzos de ayuda. Los expertos en desinformación señalan que el rápido crecimiento de estos sitios es especialmente preocupante de cara a las elecciones de 2024.
“Algunos de estos sitios están generando cientos, si no miles, de artículos al día”, dijo Jack Brewster, investigador de NewsGuard que llevó a cabo la investigación. “Por eso lo llamamos el próximo gran superdifusor de desinformación”. La inteligencia artificial generativa ha dado paso a una era en la que chatbots, creadores de imágenes y clonadores de voz pueden producir contenidos que parecen hechos por humanos.
Los presentadores de noticias, bien ataviados y generados por IA, vomitan propaganda prochina, amplificada por redes de bots afines a Beijing. En Eslovaquia, se clonan las voces de políticos que se presentan a las elecciones para que digan cosas polémicas que nunca han pronunciado, días antes de que los votantes acudan a las urnas. Un número creciente de sitios web, con nombres genéricos como iBusiness Day o Ireland Top News, difunden noticias falsas que parecen auténticas, en docenas de idiomas, desde el árabe al tailandés. Los lectores pueden dejarse engañar fácilmente por estos sitios web.

Global Village Space, que publicó el artículo sobre el supuesto psiquiatra de Netanyahu, está inundado de artículos sobre una variedad de temas serios. Hay artículos que detallan las sanciones de Estados Unidos a los proveedores de armas rusos; las inversiones del gigante petrolero Saudi Aramco en Pakistán; y la relación cada vez más tenue de Estados Unidos con China.
El sitio también contiene ensayos escritos por un experto de un think tank de Oriente Medio, un abogado educado en Harvard y el director ejecutivo del sitio, Moeed Pirzada, un presentador de noticias de televisión de Pakistán. (Pirzada no respondió a la solicitud de comentarios. Dos colaboradores confirmaron haber escrito artículos que aparecen en Global Village Space).
Pero entre estas historias ordinarias hay artículos generados por IA, dijo Brewster, como el artículo sobre el psiquiatra de Netanyahu, que fue reetiquetado como “sátira” después de que NewsGuard se pusiera en contacto con la organización durante su investigación. NewsGuard afirma que la historia parece haberse basado en un artículo satírico publicado en junio de 2010, que hacía afirmaciones similares sobre la muerte de un psiquiatra israelí.
La coexistencia de noticias reales y generadas por inteligencia artificial hace que las historias engañosas sean más creíbles. “Hay gente que simplemente no tiene los conocimientos suficientes sobre medios de comunicación para saber que esto es falso”, afirma Jeffrey Blevins, experto en desinformación y profesor de periodismo en la Universidad de Cincinnati. “Es engañoso”.

Los sitios web similares a Global Village Space pueden proliferar durante las elecciones de 2024, convirtiéndose en una forma eficaz de distribuir desinformación, según los expertos en medios de comunicación e IA.
Los sitios funcionan de dos maneras, explica Brewster. Algunas historias se crean manualmente, pidiendo a los chatbots artículos que amplifiquen una determinada narrativa política y publicando el resultado en un sitio web. El proceso también puede ser automático: se buscan artículos que contengan determinadas palabras clave y se introducen en un gran modelo lingüístico que los reescribe para que parezcan únicos y evitar acusaciones de plagio. El resultado se publica automáticamente en Internet.
NewsGuard localiza los sitios generados por IA buscando mensajes de error u otro tipo de lenguaje que “indique que el contenido ha sido producido por herramientas de IA sin una edición adecuada”, afirma la organización.
Las motivaciones para crear estos sitios varían. Algunos pretenden influir en las creencias políticas o sembrar el caos. Según Brewster, otros sitios producen contenidos polarizantes para atraer clics y obtener ingresos por publicidad. Pero la capacidad de turboalimentar contenidos falsos es un riesgo importante para la seguridad, añadió.

La tecnología lleva mucho tiempo alimentando la desinformación. En el periodo previo a las elecciones de 2020, las granjas de trolls de Europa del Este -grupos profesionales que promueven la propaganda- crearon grandes audiencias en Facebook difundiendo contenidos provocativos en páginas de grupos negros y cristianos, llegando a 140 millones de usuarios al mes.
Según Poynter, una organización de vigilancia de los medios de comunicación, los sitios de periodismo “pink-slime”, llamados así por el subproducto de la carne, suelen aparecer en ciudades pequeñas donde han desaparecido los medios de comunicación locales, generando artículos que benefician a los que financian la operación.
Pero Blevins dijo que esas técnicas requieren más recursos que la inteligencia artificial. “El peligro es el alcance y la escala de la IA, especialmente cuando se combina con algoritmos más sofisticados”, dijo. “Es una guerra de información a una escala que no hemos visto antes”.
No está claro si las agencias de inteligencia están utilizando noticias generadas por IA para campañas de influencia extranjera, pero es una preocupación importante. “No me sorprendería en absoluto que esto se utilice - definitivamente el próximo año con las elecciones”, dijo Brewster. “Es difícil no ver a algún político creando uno de estos sitios para generar contenido esponjoso sobre ellos y desinformación sobre su oponente”.

Blevins dijo que la gente debe estar atenta a pistas en los artículos, “señales de alarma” como “gramática realmente extraña” o errores en la construcción de las frases. Pero la herramienta más eficaz es aumentar la alfabetización mediática entre los lectores medios.
“Hay que concienciar a la gente de que existen este tipo de sitios. Este es el tipo de daño que pueden causar”, dijo. “Pero también hay que reconocer que no todas las fuentes son igual de creíbles. Sólo porque algo diga ser un sitio de noticias no significa que realmente tenga un periodista... produciendo contenidos”.
La regulación, añadió, es en gran medida inexistente. Puede ser difícil para los gobiernos tomar medidas drásticas contra el contenido de noticias falsas, por temor a entrar en conflicto con la protección de la libertad de expresión. Esto deja el asunto en manos de las empresas de redes sociales, que hasta ahora no han hecho un buen trabajo.
Es inviable hacer frente con rapidez al gran número de sitios de este tipo. “Es como jugar al topo”, afirma Blevins. “Descubres un sitio, lo cierras y aparece otro en otro lugar”, añade. “Nunca vas a ponerte al día del todo”.
(c) 2023, The Washington Post
Últimas Noticias
Nueva York y Los Ángeles refuerzan la seguridad tras los ataques aéreos de Estados Unidos sobre Irán
Incrementaron la vigilancia en los principales centros religiosos y sedes diplomáticas de las ciudades

La advertencia de Israel a un alto general iraní: “Tienes 12 horas para escapar”
Agentes de inteligencia israelí que hablan persa lanzaron una campaña encubierta para intimidar a altos funcionarios iraníes

Estados Unidos sigue en conversaciones sobre 500 millones de dólares para el corredor ferroviario de Angola
La agencia estadounidense DFC mantiene negociaciones con el gobierno angoleño y empresas del sector para financiar proyectos de infraestructura ferroviaria y minera en África

La empresa matriz de Truth Social anuncia recompra de acciones por 400 millones de dólares
La firma de medios destinará parte de su capital disponible a la recompra de acciones, según informó su director ejecutivo

Irán calculó muy mal: ahora está pagando el precio
Las consecuencias de la acción militar de EEUU son difíciles de predecir
