La empresa de inteligencia artificial OpenAI afirmó el viernes que un grupo iraní había utilizado su chatbot ChatGPT para generar contenidos que se publicaban en sitios web y redes sociales con el objetivo de avivar la polarización entre los votantes estadounidenses en las elecciones presidenciales.
Los sitios y cuentas de redes sociales descubiertos por OpenAI publicaron artículos y opiniones elaborados con ayuda de ChatGPT sobre temas como el conflicto de Gaza y los Juegos Olímpicos. También publicaron material sobre las elecciones presidenciales estadounidenses, difundiendo información errónea y escribiendo críticas sobre ambos candidatos, según un informe de la empresa. Algunos aparecieron en sitios que, según Microsoft, fueron utilizados la semana pasada por Irán para publicar noticias falsas destinadas a aumentar la división política en Estados Unidos, según OpenAI.
La empresa de IA prohibió las cuentas de ChatGPT asociadas a los esfuerzos iraníes y afirmó que sus publicaciones no habían captado la atención generalizada de los usuarios de las redes sociales. OpenAI encontró “una docena” de cuentas en X y una en Instagram que vinculó a la operación iraní y dijo que todas fueron eliminadas después de notificarlo a esas empresas de medios sociales.
Ben Nimmo, investigador principal del equipo de inteligencia e investigaciones de OpenAI, dijo que la actividad era el primer caso en que la empresa detectaba una operación que tenía como objetivo principal las elecciones estadounidenses. “Aunque no parece haber llegado a la gente, es un recordatorio importante, todos tenemos que estar alerta pero mantener la calma”, dijo.
El informe de OpenAI se suma a pruebas recientes de intentos iraníes centrados en la tecnología para influir en las elecciones estadounidenses, detallados en informes de Microsoft y Google.
Uno de los sitios web señalados el viernes por OpenAI, Teorator, se presenta como “el destino definitivo para descubrir las verdades que no quieren que sepas”, y publicó artículos críticos con el candidato demócrata a la vicepresidencia Tim Walz. Otro sitio llamado Even Politics publicó artículos críticos con el candidato republicano Donald Trump y otras figuras conservadoras como Elon Musk.
En mayo, OpenAI detalló por primera vez los intentos de agentes gubernamentales de utilizar su IA para crear propaganda, afirmando que había detectado grupos de Irán, Rusia, China e Israel que utilizaban ChatGPT para crear contenidos en varios idiomas. Según Nimmo, ninguna de estas operaciones de influencia consiguió calar entre los internautas. OpenAI también ha reconocido que es posible que la empresa no haya detectado operaciones más sigilosas utilizando su tecnología.
Mientras miles de millones de personas votan en las elecciones de este año en todo el mundo, defensores de la democracia, políticos e investigadores de IA han expresado su preocupación por la capacidad de la IA para facilitar la generación de grandes cantidades de propaganda que parezca escrita por personas reales.
Hasta ahora, las autoridades no han informado de pruebas generalizadas de que gobiernos extranjeros estén consiguiendo influir en los estadounidenses para que voten de una determinada manera.
© 2024, The Washington Post.