OpenAI, la empresa creadora de ChatGPT, confirmó este jueves que grupos de Rusia, Irán, China e Israel se habían estado valiendo de esta herramienta para producir y difundir su propaganda maliciosa. La noticia se confirmó a semanas de que se celebren las elecciones europeas y los comicios presidenciales en Estados Unidos, así como en medio de las guerras en Oriente Medio y en Ucrania.
Según informó la empresa, se trató de cuentas asociadas con conocidas operaciones de propaganda de Moscú, Beijing y Teherán, junto con una empresa de campaña política de Tel Aviv y un grupo ruso desconocido hasta el momento. Estos usuarios se valieron de la tecnología durante varios años para escribir publicaciones, traducirlas a diversos idiomas y crear softwares que les permitan publicar de forma automática en las redes sociales, propagando sus mensajes a una mayor velocidad.
Spamouflage, un grupo chino que ya había estado bajo la lupa de la comunidad internacional, utilizó la herramienta para investigar la actividad en redes sociales y escribir publicaciones en chino, coreano, japonés e inglés, basándose en esos datos. El iraní Unión Internacional de Medios Virtuales también la empleó en la creación de artículos que, luego, publicó en su sitio web.
En tanto, a Bad Grammar, la agrupación rusa descubierta gracias a esta trama, le sirvió para crear un programa capaz de publicar automáticamente en Telegram y, a su vez, generar publicaciones y comentarios tanto en ruso como en inglés, que apuntaban contra Estados Unidos y daban argumentos sobre por qué no debería ayudar más a Ucrania en la guerra.
En referencia a Israel, se encontró que la empresa de campaña política Stoic había generado por medio de estos avances tecnológicos publicaciones en favor del país en el marco de la guerra en Gaza, que estuvieron dirigidas a Canadá, Estados Unidos e Israel. A los hallazgos de OpenAI se sumó Meta, que también dio cuenta de prácticas similares de la compañía en su red, por medio de 510 cuentas en Facebook y 32 en Instagram. Según sumaron, algunas de ellas figuraban bajo el nombre de personas ficticias mientras otras habían sido pirateadas de usuarios reales.
Por medio de éstas se crearon reiterados comentarios en páginas de figuras y organizaciones de medios de comunicación bajo la fachada de estudiantes universitarios pro israelíes o afroamericanos que apoyaban a las Fuerzas de Defensa y advertían de las amenazas del “Islam radical”.
“Los hemos visto generar texto en un volumen mayor y con menos errores de los que estas operaciones han manejado tradicionalmente”, dijo a The Washington Post Ben Nimmo, líder del equipo de investigaciones de Inteligencia de OpenAI, quien anteriormente trabajó en operaciones de influencia de seguimiento de Meta.
Todas estas cuentas, sin embargo, fueron eliminadas aunque, de todas formas, ninguna de ellas había tenido mucho éxito: consiguieron unos pocos seguidores, su alcance fue bastante limitado y los comentarios quedaban fuera de contexto. No obstante, esto dejó al descubierto los riesgos que implica el uso de la IA con un fin malicioso y todo el daño que puede hacer en la sociedad, dado que no se descarta que existan otros grupos todavía basándose en las herramientas de OpenAI sin el conocimiento de la compañía.
“Es más una evolución que una revolución. Este no es momento de complacencia. La historia muestra que operaciones de influencia que durante años no lograron llegar a ninguna parte pueden estallar repentinamente si nadie las busca”, sumó Nimmo y apuntó que no se habían encontrado indicios de otros usos más sofisticados del software, como las largas y detalladas conversaciones con usuarios, con mensajes personalizados, aunque eso “no quiere decir que no podamos verlo en el futuro”.
Durante años, los Gobiernos y grupos de activistas han estado luchando por combatir el uso de las redes sociales como canal de influencia y manipulación política. Luego de las denuncias en 2016 de la interferencia del Kremlin en las elecciones de Estados Unidos, las principales plataformas en línea comenzaron a prohibir a los políticos encubrir sus esfuerzos por influir en los usuarios y hasta se exige que se demuestre quién está detrás del financiamiento de los anuncios.
El problema es que los avances de la tecnología y los mecanismos de adaptación de estos grupos suelen ser más rápidos que los de las empresas, que destinan meses de trabajo e investigación de expertos. Es por ello que con la reciente aparición de las herramientas capaces de producir texto, imágenes e incluso videos realistas de manera generalizada, las compañías del sector están en una carrera contrarreloj.
Los primeros ejemplos no tardaron en llegar. A principios de año, un grupo afiliado al Partido Comunista Chino publicó un video del candidato a las elecciones presidenciales de Taiwán Terry Gou en el que se lo veía respaldando a otro político. No obstante, estas imágenes habían sido creadas con IA y sólo buscaban aumentar la grieta política en la isla, en medio de las ambiciones de Beijing por hacerse con su control.
También, en enero, los votantes en las primarias de New Hampshire, Estados Unidos, aseguraron haber recibido una llamada del propio presidente y aspirante a la reelección, Joe Biden, que también acabó siendo falso. La semana pasada, un empleado de la campaña demócrata confesó haber sido el autor de la maniobra y fue acusado formalmente de supresión de votantes y de hacerse pasar por un candidato.
OpenAI, Google y otras ya comenzaron a desarrollar sus software para identificar los deepfakes pero esta tecnología aún no ha sido aprobada e, inclusive, muchos son poco alentadores de su efectividad.