Los deepfakes creados con IA amenazan con alterar las elecciones mundiales

Expertos advierten sobre el impacto de la inteligencia artificial en el proceso democrático, revelando un incremento de contenido falso que desafía la integridad de los comicios en diversas naciones

Divyendra Singh Jadoun, fundador de Polymath Solutions, en su oficina. (Saumya Khandelwal para The Washington Post)

El teléfono de Divyendra Singh Jadoun no para de sonar. Conocido como el “Deepfaker Indio”, Jadoun es famoso por utilizar inteligencia artificial para crear secuencias de Bollywood y comerciales de televisión.

Pero a medida que comienza la votación escalonada en las elecciones de India, Jadoun dice que cientos de políticos han estado clamando por sus servicios, con más de la mitad pidiendo cosas “poco éticas”. Los candidatos le pidieron que falsificara audios de competidores cometiendo errores en la campaña o que superpusiera las caras de los retadores en imágenes pornográficas. Algunas campañas solicitaron videos falsos de baja calidad de su propio candidato, que podrían ser lanzados para sembrar dudas sobre cualquier video real perjudicial que surja durante la elección.

Jadoun, de 31 años, dice que rechaza trabajos destinados a difamar o engañar. Pero espera que muchos consultores accedan, distorsionando la realidad en la elección más grande del mundo, ya que más de medio millar de millones de votantes indios acuden a las urnas.

“Lo único que nos impide crear deepfakes poco éticas son nuestra ética”, dijo Jadoun. “Pero es muy difícil detener esto”.

Las elecciones en India, que comenzaron la semana pasada y se extienden hasta principios de junio, ofrecen una vista previa de cómo una explosión de herramientas de IA está transformando el proceso democrático, facilitando el desarrollo de medios falsos impecables alrededor de las campañas. Más de la mitad de la población mundial vive en los más de 50 países que celebran elecciones en 2024, marcando un año crucial para las democracias globales.

Aunque se desconoce cuántas falsificaciones de IA se han hecho de políticos, los expertos dicen que están observando un aumento global de las deepfakes electorales.

Estoy viendo más [deepfakes políticas] este año que el anterior y las que estoy viendo son más sofisticadas y convincentes”, dijo Hany Farid, profesor de ciencias de la computación en la Universidad de California en Berkeley.

Divyendra Singh Jadoun, creador de deepfake y fundador de Polymath Solutions, trabaja en su oficina en el distrito electoral de Pushkar en el estado indio de Rajasthan. (Saumya Khandelwal para The Washington Post)

Mientras los responsables políticos y reguladores desde Bruselas hasta Washington se apresuran a redactar legislación que restrinja el audio, las imágenes y los videos potenciados por IA en la campaña electoral, está surgiendo un vacío regulatorio. La histórica Ley de IA de la Unión Europea no entrará en vigor hasta después de las elecciones parlamentarias de junio. En el Congreso de Estados Unidos, una legislación bipartidista que prohibiría la representación falsa de candidatos federales mediante IA probablemente no se convertirá en ley antes de las elecciones de noviembre. Un puñado de estados de Estados Unidos han promulgado leyes que penalizan a las personas que hacen videos engañosos sobre políticos, creando un mosaico de políticas a través del país.

Mientras tanto, hay pocas medidas disuasorias para evitar que políticos y sus aliados utilicen la IA para engañar a los votantes, y los aplicadores de la ley rara vez son competencia para los fakes que pueden difundirse rápidamente a través de las redes sociales o en chats grupales. La democratización de la IA significa que depende de individuos como Jadoun - no de los reguladores - tomar decisiones éticas para evitar el caos en las elecciones inducido por la IA.

No nos quedemos al margen mientras nuestras elecciones se arruinan”, dijo la Sen. Amy Klobuchar (D-Minn.), presidenta del Comité de Reglas del Senado, en un discurso el mes pasado en el Consejo Atlántico. “… Este es un momento de ‘el cabello en llamas’. No es un momento de ‘esperemos tres años a ver cómo va’”.

Durante años, grupos estatales inundaron Facebook, Twitter (ahora X) y otras redes sociales con desinformación, emulando el libro de jugadas que Rusia utilizó en 2016 para incitar discordia en las elecciones de Estados Unidos Pero la IA permite que actores más pequeños participen, haciendo que combatir las falsedades sea una tarea fragmentada y difícil.

El Departamento de Seguridad Nacional advirtió a los funcionarios electorales en un memorando que la IA generativa podría usarse para mejorar las campañas de influencia extranjera dirigidas a las elecciones. Las herramientas de IA podrían permitir que los malos actores se hagan pasar por funcionarios electorales, dijo el DHS en el memorando, difundiendo información incorrecta sobre cómo votar o la integridad del proceso electoral.

Un empleado trabaja en un proyecto de contenido político en la oficina de Polymath Solutions en Rajasthan, India. (Saumya Khandelwal para The Washington Post)

Estas advertencias se están convirtiendo en una realidad en todo el mundo. Actores respaldados por el estado utilizaron la IA generativa para entrometerse en las elecciones de Taiwán a principios de este año. En el día de las elecciones, un grupo afiliado al Partido Comunista Chino publicó audio generado por IA de un político prominente que se retiró de la elección Taiwanesa apoyando a otro candidato, según un informe de Microsoft. Pero el político, el propietario de Foxconn Terry Gou, nunca había hecho tal respaldo, y YouTube retiró el audio.

Taiwán finalmente eligió a Lai Ching-te, un candidato al que se oponía el liderazgo del Partido Comunista Chino, señalando los límites de la campaña para afectar los resultados de la elección.

Microsoft espera que China use un libro de jugadas similar en India, Corea del Sur y Estados Unidos este año. “La creciente experimentación de China en la ampliación de memes, videos y audio probablemente continuará, y puede resultar más efectiva a largo plazo”, dijo el informe de Microsoft.

Pero el bajo costo y la amplia disponibilidad de las herramientas de IA generativa han hecho posible que personas sin respaldo estatal participen en engaños que rivalizan con las campañas de los estados nación.

En Moldavia, los videos deepfake de IA han mostrado a la presidenta prooccidental del país, Maia Sandu, renunciando y alentando a las personas a apoyar a un partido pro-Putin durante las elecciones locales. En Sudáfrica, una versión digitalmente alterada del rapero Eminem respaldó a un partido de oposición sudafricano antes de las elecciones del país en mayo.

En enero, un operativo político demócrata falsificó la voz del presidente Biden para instar a los votantes de las primarias de New Hampshire a no ir a las urnas, una broma destinada a llamar la atención sobre los problemas con el medio.

El aumento de las deepfakes de IA podría cambiar la demografía de quién se postula para un cargo, ya que los malos actores usan contenido sintético desproporcionadamente para dirigirse a las mujeres.

Durante años, Rumeen Farhana, una política de la oposición en Bangladesh, ha enfrentado acoso sexual en internet. Pero el año pasado, emergió en las redes sociales una foto deepfake de IA de ella en bikini.

Farhana dijo que no está claro quién hizo la imagen. Pero en Bangladesh, un país de mayoría musulmana conservadora, la foto atrajo comentarios acosadores de ciudadanos comunes en las redes sociales, con muchos votantes asumiendo que la foto era real.

Divyendra Singh Jadoun, de 31 años, creador de contenido deepfake, posa frente a una pantalla verde que utiliza para generar videos usando inteligencia artificial en los desiertos de Pushkar, India. (Saumya Khandelwal para The Washington Post)

Este tipo de asesinatos de carácter podría evitar que las candidatas se sometan a la vida política, dijo Farhana.

Cualquier cosa nueva que surja, siempre se usa contra las mujeres primero. Son la víctima en cada caso”, dijo Farhana. “La IA no es una excepción de ninguna manera”.

En ausencia de actividad del Congreso, los estados están tomando medidas mientras los reguladores internacionales establecen compromisos voluntarios de las empresas.

Alrededor de 10 estados han adoptado leyes que penalizarían a aquellos que usan la IA para engañar a los votantes. El mes pasado, el gobernador de Wisconsin firmó un proyecto de ley bipartidista que impondría multas a las personas que no revelen la IA en los anuncios políticos. Y una ley de Michigan castiga a cualquiera que con conocimiento circule un deepfake generado por IA dentro de los 90 días de una elección.

Sin embargo, no está claro si las penas, que van desde multas de hasta USD 1,000 y hasta 90 días de cárcel, dependiendo del municipio, son lo suficientemente severas como para disuadir a los posibles infractores.

Con tecnología de detección limitada y pocos empleados designados, podría ser difícil para los aplicadores de la ley confirmar rápidamente si un video o imagen es realmente generado por IA.

En ausencia de regulaciones, funcionarios gubernamentales buscan acuerdos voluntarios de políticos y empresas tecnológicas por igual para controlar la proliferación de contenidos electorales generados por IA. La vicepresidenta de la Comisión Europea, Vera Jourova, dijo que ha enviado cartas a los principales partidos políticos en los estados miembros europeos con un “ruego” para resistir el uso de técnicas manipuladoras. Sin embargo, dijo, los políticos y los partidos políticos no enfrentarán consecuencias si no hacen caso a su solicitud.

“No puedo decir si seguirán nuestro consejo o no”, dijo en una entrevista. “Estaré muy triste si no lo hacen porque si tenemos la ambición de gobernar en nuestros estados miembros, entonces también deberíamos mostrar que podemos ganar elecciones sin métodos sucios”.

Jourova dijo que en julio de 2023 pidió a las grandes plataformas de redes sociales que etiquetaran las producciones generadas por IA antes de las elecciones. La solicitud recibió una respuesta mixta en Silicon Valley, donde algunas plataformas le dijeron que sería imposible desarrollar tecnología para detectar la IA.

Libros sobre política india en la oficina de Polymath Solutions. (Saumya Khandelwal para The Washington Post)

OpenAI, que fabrica el chatbot ChatGPT y el generador de imágenes DALL-E, también buscó formar relaciones con las compañías de redes sociales para abordar la distribución de materiales políticos generados por IA. En la Conferencia de Seguridad de Múnich en febrero, 20 empresas tecnológicas líderes prometieron unirse para detectar y eliminar contenido perjudicial de IA durante las elecciones de 2024.

“Este es un problema de toda la sociedad”, dijo Anna Makanju, vicepresidenta de asuntos globales de OpenAI, durante una entrevista en Post Live. “No es en interés de ninguno de nosotros que esta tecnología se aproveche de esta manera, y todos están bastante motivados, particularmente porque ahora tenemos lecciones de elecciones anteriores y de años anteriores”.

Sin embargo, las empresas no enfrentarán ninguna penalización si no cumplen con su promesa. Ya ha habido brechas entre las políticas declaradas de OpenAI y su cumplimiento. Un super PAC respaldado por personas influyentes de Silicon Valley lanzó un chatbot de IA del candidato presidencial con pocas posibilidades Dean Phillips impulsado por el software ChatGPT de la compañía, en violación de la prohibición de OpenAI del uso de su tecnología por campañas políticas. La compañía no prohibió el bot hasta que The Washington Post informó sobre él.

Jadoun, que hace trabajo político de IA para los principales partidos electorales de India, dijo que la propagación de deepfakes no puede ser resuelta solo por el gobierno: los ciudadanos deben ser más educados.

Cualquier contenido que haga que tus emociones suban a un siguiente nivel”, dijo, “simplemente detente y espera antes de compartirlo”.

(c) 2024, The Washington Post