El uso de la inteligencia artificial en elecciones: ¿un apocalipsis para la democracia o un cambio al que adaptarse?

En un año cargado de procesos electorales en todo el mundo, expertos discuten los efectos de contenidos falsos, cómo se pueden detectar y controlar, así cómo qué rol deben adoptar las plataformas tecnológicas

Guardar
El uso de la inteligencia
El uso de la inteligencia artificial está generando desafíos en varios ámbitos y el electoral es uno de los que más preocupa a los expertos (Imagen ilustrativa Infobae)

(Washington, Estados Unidos) Del otro lado del teléfono la voz del presidente de Estados Unidos, Joe Biden. “Votar este martes sólo les facilita a los republicanos su misión para elegir nuevamente a Donald Trump. Tu voto hace la diferencia en noviembre, no este martes”, decía un mensaje que recibieron miles de ciudadanos del estado de New Hampshire desestimulando el voto en las primarias del mes pasado.

El número desde el que les llegaba la llamada era el teléfono personal de Kathy Sullivan, ex presidenta del Partido Demócrata en el estado y que ahora integra el comité de campaña local a favor de Biden.

Pero la llamada era falsa. No solo porque la voz de Biden fue creada con inteligencia artificial, sino porque también se falsificó el origen de la llamada. “Esta es una interferencia electoral absoluta, y un claro intento para acosarme a mí y a otros votantes de New Hampshire que planean escribir en la boleta el nombre de Joe Biden”, dijo Sullivan.

En las primarias de New
En las primarias de New Hamsphire fue utilizada una voz creada con inteligencia artificial para imitar al presidente Biden en una campaña para desestimular el voto con información engañosa (EFE/EPA/Yuri Gripas)

No es la primera vez que la inteligencia artificial (IA) se utiliza para intentar interferir en una elección. En Eslovaquia, en setiembre del año pasado y en el marco de la campaña electoral para unos comicios parlamentarios cargados de propaganda pro rusa, se intentó interferir con un audio falso divulgado a 48 horas de la apertura de las urnas. Allí se escuchaba falsamente a dos candidatos de diferentes partidos discutiendo sobre cómo robar las elecciones.

Este 2024, un año cargado de elecciones en todo el mundo con cerca de 80 comicios en todo el mundo -entre ellos en territorios gigantes como India, Estados Unidos, Rusia y el Parlamento de la Unión Europea-, el temor de cómo se utilice la inteligencia artificial para intentar engañar a los votantes está en los primeros lugares de la agenda de las organizaciones que defienden la democracia.

En un evento organizado por el think thank Brooking Institution en Washington esta semana, expertos analizaron las diferentes implicaciones que puede aportar la IA a los contextos de campañas electorales.

El temor de algunos no es solo que los políticos puedan usar la IA para engañar, sino también que se escuden en ella para intentar encubrir así errores o declaraciones reales. “La mera existencia de contenido generado por IA ha permitido a las figuras políticas que actualmente se postulan para cargos públicos culpar a las falsificaciones profundas y negar la autenticidad de sus declaraciones y acciones anteriores”, dijo Amy Liu, asesor presidencial en Brookings Institution.

“El contenido generado por IA puede representar amenazas reales durante una temporada electoral. Y pueden fomentar la confusión sobre lo que es real o no, incluso arrojar dudas sobre información y contenido auténticos”, agregó Liu.

En Eslovaquia, Estados Unidos y
En Eslovaquia, Estados Unidos y ahora también en la campaña electoral de México, se han utilizado audios falsos creados con inteligencia artificial para incidir políticamente (REUTERS/Dado Ruvic/Illustration)

Entre el fin del mundo y un cambio similar a Photoshop

Los expertos hicieron énfasis en el evento que la información falsa ya existía antes que la IA. De hecho, según datos presentados por Valerie Wirtschafter, una experta en inteligencia artificial de Brookings Institution, de todos los contenidos impugnados por los usuarios de X (exTwitter) por falso, solo el 1% fueron generados por IA.

Olga Belogolova es directora de Tecnologías Emergentes y profesor en la Universidad Johns Hopkins y antes trabajó para Meta dirigiendo las políticas para contrarrestar las operaciones de influencia. En el evento contó como en esa empresa, propietaria de plataformas como Facebook, Instagram y Whatsapp, uno de sus desafíos fue contenter “la política de comportamiento coordinado y no auténtico”, conocidos como “granjas de trolls”. Es decir, “actores estatales o no estatales que participan en distintos tipos de manipulación”.

De esa experiencia entendió, tras haber estudiado las operaciones de influencia rusas durante años, “que a veces los actores de amenazas están más interesados en hacer creer en nada en absoluto, en lugar de creer en cualquier cosa”. Es decir, que lo que buscan más que influir con un contenido en particular es crear caos. “Y eso es algo que he visto en la configuración de la inteligencia militar rusa, así como en la Agencia de Investigación de Internet y otras granjas de trolls”.

En ese contexto, para Belogolova, no se debe entender a los desafíos que trae la IA como algo distinto a lo que ya había. “Algunos de los titulares que hemos visto en las últimas semanas uno de los términos que se utiliza cuando se habla de elecciones e inteligencia artificial ha sido el de ‘apocalipsis’, como que el mundo está a punto de terminarse debido a que la IA generativa se utilizará en las elecciones”, criticó la investigadora.

“¿Cuántos de nuestros problemas son fundamentalmente diferentes debido a la inteligencia artificial y a las nuevas técnicas y cuántos de ellos son cosas que nos han preocupado antes?”, agregó Belogolova, que recordó cómo en 1988 cuando se lanzó la primera versión de Photoshop surgió un debate similar sobre cuánto iba a influir en las campañas electorales.

“Creo que siempre es interesante mirar hacia atrás en la historia. La semana pasada tuve una conferencia con mis alumnos hablando sobre una especie de evolución del entorno de la información, incluidas cosas como la imprenta y la radio, y momentos en los que algunos seres humanos estaban asustados por las nuevas tecnologías y cómo reaccionaban ante ellas”, señaló.

Meta anunció esta semana que
Meta anunció esta semana que empezará a etiquetar el contenido generado con IA. (AP Foto/Thibault Camus, archivo)

El rol de las plataformas: ventajas y riesgos de etiquetar contenido con IA

Meta anunció esta semana que empezará a etiquetar en sus plataformas Facebook, Instagram y Threads todas las imagenes que sean generadas por inteligencia artificial. “A medida que la diferencia entre contenido humano y sintético se vuelve borrosa, la gente quiere saber dónde está el límite. A menudo, las personas se topan con contenido generado por IA por primera vez y nuestros usuarios nos han dicho que aprecian la transparencia en torno a esta nueva tecnología”, informó la compañía en un comunicado.

Arvind Narayanan, director del Centro de Políticas de Tecnología en la Universidad de Princeton, se mostró entusiasmado con esa decisión. “Me alegré de ver este anuncio de Meta. He abogado por este tipo de etiquetado, dijo. “Soy optimista en que esto le dará a la gente una buena idea del rápido avance de las capacidades de la IA en general, que creo que actualmente no tienen”.

Belogolova de todas formas puso un matiz y se preguntó sobre los efectos secundarios del etiquetado, en particular que se genere con esto la sensación en las audiencias de que todo lo que no tenga esa etiqueta sea real cuando no necesariamente será así. Por eso, para la experta, es importante que se realicen investigaciones involucrando a la audiencia.

“¿Cómo consume la gente esas etiquetas? ¿Causará algún tipo de reacción cuando la gente lo vea?”, sugiere preguntar. “Hay un modelo que detecta estas imágenes que podrían ser artificiales pero no detecta algunos otros. ¿Eso significa que puedes confiar en todos?”, se preguntó.

Otra de las contraindicaciones del etiquetado es que está abordando el problema de la desinformación solo desde el ángulo del contenido y no necesariamente el engaño se da solo con lo que se publica sino en cómo se hace. “Están compartiendo algo real, compartiendo una noticia de un medio de comunicación legítimo, pero usándola para engañar y, por lo tanto, confiar únicamente en el contenido puede ser algo problemático”, dijo Belogolova.

En ese sentido, Laura Edelson, profesora de la Northeastern University, dijo que hay algunos mecanismos para detectar los mecanismos engañosos observando no solo el contenido. “Muchos de los modelos que se utilizan para generar contenido de IA se pueden usar también para detectar el mismo contenido”, dijo. En ese sentido aseguró que existe un mecanismo llamado “detección de postura”, con el que “se pueden usar modelos de lenguaje grandes para agrupar muchas afirmaciones similares, particularmente de teorías de conspiración”.

“Creo que es un enfoque muy prometedor. Existen otros enfoques igualmente prometedores para que todas las plataformas identifiquen videos o audio generados por IA mucho antes que con métodos manuales”, agregó Edelson.

La experta de todas formas dejó planteada una pregunta: “¿Podremos construir esos sistemas lo suficientemente rápido para enfrentar la amenaza?”

Otro elemento en el que las plataformas pueden jugar un rol es en el de la moderación, dijo Narayanan. “Ayudar a las personas a comprender la credibilidad de diferentes organizaciones. En Twitter la eliminación tick azul fue obviamente es un gran paso atrás, pero ¿cuáles son algunos pasos hacia adelante que pueden implementar plataformas más responsables? Creo que eso sigue siendo una pregunta que vale la pena explorar. No tenemos respuestas claras”.

Guardar