La Universidad de Columbia lanza laboratorio para contrarrestar desinformación con IA en elecciones presidenciales 2024

El centro investigará técnicas avanzadas como los ‘deepfakes’ y su potencial impacto en los próximos comicios en Estados Unidos

Guardar
Un laboratorio de innovación se encargará del estudio y detección temprana de estas amenazas digitales. (Imagen Ilustrativa Infobae)
Un laboratorio de innovación se encargará del estudio y detección temprana de estas amenazas digitales. (Imagen Ilustrativa Infobae)

La llegada de nuevas herramientas de inteligencia artificial generativa (IA) que se estarán lanzarán próximamente han generado muchas interrogantes y preocupaciones para los involucrados en las próximas elecciones electorales de 2024 en Estados Unidos, pero desde la Universidad de Columbia ya se vienen trabajando en cómo combatir estos riesgos digitales.

Como señala Axios, debido a la reducción de las inversiones internas de las principales compañías tecnológicas en este tema y a la falta de recursos y de relaciones en las nuevas empresas de IA, la nueva ola de tecnología podría afectar el panorama con los llamados “deepfakes”, que aparecieron en recientes elecciones eslovacas y en la conferencia anual del Partido Laborista del Reino Unido.

Los “deepfakes” son una técnica de inteligencia artificial que permite crear videos hiperrealistas, a menudo utilizada para simular personas reales en situaciones ficticias. El término es una combinación de ‘deep learning’ (aprendizaje profundo) y ‘fake’ (falso). Estos materiales se crean usando grandes cantidades de datos visuales y sonoros, logrando imitar personajes con asombrosa precisión y, precisamente por ello, ha generado preocupaciones sobre su potencial uso indebido.

Ante tal riesgo, la Universidad de Columbia y Sciences Po en París han lanzado un laboratorio de innovación con el objetivo de monitorear el impacto de la IA en los comicios electorales y fortalecer las sociedades democráticas.

Dicho centro de investigaciones será dirigido por reconocidos expertos como Maria Ressa, directora ejecutiva de Rappler y ganadora del Premio Nobel de la Paz, y Camille François, conocida por su trabajo de investigación sobre la desinformación electoral en Rusia durante las elecciones de 2016.

La iniciativa dirigida por reconocidos investigadores, pone de manifiesto la necesidad de anticiparse a futuros riesgos digitales en el panorama político. (Imagen Ilustrativa Infobae)
La iniciativa dirigida por reconocidos investigadores, pone de manifiesto la necesidad de anticiparse a futuros riesgos digitales en el panorama político. (Imagen Ilustrativa Infobae)

François, en declaraciones para Axios, aseguró que investigará los riesgos y daños reales que plantean los modelos de lenguaje colosales (LLM), para lograr que la brecha de conocimiento entre expertos y desarrolladores de IA se cierre.

Este nuevo laboratorio nació como parte de un proyecto de alfabetización digital, respaldado por 3 millones de dólares del gobierno francés y que apoya otras iniciativas importantes para entender las nuevas tecnologías y “garantizar una información libre e independiente”, tal y como se plantea en un comunicado de la web oficial de la presidencia francesa.

Guardar