Las principales empresas de inteligencia artificial tienen previsto firmar un “acuerdo” por el que se comprometen a desarrollar tecnología para identificar, etiquetar y controlar imágenes, vídeos y grabaciones de audio generados por inteligencia artificial con el objetivo de engañar a los votantes antes de las cruciales elecciones que se celebrarán este año en varios países.
Sin embargo, el acuerdo, desarrollado por Google, Microsoft y Meta, así como OpenAI, Adobe y TikTok, no prohíbe los contenidos políticos engañosos generados por IA, según una copia obtenida por The Washington Post. X, antes Twitter, no ha firmado el acuerdo.
En cambio, el documento equivale a un manifiesto en el que se afirma que los contenidos generados por IA, muchos de los cuales son creados por las herramientas de las empresas y publicados en sus plataformas, presentan riesgos para unas elecciones justas, y se esbozan medidas para tratar de mitigar ese riesgo, como el etiquetado de contenidos sospechosos de IA y la educación del público sobre los peligros de la IA.
“La generación y distribución intencionadas y no divulgadas de contenidos electorales engañosos basados en IA pueden inducir al público a error” reza el acuerdo.
Otras empresas podrían adherirse al acuerdo. “En un año crítico para las elecciones mundiales, las empresas tecnológicas están trabajando en un acuerdo para combatir el uso engañoso de la IA dirigida a los votantes. Adobe, Google, Meta, Microsoft, OpenAI, TikTok y otros están trabajando conjuntamente para avanzar en este objetivo compartido y esperamos finalizar y presentar los detalles el viernes en la Conferencia de Seguridad de Múnich”, dijo David Cuddy, portavoz de Microsoft, en un comunicado enviado por correo electrónico.
Las imágenes generadas por inteligencia artificial, o “deepfakes”, existen desde hace varios años. Pero en el último año han mejorado rápidamente su calidad, hasta el punto de que algunos vídeos, imágenes y grabaciones de audio falsos son difíciles de distinguir de los reales. Además, las herramientas para crearlos están ahora ampliamente disponibles, lo que facilita mucho su producción.
Los contenidos generados por inteligencia artificial ya han aparecido en campañas electorales de todo el mundo. El año pasado, un anuncio en apoyo del ex candidato presidencial republicano Ron DeSantis utilizó IA para imitar la voz del ex presidente Donald Trump. En Pakistán, el candidato presidencial Imran Khan utilizó IA para pronunciar discursos desde la cárcel. En enero, una robollamada que se hacía pasar por el presidente Biden animaba a la gente a no votar en las primarias de New Hampshire. Las llamadas utilizaban una versión generada por IA de la voz de Biden.
Las empresas tecnológicas han recibido presiones de reguladores, investigadores de IA y activistas políticos para frenar la difusión de contenidos electorales falsos. El nuevo acuerdo es similar a un compromiso voluntario que las mismas empresas, además de varias otras, firmaron en julio tras una reunión en la Casa Blanca, en la que se comprometieron a tratar de identificar y etiquetar los contenidos de IA falsos en sus sitios web. En el nuevo acuerdo, las empresas también se comprometen a educar a los usuarios sobre el contenido engañoso de IA y a ser transparentes sobre sus esfuerzos para identificar deepfakes.
Las empresas tecnológicas también tienen ya sus propias políticas sobre contenidos políticos generados por IA. TikTok no permite los contenidos falsos de personajes públicos cuando se utilizan con fines políticos o comerciales. Meta, la empresa matriz de Facebook e Instagram, exige a los anunciantes políticos que revelen si utilizan IA en los anuncios de sus plataformas. YouTube exige a los creadores que etiqueten los contenidos generados por IA que parezcan realistas cuando los publiquen en el sitio de vídeos propiedad de Google.
Sin embargo, los intentos de construir un sistema amplio en el que el contenido de IA se identifique y etiquete en todas las redes sociales aún no han fructificado. Google ha mostrado su tecnología de “marca de agua”, pero no exige a sus clientes que la utilicen. Adobe, propietaria de Photoshop, se ha posicionado como líder en el control del contenido de IA, pero su propio sitio web de fotos de archivo estaba recientemente lleno de imágenes falsas de la guerra de Gaza.
(c) 2024 , The Washington Post