
Las principales empresas de inteligencia artificial tienen previsto firmar un “acuerdo” por el que se comprometen a desarrollar tecnología para identificar, etiquetar y controlar imágenes, vídeos y grabaciones de audio generados por inteligencia artificial con el objetivo de engañar a los votantes antes de las cruciales elecciones que se celebrarán este año en varios países.
Sin embargo, el acuerdo, desarrollado por Google, Microsoft y Meta, así como OpenAI, Adobe y TikTok, no prohíbe los contenidos políticos engañosos generados por IA, según una copia obtenida por The Washington Post. X, antes Twitter, no ha firmado el acuerdo.
En cambio, el documento equivale a un manifiesto en el que se afirma que los contenidos generados por IA, muchos de los cuales son creados por las herramientas de las empresas y publicados en sus plataformas, presentan riesgos para unas elecciones justas, y se esbozan medidas para tratar de mitigar ese riesgo, como el etiquetado de contenidos sospechosos de IA y la educación del público sobre los peligros de la IA.

“La generación y distribución intencionadas y no divulgadas de contenidos electorales engañosos basados en IA pueden inducir al público a error” reza el acuerdo.
Otras empresas podrían adherirse al acuerdo. “En un año crítico para las elecciones mundiales, las empresas tecnológicas están trabajando en un acuerdo para combatir el uso engañoso de la IA dirigida a los votantes. Adobe, Google, Meta, Microsoft, OpenAI, TikTok y otros están trabajando conjuntamente para avanzar en este objetivo compartido y esperamos finalizar y presentar los detalles el viernes en la Conferencia de Seguridad de Múnich”, dijo David Cuddy, portavoz de Microsoft, en un comunicado enviado por correo electrónico.
Las imágenes generadas por inteligencia artificial, o “deepfakes”, existen desde hace varios años. Pero en el último año han mejorado rápidamente su calidad, hasta el punto de que algunos vídeos, imágenes y grabaciones de audio falsos son difíciles de distinguir de los reales. Además, las herramientas para crearlos están ahora ampliamente disponibles, lo que facilita mucho su producción.

Los contenidos generados por inteligencia artificial ya han aparecido en campañas electorales de todo el mundo. El año pasado, un anuncio en apoyo del ex candidato presidencial republicano Ron DeSantis utilizó IA para imitar la voz del ex presidente Donald Trump. En Pakistán, el candidato presidencial Imran Khan utilizó IA para pronunciar discursos desde la cárcel. En enero, una robollamada que se hacía pasar por el presidente Biden animaba a la gente a no votar en las primarias de New Hampshire. Las llamadas utilizaban una versión generada por IA de la voz de Biden.
Las empresas tecnológicas han recibido presiones de reguladores, investigadores de IA y activistas políticos para frenar la difusión de contenidos electorales falsos. El nuevo acuerdo es similar a un compromiso voluntario que las mismas empresas, además de varias otras, firmaron en julio tras una reunión en la Casa Blanca, en la que se comprometieron a tratar de identificar y etiquetar los contenidos de IA falsos en sus sitios web. En el nuevo acuerdo, las empresas también se comprometen a educar a los usuarios sobre el contenido engañoso de IA y a ser transparentes sobre sus esfuerzos para identificar deepfakes.
Las empresas tecnológicas también tienen ya sus propias políticas sobre contenidos políticos generados por IA. TikTok no permite los contenidos falsos de personajes públicos cuando se utilizan con fines políticos o comerciales. Meta, la empresa matriz de Facebook e Instagram, exige a los anunciantes políticos que revelen si utilizan IA en los anuncios de sus plataformas. YouTube exige a los creadores que etiqueten los contenidos generados por IA que parezcan realistas cuando los publiquen en el sitio de vídeos propiedad de Google.

Sin embargo, los intentos de construir un sistema amplio en el que el contenido de IA se identifique y etiquete en todas las redes sociales aún no han fructificado. Google ha mostrado su tecnología de “marca de agua”, pero no exige a sus clientes que la utilicen. Adobe, propietaria de Photoshop, se ha posicionado como líder en el control del contenido de IA, pero su propio sitio web de fotos de archivo estaba recientemente lleno de imágenes falsas de la guerra de Gaza.
(c) 2024 , The Washington Post
Últimas Noticias
Los metales preciosos más baratos que el oro alcanzan sus precios más altos en años
El ascenso de estos metales preciosos sorprende a los inversores; factores industriales y movimientos internacionales impulsan una tendencia que podría cambiar el panorama financiero en los próximos meses

Estudio revela que la mejor forma de proteger a los rinocerontes es cortarles los cuernos
Una investigación de siete años en África austral demostró que una intervención quirúrgica reduce en casi 80% los ataques de cazadores ilegales

El teatro se parece cada vez más a la televisión
Producciones de Broadway integran cámaras en vivo, montaje digital y figuras de la pantalla chica para atraer nuevos públicos

Sotheby’s subastará el bolso original de Hermès que perteneció a Jane Birkin
El icónico bolso, diseñado para la cantante franco-británica en 1984, se pondrá a la venta el próximo 10 de julio en París según informó la casa de subastas en un reciente comunicado

Lutnick dice que el centro de huracanes tiene personal completo a pesar de las vacantes clave
A pesar de las declaraciones del secretario de Comercio sobre estar completamente preparado, el Centro Nacional de Huracanes enfrenta vacantes críticas que generan dudas en la temporada del Atlántico, ya en pleno inicio
