Los deepfakes creados con IA serán indistinguibles de la realidad en 2024, según un informe

Los expertos en tecnología sugirieron regular los avances en inteligencia artificial para evitar riesgos para la seguridad nacional y el aumento de desinformación

Guardar
Empresas líderes como OpenAI preparan el lanzamiento de herramientas de creación de contenido que revolucionarán las imágenes como las conocemos (Imagen Ilustrativa Infobae)
Empresas líderes como OpenAI preparan el lanzamiento de herramientas de creación de contenido que revolucionarán las imágenes como las conocemos (Imagen Ilustrativa Infobae)

Desarrolladores de inteligencia artificial (IA) están al borde de lanzar tecnología que permitirán a los usuarios crear imágenes y videos tan realistas que casi no se podrá distinguir de la realidad. Los expertos llaman la atención sobre el potencial uso indebido de estas herramientas, especialmente en la creación de vídeos falsos, deepfakes, que son altamente convincentes y que podrían influir en las elecciones presidenciales de 2024, en Estados Unidos.

Según reveló un informe de Axios, empresas líderes como OpenAI, creadora de la popular plataforma ChatGPT, planean lanzar estos recursos de creación de contenido. La llegada de estas herramientas al mercado podría ser inminente, generando preocupación entre los expertos, quienes advierten del posible impacto en ámbitos como las elecciones, el comercio y la seguridad nacional.

Algunos desarrolladores que han participado en pruebas privadas han admitido que ellos mismos no pueden distinguir las imágenes falsas de las reales, según reportó Fox News Digital.

Ziven Havens, director de políticas del Bull Moose Project, expresó su inquietud sobre la difusión de videos deepfake de celebridades, políticos y demás personas influyentes. El experto advirtió sobre el potencial de esta tecnología en manos de actores maliciosos para impulsar “anuncios de campañas falsas” o crear “declaraciones falsas de líderes mundiales”. Además, sostuvo que esto tan solo es la “punta del iceberg”.

La amenaza a la que Havens aludió ha llevado a líderes a considerar soluciones para clarificar lo que es real y lo que no, incluyendo la implementación de marcas de agua obligatorias en contenido generado por inteligencia artificial. Phil Siegel, fundador del Center for Advanced Preparedness and Threat Response Simulation, señaló a Fox News que aquellos que buscan regular la IA tendrán que considerar las posibles implicancias en la Primera Enmienda.

Aun así, Siegel parece mostrarse a favor de la difusión ilustrativa de contenido generado por IA y recordó que el contenido humorístico y de sátira probablemente pueda usarse. Sin embargo, reconoció que el aumento de formas baratas y sencillas de generar contenido con tecnología probablemente elevará tanto la desinformación como la sátira e ilustración.

Conversaciones sobre la regulación de tecnologías de inteligencia artificial aumentan tras orden ejecutiva de Joe Biden (Imagen ilustrativa Infobae)
Conversaciones sobre la regulación de tecnologías de inteligencia artificial aumentan tras orden ejecutiva de Joe Biden (Imagen ilustrativa Infobae)

Por otro lado, Samuel Mangold-Lenett, editor de The Federalist, hace notar que existirán formas de “mitigar los riesgos” asociados a la falsedad del material visual generado por IA. Él plantea que el mayor peligro radica en que la inteligencia artificial provoque que la humanidad “pierda el contacto con la realidad”.

Según Mangold-Lenett, así como los motores de búsqueda han debilitado las habilidades de investigación de las personas, las tecnologías de inteligencia artificial sofisticadas tienen el potencial de debilitar las habilidades de pensamiento crítico.

Finalmente, Havens propuso que el Congreso de los Estados Unidos debería implementar la obligación de etiquetar el contenido generado por inteligencia artificial en línea. Por su parte, el presidente Joe Biden recientemente firmó una orden ejecutiva destinada a abordar algunos de los problemas emergentes en torno a la IA, un movimiento que muchos consideran un primer paso positivo.

¿Qué son los deepfake?

Los deepfake son técnicas de inteligencia artificial que permiten la creación o manipulación de contenidos audiovisuales. Este término se refiere a la combinación de ‘deep learning’ (aprendizaje profundo) y ‘fake’ (falso). Se utiliza generalmente con un enfoque de engaño, creando la ilusión de que una persona está hablando o actuando de una manera que no es real.

Esto se consigue reemplazando el rostro de una persona en un video por el de otra, generando imágenes o videos hiperrealistas que pueden ser difíciles de discernir de la realidad. La tecnología deepfake plantea preocupaciones sobre su posible uso malintencionado, como la generación de noticias falsas o la invasión de la privacidad. Sin embargo, también tiene aplicaciones legítimas en campos como el cine, la animación o la publicidad.

Guardar