¿Sabía Ud. que en una ocasión en los 90 Michael Jackson fue detenido por unas peleas durante un concierto? Las autoridades locales lo responsabilizaron por el comportamiento de su público eufórico que causó varios daños, pero no pagó ninguna multa. ¿Por qué? Porque esto nunca pasó y esta es una fotografía falsa creada por una inteligencia artificial (IA).
Las IA presentan este potencial y, en el ámbito de reconocimiento facial, creación de imágenes y otras aplicaciones de visión artificial, otras aplicaciones de clara utilidad empresarial. Uno de los usos más recientes es deepfake (en referencia a la falsificación mediante aprendizaje profundo), creaciones hiperrealistas de imágenes, vídeos y audios que pueden engañar fácilmente a los espectadores. Aunque se han popularizado muchos usos de los deepfake para el entretenimiento, su uso malicioso plantea nuevos retos.
El nivel de hiperrealismo y detalle que alcanzan las imágenes producidas por las IA actuales es comparable con una edición fotográfica profesional. Esta facilidad para la creación de material tan convincente, sin mencionar su constante mejora, aumenta significativamente el riesgo de estas creaciones en el internet. Así, la mayor credibilidad de los deepfakes y la velocidad de su difusión convertirá la navegación por internet en una constante lucha contra la desinformación donde tambien tendríamos que dudar de las imágenes que vemos.
Los deepfakes presentan nuevos riesgos, incluyendo el fraude financiero, difusión de información falsa y daño a la reputación. También pueden ser utilizados para difamar, propagar discursos de odio y socavar la confianza en los medios. Son varias las formas en que se podrían materializar estos usos y generar daños, desde unas fotos comprometedoras falsas, suplantación online, hasta compartir un audio falso. Las figuras públicas son especialmente vulnerables, ya que su información personal está ampliamente disponible. Una de las mayores complicaciones al tratar con los deepfakes reside en la dificultad para contener su difusión pues unos segundos pueden ser suficientes para causar un daño difícil de revertir.
Un ejemplo del riesgo de la suplantación con deepfake es cuando en marzo de 2022 circuló, incluso en televisión ucraniana, un video donde aparecía el presidente de Ucrania, Volodymyr Zelensky, pidiendo la rendición de soldados ucranianos frente a Rusia a lo que se tuvieron que hacer declaraciones oficiales para aclarar la situación. Por otro lado, cuando un grupo de luchadoras hindúes de élite fueron detenidas por la policía durante una protesta por un caso de acoso sexual el 28 de mayo, circuló por Twitter dos versiones de un selfie tomada por una de ellas donde estaban siendo transportadas en un bus por la policía pero, mientras en la foto original lucían preocupadas, en la foto editada aparecían sonrientes lo que levantó acusaciones sobre la veracidad de su protesta. Otra modalidad que ha aumentado es la creación de deepfakes pornográficos, y en países como Inglaterra se busca considerar la difusión de este contenido sin consentimiento como un crimen que atenta contra la imagen de las víctimas, lo que será uno de los primeros avances legales respecto a su regulación. Si bien ser capaz de editar fotos propias de forma tan sencilla suena interesante, los nuevos deepfakes exponen lo vulnerable de la imagen personal de los usuarios.
Es necesario destacar la importancia de las IA gráficas para pronosticar el enorme potencial de las deepfakes. Aplicaciones de filtros y retratos basados en IA, como Meitu y Lensa, suelen volverse los dueños de las imágenes generadas, lo que quiere decir que, aunque no guarden las fotos originales de los usuarios, estos servicios generan ‘bibliotecas de rostros’ junto con una variedad de datos biométricos y gráficos para su diseño. Y toda esta información es la que puede impulsar significativamente la mejora de las IA durante su entrenamiento para la creación de deepfakes. Ya no se tratan solamente de ediciones de una imagen previa, sino de la creación prácticamente total de una imagen hiperrealista y aparentemente legítima usando el prompt (conjunto de indicaciones a la IA) adecuado. Aunque estas IA comentadas destacan principalmente en la generación de imágenes, es cuestión de tiempo para que se logré producir videos falsos realistas y de alta calidad de forma mucho más accesible.
En conclusión, el desarrollo del deepfake es un hito en el progreso de la IA y demuestra su potencial empresarial y sus riesgos en el ámbito de suplantación de identidad. Si bien las implicaciones son motivo de preocupación, la implementación de marcos legales no debe abordarse de forma precipitada, sino mediante medidas que protejan a los individuos y no limiten la innovación, la transparencia y la responsabilidad en su uso.