En 2024, la tecnología de deepfake ha alcanzado un nivel de sofisticación que hace cada vez más difícil distinguir la realidad de la ficción en videos de figuras públicas. Lo que comenzó como un experimento técnico limitado a expertos, se ha convertido en un fenómeno accesible para cualquier persona con una conexión a internet y unas pocas herramientas digitales. Figuras como Donald Trump, Elon Musk y Taylor Swift encabezan la lista de los famosos más en sufrir este tipo de suplantación.
Un estudio realizado por Kapwing, una empresa que se especializa en la creación y edición de videos con IA, revela cuáles son las figuras públicas más utilizadas en los vídeos deepfake, poniendo en evidencia esta tendencia, que en ocasiones busca generar contenido de humor, pero también información de mala manera a los usuarios o directamente suplantar la identidad de alguien para realizar estafas.
Qué es un deepfake y por qué es tan problemático
Los deepfakes son videos manipulados que utilizan inteligencia artificial para reemplazar el rostro o la voz de una persona con los de otra, de forma extremadamente realista. En sus inicios, crear uno requería grandes cantidades de datos y procesamiento computacional, pero los avances tecnológicos recientes han facilitado su creación. Hoy en día, un video convincente puede hacerse con tan solo 10 segundos de imágenes originales y unos clics, lo que abre la puerta a todo tipo de usos malintencionados.
El principal problema con los deepfakes radica en su capacidad para difundir información falsa y desinformación de manera efectiva. En el contexto político, por ejemplo, se han utilizado para influir en la opinión pública, mientras que en el entretenimiento y las redes sociales, han generado controversia por el uso no autorizado de la imagen de celebridades. Según el estudio, “la mayoría de los deepfakes se hacen para influir en la opinión pública, habilitar estafas o generar beneficios económicos”.
Además, el hecho de que estos videos puedan hacerse con facilidad y rapidez, sin requerir grandes cantidades de datos o entrenamiento especializado, significa que la tecnología está al alcance de cualquiera. Esto aumenta el riesgo de abuso, ya que los usuarios malintencionados pueden crear videos que parecen auténticos, pero que en realidad son fabricados para engañar o perjudicar.
Los famosos más afectados en 2024
Kapwing realizó un análisis de los personajes públicos más afectados por esta tecnología en 2024. Para ello, examinaron las solicitudes de deepfakes realizadas en una de las herramientas de IA más activas en Discord, donde contaron manualmente el número de veces que se solicitaba la creación de videos falsos de más de 500 figuras influyentes de la cultura estadounidense.
El resultado reveló un ranking de los famosos más deepfakeados, encabezado por Donald Trump, quien acumuló más de 12.000 videos manipulados solo en este año. A Trump le siguen figuras igualmente destacadas como Elon Musk y Taylor Swift, quienes también han sido objeto de múltiples manipulaciones. A continuación, se presenta el listado de los 10 famosos más afectados por los deepfakes en 2024:
- Donald Trump:12.384 videos
- Elon Musk: 9.544 videos
- Taylor Swift: 8.202 videos
- Joe Biden: 7.956 videos
- Tom Cruise: 2.308 videos
- Dwayne Johnson: 1.970 videos
- Cristiano Ronaldo: 1.948 videos
- Mark Zuckerberg: 1.738 videos
- Will Smith: 1.609 videos
- Beyoncé: 1.328 videos
Cómo detectar un deepfake
Con la creciente prevalencia de los deepfakes, es importante que los usuarios de internet sepan cómo detectar estos videos manipulados. Eric Lu, cofundador de Kapwing, ofrece tres consejos clave para identificar deepfakes modernos:
- Movimiento inconsistente de los labios y los dientes: la sincronización labial puede fallar en detalles como la alineación de los dientes o el movimiento de los labios. En algunos casos, el área alrededor de la boca puede verse borrosa o con colores poco naturales.
- Movimientos corporales inusuales: los deepfakes a menudo se centran en el rostro, lo que significa que los movimientos corporales o gestos pueden no coincidir con el diálogo o las expresiones faciales. Si el sujeto no parpadea o lo hace de manera extraña, puede ser una señal de manipulación.
- Voces inanimadas y patrones de respiración inusuales: las voces clonadas suelen carecer de las variaciones naturales del habla humana, y las pausas o la respiración pueden sonar antinaturales.