Si hay una tecnología que viene creciendo de forma meteórica en el último tiempo son los deep fakes que permiten, por medio del uso de redes neuronales, hacer montajes donde cuesta distinguir un original de un producto creado artificialmente.
Si bien muchas veces se utiliza esta técnica para crear parodias, lo cierto es que también puede ser un desafío a la hora de combatir la desinformación. Los resultados, cada vez más precisos, generan un halo de duda respecto de prácticamente todo: ¿será que este video donde se va este político o esta celebridad decir esas cosas es cierto o habrá sido creado artificialmente? Tener este tipo de dudas en la actualidad no sería alocado teniendo en cuenta que los deep fakes se vuelven cada vez más sofisticados.
En este contexto, investigadores de la Universidad de Buffalo desarrollaron una herramienta que permite identificar automáticamente las fotos deep fake analizando los reflejos de luz en los ojos de los usuarios.
La herramienta, según los investigadores, demostró una efectividad del 94% con imágenes similares a retratos en experimentos descritos en un documento aceptado en la Conferencia Internacional IEEE sobre Procesamiento de Acústica, Habla y Señal que se celebrará en junio en Toronto, Canadá.
A la hora de observar algo, la imagen que miramos se refleja en nuestros ojos. Dichos reflejos guardan una similitud con la forma y color de los elementos u objetos observados.
“Los dos ojos deben tener patrones reflectantes muy similares porque ven lo mismo. Es algo que normalmente no notamos cuando miramos una cara“, explicó, en una publicación difundida por la universidad, el autor principal de la investigación, Siwei Lyu, PhD, profesor de Innovación SUNY Empire en el Departamento de Ingeniería y Ciencias de la Computación.
Sin embargo, la mayoría de las imágenes generadas por inteligencia artificial, incluidas las imágenes producidas por redes generativas antagónicas (GAN), no logran hacer esto de manera precisa, posiblemente debido a que se emplean una multiplicidad de fotos combinadas para generar la imagen falsa.
Partiendo de esta hipótesis, los investigadores crearon un sistema que detecta pequeñas desviaciones en la luz reflejada en los ojos de las imágenes. Se utilizaron imágenes reales de Flickr Faces-HQ, así como imágenes falsas de www.thispersondoesnotexist.com, un repositorio de caras generadas por inteligencia artificial.
La herramienta mapea los rostros, examina los globos oculares y la luz que se refleja en cada uno de ellos, teniendo en cuenta las variaciones que pueda identificar.
Según probaron los investigadores, esta técnica tiene un 94% de eficacia, lo cual es muy positivo pero también tiene algunas limitaciones. Por empezar, en las imágenes analizadas tiene que haber sí o sí una fuente de luz reflejada en los ojos. Por otra parte, se analizan solo los píxeles individuales que se reflejan y no el tipo de objeto reflejado ni la forma de los ojos, lo cual puede derivar en ciertas variaciones. Por otra parte, se compara los reflejos de los dos ojos, con cual si se analiza una foto donde sólo un ojo está visible el sistema no logrará funcionar con precisión.
No es la primera vez que Lyu se focaliza en un desarrollo de este tipo. También investigó y llegó a la conclusión de que en los videos de deepfake los usuarios parpadean menos o lo hacen de un modo inconsistente, lo cual también puede ser un indicio para identificar este tipo de contenido.
También ayudó a crear el sitio Deepfake-o-meter, que analiza videos y ayuda a identificar si un clip es real o un deep fake. No es 100% eficaz, sino una herramienta más para ayudar a evaluar contenidos digitales.
SEGUIR LEYENDO: