Luego de que se hiciera viral una serie de fotografías falsas del Papa Francisco en las que se le podía ver con un abrigo moderno y otras en las que se veía el supuesto arresto del ex presidente de Estados Unidos, Donald Trump, ambas con un aspecto hiperrealista, el debate en redes sociales (donde se difundieron) se centró en cómo reconocer cuando una imagen es generada por inteligencia artificial.
Los software Midjourney y DALL-E2 son los más populares en este tipo de casos, debido al nivel de realismo que pueden alcanzar en sus producciones.
Sin embargo, las imágenes generadas por más detalladas que sean, no son perfectas y pueden reconocerse si las personas buscan con detenimiento los errores que existen en estas fotografías artificiales.
El principal reto de las personas que ven estas imágenes en internet es que es altamente probable que la sigan difundiendo sin antes realizar una observación a detalle. Estos son algunos aspectos que se deberán tener en cuenta para identificar ese contenido de forma rápida.
Le puede interesar: Gobiernos intentan establecer regulaciones para la inteligencia artificial
Lo primero es revisar el nivel de detalle que existe en las manos de las personas presentes en la fotografía. Por más que se añadan detalles hiperrealistas las imágenes suelen tener desperfectos en esa área del cuerpo.
Las manos o los dedos son un indicador clave de que la imagen es falsa. En ocasiones se podrá ver a los personajes con un dedo más o menos de los que debería, si están sosteniendo algo (como en el caso de la foto del Papa Francisco), la mano se mezcla con el objeto e incluso puede que los dedos sean más largos de lo normal.
Salvo que estén completamente diferenciados por el color que presentan, los anillos también sirven como referencia para identificar las fotos falsas.
En las imágenes artificiales suelen fusionarse con la mano y no se define realmente cuándo empieza y acaba el accesorio. Lo mismo puede pasar con los pendientes y piercings.
Le puede interesar: Papa Francisco: cómo usaron inteligencia artificial para crear estas fotos virales del Pontífice
En algunos casos, las inteligencias artificiales son entrenadas con fotografías reales para replicar el rostro de una persona determinada. Sin embargo, aún cuando el resultado sea muy cercano a la realidad, estos pueden tener desperfectos al momento de reproducir sombras.
En este tipo de casos se deberá observar con detenimiento si el objeto o la persona está iluminada de forma correcta o se están produciendo sombras donde no se debería.
Si las imágenes fueron producidas por una inteligencia artificial que no tuvo el entrenamiento especial para imitar los rostros de las personas, esta parte de sus cuerpos aparecerá con visibles deformaciones, en los ojos, párpados, boja, orejas o incluso podrían no tener rostro en absoluto y en su lugar presentar formas que emulan algún tipo de expresión facial, pero ninguna definida.
El fondo de las imágenes es relevante para identificar cuáles son artificiales. Los carteles de anuncios o letreros suelen presentar conjuntos de letras ilegibles o que no significan nada en realidad. Tampoco corresponden a un idioma en particular, por lo que es una de las formas más rápidas de identificar una imagen falsa.
Le puede interesar: Microsoft lanza “Create”, una herramienta para generar imágenes con inteligencia artificial
Uno de los principales problemas que se pueden generar al compartir este tipo de imágenes en redes sociales, es que pueden ser utilizadas como parte de campañas de desinformación, por lo que se recomienda que las personas observen los detalles mencionados anteriormente y ahí si pueden dar por verdadero o no el contenido de estas fotografías.