Las capacidades generativas de la inteligencia artificial para producir rostros humanos que tengan apariencia real es ampliamente conocida por los usuarios curiosos y editores de fotografías experimentados. Sin embargo esto puede generar casos curiosos en los que se considere que la cara de una persona que fue completamente creada con esta tecnología se vea “más realista” que la perteneciente a un humano real.
Este fenómeno, llamado “hiperrealismo” en el que se considera que un rostro creado por computadora se ve incluso “más real” que uno existente, fue analizado por investigadores de la Universidad Nacional Australiana, quienes detectaron que en particular aquellas imágenes que representan a personas de piel blanca eran consideradas de mayor realismo a comparación de aquellas de personas con piel morena.
El documento, que fue publicado por la revista “Psycological Science” con el título “Hiperrealismo de la IA: por qué los rostros de la inteligencia artificial se perciben como más reales que los humanos”, indica que las imágenes creadas con programas de este tipo hace tres años eran percibidas como más reales que fotografías de personas existentes.
El experimento realizado consistió en que una serie de encuestados eligiera las fotos que consideran como reales o falsas de una colección conformada por 100 fotografías creadas con inteligencia artificial y otras 100 que representan a personas reales. Los investigadores también solicitaron que los participantes indiquen el nivel de confianza en su respuesta.
Como resultado de la encuesta, en la que participaron 124 personas, el 66% de las imágenes creadas por inteligencia artificial fueron calificadas como humanas mientras que las fotografías reales solo fueron reconocidas como tales en el 51% de los casos. En el caso de personas de color, tanto las imágenes generadas con IA y las fotos reales fueron identificadas en el 51% de las veces.
A diferencia de otros estudios en los que se utilizan como objetos de análisis a los programas de inteligencia artificial más recientes como ChatGPT, DALL-E2, Stable Diffusion, entre otros, el análisis fue realizado teniendo como estándar el contenido generado por un modelo llamado “StyleGAN2″ lanzado oficialmente en el año 2020 por la empresa Nvidia.
Otro de los resultados destacados del estudio indican, por ejemplo, que usualmente las personas que se equivocan de forma más constante durante la evaluación de las fotografías creadas con inteligencia artificial son comúnmente las que se muestran más seguras de su capacidad para identificar de forma eficaz qué imágenes son reales.
En particular, algunos de los motivos que llevaba a las personas que participaron del estudio a identificar un rostro como “más realista” pese a que en realidad se trataba de una creación de una inteligencia artificial eran que la proporcionalidad, familiaridad y “lo común” de estas imágenes favorecía a la asignación de esta categoría.
Por otro lado, aquellas imágenes que tenían rostros con diferentes proporciones eran catalogadas como “menos realistas” pese a que en realidad correspondían a una persona de verdad. En estos casos, los investigadores sí crearon un modelo de inteligencia artificial que sí es capaz de identificar con una presición del 94% qué fotografías eran creadas con IA generativa.
Según la publicación académica, el hecho de que los modelos de inteligencia artificial puedan crear imágenes que algunos usuarios podrían no reconocer como falsas solo aporta al sesgo racial en la sociedad, lo que puede llevar a caer en engaños como el fraude o el robo de la identidad.
Por otro lado, se indica que el hecho de que los programas de inteligencia artificial generen resultados que las personas pueden calificar como “más realistas” de forma más constante es producto de que estos sistemas son principalmente entrenados con otras imágenes en las que se represeta a personas con piel blanca.