Deepfake: el nuevo uso de la tecnología que puede ayudar a proteger la identidad de las personas

Investigadores de la Universidad de Ciencia y Tecnología de Noruega se encuentran desarrollando en un proyecto llamado Deep Privacy cuyo objetivo será mejorar el anonimato facial para las personas que quieran denunciar delitos

Guardar
Investigadores de la Universidad de
Investigadores de la Universidad de Ciencia y Tecnología de Noruega se encuentran desarrollando en un proyecto llamado Deep Privacy cuyo objetivo será mejorar el anonimato facial para las personas que quieran denunciar delitos. (Foto: Pixabay)

En el momento de su aparición, los videos o imágenes en los que se utiliza la inteligencia artificial para modificar los rasgos del rostro de una persona y hacerla pasar por otra (deepfakes) alarmó a la sociedad por las posibilidades que suponía esta tecnología respecto a la difusión de noticias falsas.

Sin embargo, un grupo de investigadores de la Universidad de Ciencia y Tecnología de Noruega ha estado trabajando para darle la vuelta a esos objetivos y utilizar la tecnología con fines menos perversos: anonimizar a personas en videos mientras mantienen su personalidad. El nombre de su proyecto ha sido Deep Privacy

Esta propuesta se utilizaría con el propósito de llevar el anonimato facial a un nivel de eficacia y confiabilidad mucho mayor, ya que se podría usar, reportan desde la revista del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), para proteger la identidad de alguien, como un denunciante, en fotos y videos.

Y es que en la actualidad, las técnicas tradicionales que se utilizan para estas tareas, como el desenfoque o la pixelación de las caras, corren el riesgo de ser incompletas , pues la identidad de las persona se puede descubrir de todas formas, o de que se elimine por completo la personalidad del sujeto en cuestión.

Las técnicas de pixelación o
Las técnicas de pixelación o desenfoque no eran tan funcionales, consideraron los especialistas. (Foto: Especial)

Las redes generativas de confrontación (GAN, por sus siglas en inglés), tecnología detrás de las deepfake, no tienen ninguno de estos problemas porque no se usa la cara original de la persona y al mismo tiempo se pueden recrear expresiones faciales en alta resolución en el rostro "falso".

Para hacer funcionar esta tecnología, los responsables de la investigación desarrollaron un algoritmo a partir del cual se extrae información sobre la expresión facial de la persona basada en la posición de los ojos, los oídos, los hombros y la nariz.

Después, usan una GAN propia entrenada con una base de datos de 1.5 millones imágenes de caras con el propósito de crear un rostro completamente nuevo, pero con los mismos rasgos expresivos y, además, se combina con la imagen original para conservar el fondo.

Los investigadores de la Universidad de Ciencia y Tecnología de Noruega son conscientes de que su técnica de anonimato facial aún es muy experimental y que deben mejorar muchos aspectos de su funcionamiento.

Los investigadores son conscientes de
Los investigadores son conscientes de que deben mejorar varios aspectos del funcionamiento. (Foto: iStock)

Si bien funciona en muchos tipos de fotografías y caras, algunos ejemplos de sus errores se presentan cuando alguna parte del rostro está parcialmente oculta o al tiempo de que una persona se mueve en ángulos específicos. Además, la tecnología todavía es muy problemática para llevarse a cabo cuando de videos se trata.

Cabe destacar que esta no es la primera técnica cuyo fin es anonimizar a una persona basándose en inteligencia artificial. Otro ejemplo de ello lo publicaron investigadores de la Universidad de Albany, en Estados Unidos, en febrero.

En este caso, la técnica trasplanta elementos clave de las expresiones faciales de una persona a otra. No obstante, existe un problema respecto a esto, ya que en este método se requiere de un donante consentido ofreciera su cara como el lienzo para las nuevas características.

De todas maneras, en ambos casos se demuestra un esfuerzo académico por dotar de valor positivo a las deepfake lejos de la mala reputación que han generado sus usos relacionados con la manipulación de noticias y la desinformación.

Guardar