El creador de DeepNude, una aplicación que utiliza un algoritmo de aprendizaje automático para "desnudar" digitalmente fotos de mujeres, anunció que decidió dar de baja el servicio. En apenas un día, la plataforma se viralizó y recibió miles de visitas. Y de inmediato llovieron las críticas por la polémica app ya que, según señalan sus críticos, en síntesis es una plataforma que propicia la circulación de información falsa, utilizando imágenes retocadas de personas reales sin consentimiento.
Tras el escándalo y la viralización que generó esta app, el creador, que se hace llamar Alberto decidió terminar con esta aplicación. "El mundo aún no está listo para DeepNude", explicó en una publicación que hizo a través de su cuenta de Twitter.
DeepNude permitía subir una imagen de una mujer vestida y con un clic y unos pocos segundos transformaba esa imagen en un desnudo total. El software está basado en redes GAN, un modelo de aprendizaje automático, y utilizó una base de datos de fotos de mujeres desnudas en la web.
El creador explicó que sólo utilizaba imágenes de mujeres porque era más fácil encontrar fotos de mujeres desnudas en la web, que de hombres, según publicó el sitio Motherboard.
"Creamos este proyecto para el entretenimiento de los usuarios hace unos meses. Pensamos que venderíamos algo todos los meses de manera controlada … Nunca pensamos que se volvería viral y no podríamos controlar el tráfico", explica el creador de la app en su cuenta de Twitter.
"A pesar de las medidas de seguridad adoptadas (marcas de agua) si 500 mil personas la utilizan, las probabilidades de que las personas las utilicen de manera inadecuada es muy alta. No queremos hacer dinero de esta manera", concluye.
MÁS SOBRE ESTE TEMA:
Deep fake: cómo es la tecnología que les hace decir lo que no dijeron a políticos y celebridades
Roxana Morduchowicz: "La proliferación de noticias falsas puede perjudicar la elección presidencial"