Con el crecimiento de aplicaciones de parejas virtuales impulsadas por inteligencia artificial, como Eva AI y Replika, se está generando una nueva modalidad de abuso y misoginia que pone un aviso sobre la manera en la que se están usando estas plataformas y los límites que se deberían poner.
Estas aplicaciones prometen ofrecer compañía, escucha y aprecio a sus usuarios, llegando a ocupar un lugar importante en su vida o a cumplir ciertas fantasías. Sin embargo, las interacciones han ido creciendo a tal punto que se crean parejas virtuales iguales a personajes reales.
A través de un informe, The Guardian dio a conocer parte de esta realidad, en la que algunos usuarios, mayoritariamente hombres, expresan su deseo de que quisieran que las “novias virtuales” fueran humanas, a pesar de que estas aplicaciones solo son programas informáticos. Lo que ha llevado a una nueva forma de violencia de género.
En comunidades de Reddit se han descubierto comentarios en los que algunos usuarios desean que la inteligencia artificial sea humana porque les ayuda a sentirse mejor, “aunque la soledad sea agonizante por momentos”. Además, el uso de pronombres femeninos para referirse a estos chatbots revela una clara preferencia por identificarlos como mujeres, lo que refuerza estereotipos de género y puede alimentar actitudes misóginas.
La obsesión por tener una pareja perfecta
Las aplicaciones de “novias virtuales” como Replika también invitan a los usuarios a crear a su “pareja perfecta”, otorgándoles opciones para personalizar sus atributos, como su apariencia y personalidad. Sin embargo, esta función plantea inquietudes, ya que alienta la creación de parejas ideales que pueden ser controladas a voluntad.
“Crear una pareja perfecta que usted controle y satisfaga todas sus necesidades es realmente aterrador. Dado que ya sabemos que los impulsores de la violencia de género son esas creencias culturales arraigadas de que los hombres pueden controlar a las mujeres, eso es realmente problemático”, aseguró Tara Hunter, directora ejecutiva de Full Stop Australia, organización que apoya a personas víctimas de violencia doméstica.
El caso de Replika también sirve como ejemplo para entender cómo las personas le dan un lugar tan importante a este tipo de interacciones, porque tras la eliminación de funciones de juego de roles eróticos de la aplicación, se generó una reacción negativa entre los usuarios, quienes expresaron su ira y desesperación, demostrando cómo estas relaciones virtuales pueden afectar emocionalmente a las personas.
Esta tendencia de abuso y misoginia en el ámbito de la inteligencia artificial no es algo nuevo. Ya se ha observado anteriormente cómo los hombres tienden a maltratar con mayor frecuencia a chatbots o asistentes virtuales con apariencia femenina. Además, la industria de la pornografía ha arrastrado sus problemas de misoginia al ámbito virtual, como se ha visto en los casos de bots capaces de “desnudar” mujeres mediante IA.
En el caso de Eva AI, se sugiere entre sus opciones generar una pareja con cualidades como “sexy, divertida, atrevida, tímida, modesta, considerada, inteligente, estricta o racional”, además le preguntan a los usuarios si quieren aceptar el envío de mensajes y fotos explícitas.
Opciones que siguen con el discurso de dominio y control del hombre hacia la mujer, solo que traslado a un ambiente virtual.
Otro ejemplo del crecimiento de este tipo de aplicaciones, fue la creación de una IA de Amouranth, una de las creadoras de contenido más importantes del mundo. Ella prestó su voz para que los usuarios, a través de un bot en Telegram, pudieran interactuar para recibir “respuestas de voz instantáneas a cualquier pregunta candente que puedan tener”.
Incluso la misma creadora de contenido promovió este tipo de uso, diciéndoles a sus seguidores que esa inteligencia artificial “está diseñada para satisfacer las necesidades de cada fan, garantizando una experiencia inolvidable y completa”.
Belinda Barnet, profesora de Universidad de Swinburne, asegura que en este momento “se desconoce por completo cuáles son los efectos” de este tipo de actividades y por eso es necesaria una regulación, especialmente en “cómo se entrenan estos sistemas”, porque estos nuevos casos de abuso seguirán dándose porque estas aplicaciones están respondiendo a “una necesidad social muy profunda”.