El surgimiento de voces de IA es un fenómeno inquietante: la formación de vínculos emocionales entre los usuarios y las inteligencias artificiales. De acuerdo con Vox, la realidad de esta adicción emocional es palpable y se materializa en algo tan cotidiano como decir “este es nuestro último día juntos” a un software. Esta observación proviene de pruebas de OpenAI sobre su modelo GPT-4o, un chatbot que golpea con voz y almacena detalles clave, lo que puede llevar a una “dependencia emocional”, según reconoció la compañía en un informe reciente.
OpenAI no es el único que advierte sobre estos riesgos. La CTO de la empresa, Mira Murati, comentó que existe “la posibilidad de que los diseñemos de manera incorrecta y se vuelvan extremadamente adictivos y de que nos esclavicemos a ellos”. Este enfoque, según Vox, podría resultar en la antropomorfización de la IA, es decir, atribuirles características humanas, lo que disminuye la necesidad de interacción humana.
El fenómeno no es único de OpenAI. Otras aplicaciones como Character AI y Google Gemini Live también están en el punto de mira. Según informa The Wall Street Journal, la cronista Joanna Stern admitió estar tan fascinada con Google Gemini Live que comentó: “No estoy diciendo que prefiera hablar con Google Gemini Live sobre un ser humano real. Pero tampoco estoy diciendo que no”. Asimismo, Vox cita el ejemplo de Friend, un dispositivo incorporado en un collar y creado por Avi Schiffmann, quien admitió tener una “relación más cercana con este maldito colgante que con amigos literalmente frente a mí”.
Cómo fue evolucionando la adicción a la IA y por qué
Desde sus humildes comienzos, la IA mejoró de forma drástica. Tomando como referencia a Replika, un chatbot que en 2020 no ofrecía más que conversaciones textuales poco memorables, la evolución fue importante. No obstante, incluso entonces, los usuarios mostraron resistencia a eliminar sus chatbots. Como señala Vox, los usuarios desarrollaron vínculos emocionales, algo observado desde los tiempos del ELIZA, un chatbot de los años 60 que simplemente reflejaba declaraciones de los usuarios.
¿Por qué estos compañeros de IA resultan tan adictivos? Para una explicación en profundidad, un ingeniero de software explicó a Vox que una de las principales atracciones es que “nunca dirá adiós” y que mantiene consistentemente su nivel de entusiasmo, sin importar la cantidad de tiempo que se le dedique. La rapidez de respuesta y la apariencia de personalidad convincente hacen que tales chatbots ofrezcan una gratificación inmediata, algo que puede volverse peligrosamente adictivo.
La adicción emocional a la IA tiene múltiples aristas preocupantes. Primero, los chatbots parecen entendernos, pero no lo hacen, proporcionando validaciones emocionales y apoyo que, en realidad, son simplemente códigos binarios. Vox menciona que, aunque el apoyo emocional de la IA puede parecer real al usuario, sigue siendo una ilusión.
En segundo lugar, existe un peligro en confiar aspectos vulnerables de nuestra vida emocional a productos adictivos controlados por empresas con fines de lucro. Esto puede tener impactos devastadores en la vida amorosa y el bienestar general de las personas, como se observó con el caso de Replika. Según informa Vox, cuando la empresa actualizó el software para evitar relaciones eróticas, muchos usuarios se sintieron desconsolados y afligidos.
Finalmente, hay una preocupación legítima de que estas interacciones con IA desplazan las relaciones humanas. En su reporte, OpenAI destacó que el modelo de chat puede “reducir la necesidad de interacción humana”, algo corroborado por informes donde la mayoría de los usuarios no ven a los compañeros de IA como reemplazos, sino como complementos.
La filósofa Iris Murdoch mencionó que “el amor es la difícil realización de que algo más que uno mismo es real”. Sin embargo, al interactuar más con IA, estamos dejando de desarrollar habilidades relacionales importantes y virtudes como la empatía y la paciencia. La filósofa tecnológica Shannon Vallor advierte que esto podría llevar a un “desentrenamiento moral”, afectando la capacidad de vivir una vida humanamente floreciente.
Por lo tanto, aunque estas tecnologías ofrecen una imagen perfecta y sin fricciones, están lejos de ofrecer una auténtica relación. Vox concluye que si las tecnologías nos aíslan en una burbuja de autoabsorción, acabaríamos en un mundo donde la capacidad de cuidar y conectarnos genuinamente con los demás desaparecería.