La inteligencia artificial (IA) está cambiando la forma en que las personas interactúan, y la reciente incorporación de características de voz al asistente ChatGPT de OpenAI está permitiendo a los usuarios experimentar algo similar a las relaciones emocionales profundas con la tecnología, tal como se representó en la película de 2013 Her, protagonizada por Joaquin Phoenix. Aunque la competencia de ChatGPT aún está lejos de la habilidad emocional del personaje digital del film, los usuarios se están comprometiendo en sesiones de conversación prolongadas con el asistente, según Arstechnica.
Los usuarios utilizan ChatGPT para una amplia gama de propósitos, desde pasar el tiempo hasta ser un socio de lluvia de ideas. El asistente de IA puede desempeñar un papel similar a las personas en ayudar a replantear ideas, algo particularmente útil cuando no hay otros humanos alrededor.
A pesar de las fallas ocasionales del asistente de voz, como dificultades en entornos ruidosos y pausas entre declaraciones, la interacción de voz se percibe como esencialmente sin esfuerzo y muy humana.
Una preocupación creciente es la posibilidad de formar relaciones personales profundas con estos asistentes basados en IA. Aunque la interacción con ChatGPT no es tan íntima como las relaciones representadas en la película Her, las personas han estado formando conexiones con el chatbot desde su lanzamiento el año pasado.
Estos vínculos emocionales con la IA han sido exitosas con los chatbots alojados por Replika, que permite una simulación más personal de un ser humano que ChatGPT. Esta dependencia en un chatbot se llama “El efecto ELIZA”, que lleva el nombre de un chatbot creado por el MIT en la década de 1960 que generó fuertes respuestas emocionales en los usuarios a pesar del conocimiento de que era un programa de computadora.
Además de los emocionales, también hay preocupaciones de privacidad en relación con la inteligencia artificial, ya que compartir elementos personales profundos de la vida con una máquina conectada a la nube puede conducir a posibles problemas de privacidad. Según OpenAI, si se activa el historial de conversación con ChatGPT, la empresa puede usar sus conversaciones para entrenar modelos futuros de IA.
En otro informe de The Washington Post, los expertos en salud pública y ciencias de la computación advierten de los graves riesgos que supone vincular el corazón a un software. Como los bots pueden desencadenar traumas experimentados en relaciones anteriores, la falta de protocolos éticos para las herramientas que afectan el bienestar emocional de los usuarios es evidente.
Eso indica que la sociedad puede estar al borde de un futuro en el que la IA se entrelaza con nuestro bienestar emocional. Las implicaciones psicológicas de estas profundas conexiones, especialmente en ausencia de interacción humana, aún no se comprenden completamente, afirmó el citado medio.
¿Qué es el efecto ELIZA?
El efecto ELIZA, nombrado por el programa informático ELIZA creado por Joseph Weizenbaum en el MIT en 1964-1966, se refiere a la tendencia humana a antropomorfizar las interacciones con la tecnología, atribuir intenciones, emociones y consciencia a sistemas computacionales cuando interactúan con ellos.
La mencionada tecnología fue uno de los primeros chatbots y simulaba ser una psicoterapeuta rogeriana, utilizando principalmente el reflejo y las preguntas abiertas para interactuar con los usuarios. A pesar de ser un programa relativamente simple basado en reglas predefinidas, muchas personas que interactuaron con ELIZA la consideraron empática y capaz de comprender sus problemas en un nivel más profundo.
Esto llevó a la reflexión sobre cómo los humanos se relacionan con las máquinas, cuestionando hasta qué punto los sistemas computacionales pueden realmente “comprender” o “simpatizar” con las experiencias humanas. El efecto ELIZA pone de manifiesto esta tendencia a atribuir una comprensión y una empatía genuinas a las máquinas, a pesar de que estas no poseen emociones ni consciencia.