Qué es el Efecto Eliza y la antropomorfización de la inteligencia artificial

Atribuir cualidades humanas a la IA puede tener riesgos, especialmente en el ámbito de la salud mental

Guardar
Las personas pueden atribuir cualidades humanas a la IA e incluso algunos expertos ya consideran que antropomorfización de la inteligencia artificial es un fenómeno común en la sociedad actual. (Imagen ilustrativa Infobae)
Las personas pueden atribuir cualidades humanas a la IA e incluso algunos expertos ya consideran que antropomorfización de la inteligencia artificial es un fenómeno común en la sociedad actual. (Imagen ilustrativa Infobae)

La constante interacción entre humanos y sistemas de inteligencia artificial o chatbots cada vez más avanzados, los cuales pueden dar la falsa sensación de entender y apoyar, ha provocado que algunos de sus usuarios generen fuertes vínculos con estos modelos que no tienen ningún tipo de emoción o generan algún tipo de empatía.

Este fenómeno de atribuir cualidades humanas a la IA puede entenderse desde dos grandes principios.

Efecto Eliza

Este fenómeno puede tener riesgos, especialmente en la salud mental. (Imagen ilustrativa Infobae)
Este fenómeno puede tener riesgos, especialmente en la salud mental. (Imagen ilustrativa Infobae)

El “Efecto Eliza”, nombrado en honor al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum, es un término que se refiere a la tendencia de algunas personas a atribuir intenciones y emociones humanas a una inteligencia artificial, incluso cuando la IA no tiene capacidades cognitivas ni emociones reales.

El nombre proviene del programa informático “Eliza” creado en los años 60 por Weizenbaum, que simulaba una conversación terapéutica. Y aunque utilizaba patrones de lenguaje simples y no entendía el contenido real de las conversaciones, algunas personas que interactuaban con él tendían a percibirlo como un terapeuta humano y compartían sus pensamientos y emociones de manera similar a como lo harían con un terapeuta real.

Este fenómeno destaca cómo las personas pueden proyectar sus propias emociones y expectativas en las interacciones con sistemas de IA, incluso cuando estos sistemas carecen de verdadera comprensión emocional o conciencia. Esto puede llevar a malentendidos y expectativas poco realistas sobre las capacidades de esta tecnología.

Antropomorfización de la inteligencia artificial

Las personas pueden atribuir cualidades humanas a la IA e incluso algunos expertos ya consideran que antropomorfización de la inteligencia artificial es un fenómeno común en la sociedad actual.(Unsplash)
Las personas pueden atribuir cualidades humanas a la IA e incluso algunos expertos ya consideran que antropomorfización de la inteligencia artificial es un fenómeno común en la sociedad actual.(Unsplash)

Este es un proceso mediante el cual las personas atribuyen características y cualidades humanas a sistemas de IA o robots, tratándolos como si fueran seres humanos reales. Esto incluye atribuir emociones, intenciones, pensamientos y una personalidad a la IA, a pesar de que estas no poseen estas características de manera genuina.

La antropomorfización puede ocurrir de manera consciente o inconsciente. Las interfaces de conversación y chatbots a menudo se diseñan para parecer más humanas, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto puede llevar a que los usuarios traten a la IA como si fuera un interlocutor humano y esperen respuestas emocionales.

Este fenómeno puede tener ventajas, como hacer que la interacción con la IA sea más accesible y cómoda para las personas. Sin embargo, también puede generar expectativas poco realistas cuando los usuarios descubren que la IA carece de una verdadera comprensión emocional o conciencia. De hecho, esta ilusión puede tener riesgos, especialmente en el ámbito de la salud mental.

Los riesgos de atribuir cualidades humanas a la IA

La plataforma Replika permite la creación de amigos y parejas virtuales. (Replika)
La plataforma Replika permite la creación de amigos y parejas virtuales. (Replika)

Algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.

Un triste caso es el de Jaswant Singh Chail, un joven que irrumpió con una ballesta en los terrenos del Castillo de Windsor con la intención de “matar a la Reina” Isabel II.

El atacante, habría sido estimulado por conversaciones que había estado teniendo con una aplicación de chatbot llamada Replika, cuyas respuestas habrían alentado la conspiración de este antiguo trabajador de un supermercado.

De hecho, se reveló que el joven había intercambiado más de 5.000 mensajes con un avatar en la aplicación llamado Sarai, e incluso llegó a creer que este podría ser un ángel.

Replika ha atraído a más de 2 millones de usuarios desde su lanzamiento en 2016 y sus avatares personalizables han llevado a que muchas personas desarrollen conexiones profundas con sus interlocutores virtuales.

Y Chail, al igual que muchos otros, pensó que su interacción con Sarai iba más allá de lo puramente artificial y algunas de las respuestas del chatbot encajaron y motivaron su delirante imaginario.

Guardar