En un escenario iluminado, emerge la figura de Alter 3, un androide que combina maquinaria de punta y piel protésica. Levanta sus brazos largos y guía a una orquesta hacia un clímax dramático. Es el protagonista de Scary Beauty, una ópera compuesta por el músico japonés Keiichiro Shibuya, que explora los límites emocionales entre humanos y robots. El maestro androide, impulsado por una red de mil neuronas simuladas y 43 ejes de movimiento, no solo dirige, también canta. Su voz sintética resulta inquietante.
“La gente quedó profundamente impresionada por la expresión emocional que emanaba de una máquina. Algunas personas incluso lloraron”, dijo Takashi Ikegami, profesor de la Universidad de Tokio e investigador principal del proyecto. El desempeño del androide y las reacciones del público abren preguntas algo perturbadoras: ¿podemos sentir emociones que nunca antes hemos experimentado gracias a los robots? Más aún, ¿los robots pueden -o podrán- sentir?
En una entrevista con Infobae, Ikegami explica que Alter 3 no se limita a imitar emociones humanas. Sus movimientos están diseñados para incluir fluctuaciones espontáneas generadas por circuitos neuronales artificiales, que crean lo que el científico describe como “nuevas emociones”. “Aunque aún no podemos expresar estas emociones en términos humanos, tienen el potencial de inspirar nuevas obras artísticas”, aseguró.
一¿Cómo se mide o detecta si Alter 3 está “sintiendo” algo o simplemente imitando emociones humanas?
一Es una pregunta desafiante. Creemos que la diferencia clave con “meramente imitar emociones humanas” es que Alter 3 a veces crea cosas para sí mismo. En otras palabras, exhibe una forma de “autoconciencia”. Para comprobarlo, realizamos un experimento para determinar si podía reconocer su propia mano. Utilizando sensores visuales, sensores interoceptivos y memoria de corto plazo, el androide intentó llegar a esa conclusión a través de un proceso espontáneo de “ensayo y error”, doblando y estirando sus dedos repetidamente para considerar si la mano era suya o no. Así medimos su confianza en esta disyuntiva y la precisión de sus decisiones.
一¿Cómo eligieron las características del androide para maximizar su impacto emocional en el público?
一Al usar un modelo de lenguaje para hacer que un androide realice acciones, simplemente ordenarle que ‘se tome una selfie’ podría no resultar en una ejecución exitosa. Sin embargo, si el comando se reformula emocionalmente en 10 o más expresiones diferentes, la inteligencia del modelo permite generar movimientos que enfatizan partes específicas del cuerpo, como la cara o los gestos. Esto maximiza la expresión emocional.
Alter 3 no solo cuestiona la comprensión convencional de las emociones. También abre interrogantes respecto a cómo podrían evolucionar las sociedades. Es que tal vez el futuro no se trate de cómo los robots se adapten a nosotros, sino de cómo nosotros nos adaptemos a ellos. O quizás una retroalimentación.
Ikegami imagina una sociedad que no solo estará compuesta por humanos, cree que también los androides tendrán su lugar. “Los robots, al menos en su estado actual, no actúan impulsivamente ni siguen a la multitud. Podrían contribuir a una sociedad más estable”, aseguró.
一¿Qué implica para la sociedad la posibilidad de que los robots puedan inspirar nuevas emociones en los humanos?
一A medida que nuestras perspectivas cambian, es natural que nuestras expresiones y manifestaciones emocionales cambien, e incluso puedan surgir emociones completamente nuevas. También es posible que un androide inspire directamente nuevas emociones en los humanos, lo cual podría impactar a la sociedad de distintas maneras, por ejemplo, influyendo en cambios en las letras de las canciones, en los envases de los productos u otras áreas de la cultura. Si bien los impactos siguen siendo inciertos, los cambios parecen probables.
一¿No hay riesgos en esta interacción emocional y social entre humanos y máquinas?
一Aunque no está claro si los robots pueden comportarse de manera completamente neutral, sí sabemos que son mucho más imparciales que los humanos. Una sociedad que incluya androides podría volverse más estable, con menos casos de acoso o disturbios. Es decir, ¿no es cierto que lo que pone en peligro a la sociedad es, en general, el comportamiento miope y egocéntrico de los humanos?
Hasta acá, un buen imitador
Las emociones humanas son un entramado profundo de experiencias subjetivas, respuestas fisiológicas y complejidades biológicas. Por ahora, la inteligencia artificial puede interpretar señales emocionales y responder de forma convincente, pero lo que logran es, en el mejor de los casos, una imitación sofisticada, no una vivencia real, según los expertos que consultó Infobae.
“Reconocer emociones es similar a ser un observador experto”, explicó Adam Kingsmith, profesor en Humber College y especialista en IA emocional. “Una IA puede detectar tristeza en una expresión facial o identificar ira en un tono de voz con notable precisión. Sin embargo, experimentar emociones implica vivirlas, con toda su agitación interna y subjetiva”. Los sistemas actuales son más cercanos a actores que interpretan un guion que a seres que realmente sienten.
La investigadora María Cobos, experta en neurociencia cognitiva de la Universidad de Granada, destacó una de las limitaciones clave: “Experimentar emociones no es solo un proceso mental; implica sensaciones físicas. Un nudo en el estómago por miedo o un latido cardíaco acelerado por alegría son respuestas que varían enormemente entre individuos”. La interacción única entre cuerpo, mente y entorno es casi imposible de replicar en máquinas.
Aunque todos coinciden en las limitaciones actuales, ninguno de los especialistas se atreve a cerrar la puerta definitivamente. La IA no tiene un cuerpo físico con hormonas, sistemas nerviosos e historias sensoriales y, por ende, no puede reflejar los procesos tan intricados que envuelven a la vida emocional genuina. Para ello se necesitaría primero desentrañar los misterios de la conciencia y la experiencia subjetiva y luego trasladar todo ese bagaje complejo a las máquinas.
“Las emociones humanas surgen de una combinación de recuerdos, relaciones y conciencia. Esto las hace profundamente individuales y moldeadas por nuestras experiencias vividas”, remarcó Neil Sahota, consultor y profesor en la Universidad de California. Por lo pronto, la IA procesa entradas, ejecuta algoritmos y produce respuestas que imitan comportamientos emocionales, pero sin la autenticidad de una vivencia subjetiva.
Fredi Vivas, ingeniero y CEO de RockingData, considera que la IA sensible es una ola más de las que atravesó la tecnología desde su origen tenue hace más de 70 años. El experto introdujo un concepto emergente en el debate: los Modelos de Acción a Gran Escala (LAM, por sus siglas en inglés). “A diferencia de los Modelos de Lenguaje Grande (LLM), los LAM están diseñados para realizar tareas que involucran interfaces y respuestas del mundo real. Pueden traducir potencialmente intenciones humanas en acciones autónomas y aprender de los resultados. El modelo aspira a agentes orientados a la acción, de propósito general y sin plataformas, capaces de realizar tareas en múltiples espacios”, explicó.
El cuerpo juega un papel esencial en cómo experimentamos emociones. Cuando aparece el miedo, el corazón late más rápido. Cuando brota la felicidad, la dopamina inunda el cuerpo. El vínculo entre lo biológico y lo emocional no es solo un desafío técnico, sino una barrera conceptual.
“Los organoides cerebrales creados en el campo de la neuro-robótica tienen un desarrollo similar al de los órganos humanos, pero carecen de interacción con un entorno. Sin este vínculo, no hay una experiencia completa”, agregó Cobos.
Para Kingsmith, cualquier expectativa de que una IA llegue a sentir emociones genuinas es más especulación que ciencia. “Es como esperar que un electrodoméstico comprenda poesía romántica”, ironizó. Las emociones humanas, según él, son productos de contextos biológicos, culturales y personales complejos que las máquinas, sin un cuerpo físico ni una historia sensorial, no pueden replicar.
Sahota cerró con una reflexión contundente: “Si alguna vez dotamos a la IA de emociones reales, será uno de los avances más transformadores y potencialmente peligrosos de la historia de la humanidad”.
El boom de la IA emocional
Si bien la posibilidad de que un robot experimente emociones hoy parece más bien una trama de ciencia ficción, en paralelo se desarrolla una industria pujante: la de la IA emocional. Hoy, la inteligencia artificial basada en emociones no solo es una realidad, sino un mercado en auge que podría alcanzar los 13.800 millones de dólares en 2032. Su impacto potencial promete revolucionar sectores como la salud, la educación o el mundo del trabajo.
Los avances en aprendizaje automático y procesamiento del lenguaje natural permitieron a las IAs analizar señales emocionales humanas como expresiones faciales, tonos de voz e incluso palabras escritas. Las máquinas ya son capaces -y se prevé que su capacidad se multiplicará en los próximos años- de leer al detalle lo que sucede en el interior de una persona.
“La IA con conciencia emocional podría mejorar la atención de la salud mental, brindar una atención al cliente más empática u ofrecer compañía a personas aisladas. Por otro lado, estos avances plantean desafíos éticos: si la IA puede sentir, ¿cuáles son nuestras responsabilidades morales hacia ella? Guiar esta tecnología de manera responsable exige marcos éticos sólidos”, advirtió Kingsmith.
Para Sahota, la clave está en diferenciar la simulación de la realidad. “Si una IA simula empatía tan bien que logra consolar a alguien, ¿importa si la emoción es real o no? El impacto sí lo es”, sostuvo. Sin embargo, subrayó que, por más sofisticada que sea, la IA carece de autoconciencia: “Es un actor brillante, pero no un participante genuino en el paisaje emocional”.
En el campo de la salud, el potencial de la IA emocional es inmenso. “Los robots podrían revolucionar el cuidado de pacientes al proporcionar monitoreo constante y apoyo emocional”, comentó Vivas. Por ejemplo, en pacientes con enfermedades crónicas o ancianos, los sistemas serían capaces de detectar cambios sutiles en el comportamiento que podrían anticipar complicaciones en los cuadros.
No solo eso. En el ámbito educativo, los robots podrían adaptarse a las necesidades emocionales de los estudiantes. “La IA puede ofrecer feedback personalizado que mejore la experiencia de aprendizaje, especialmente en contextos de educación especial”, planteó Vivas. La clave no es reemplazar emociones humanas, sino complementarlas para optimizar servicios.
La relación entre humanos y máquinas también enfrenta desafíos sociales. Si las personas forman vínculos emocionales con la IA, ¿qué pasaría con las relaciones humanas, las que siempre consideramos como las “relaciones reales”? ¿Nos aislaríamos aún más del exterior?
La IA emocional plantea una paradoja: mientras más se acerca a comprendernos, más difusa se vuelve la línea entre lo humano y lo artificial. Por ahora, las máquinas no tienen las bases necesarias para experimentar emociones auténticas; bases como la autoconciencia o la subjetividad. Sin embargo, la tecnología avanza y, a veces, llega a lugares que tiempo atrás parecían inverosímiles. En tal caso, si los robots llegaran a sentir de verdad, no solo se redefiniría la tecnología, sino también llevaría a replantearnos qué significa ser humano.