La simulación de personas fallecidas a través de inteligencia artificial podría tener consecuencias psicológicas graves, según un reciente estudio realizado por el Centro Leverhulme para el Futuro de la Inteligencia, de la Universidad de Cambridge.
Los hallazgos, publicados en la revista Philosophy and Technology, destacan la importancia de implementar protocolos de seguridad para proteger a los familiares y amigos de las apariciones digitales no deseadas de sus seres queridos fallecidos.
Los coautores del estudio han destacado que estos servicios de chatbots, conocidos como deadbots, deben considerar cuidadosamente los derechos y el consentimiento tanto de las personas recreadas digitalmente como de aquellos que interactúan con estas simulaciones.
Qué repercusiones tiene imitar voces de fallecidos en sus seres queridos
“Las apariciones digitales no deseadas de seres queridos fallecidos pueden causar una gran aflicción a quienes están en proceso de duelo”, explicaron los coautores de la investigación.
Estos especialistas señalaron que el duelo es un proceso complejo y profundamente personal que puede verse gravemente perturbado por la reaparición de la figura del fallecido en forma digital.
Además, indicaron que estos deadbots plantean múltiples problemas éticos, especialmente cuando se trata de servicios que, al resucitar digitalmente a los muertos, pueden no estar abordando adecuadamente la dignidad del fallecido ni evitando la explotación comercial de sus recreaciones.
Qué retos en el futuro propone el uso de deadbots
En este sentido, el estudio recomienda urgentemente la implementación de medidas de seguridad para la eliminación de deadbots y una mayor transparencia en el uso de esta tecnología emergente.
Los investigadores resaltan que los avances en inteligencia artificial permiten que prácticamente cualquier persona con acceso a internet pueda recrear a un ser querido fallecido, lo que aumenta la probabilidad de que los parientes sean bombardeados con mensajes y apariciones digitales no solicitadas.
También, esta práctica puede hacer que varias personas caigan en fraudes que impliquen el contacto de ciberdelincuentes que usan la voz de un ser cercano para pedir grandes cantidades de dinero o información sensible.
Qué casos se han visto sobre el uso de deadbots
El uso de esta tecnología no es meramente teórico. Existen casos recientes documentados que ilustran sus aplicaciones y las preocupaciones asociadas. Por ejemplo, en 2021, Joshua Barbeau utilizó la inteligencia artificial para hablar con su prometida fallecida a través de Project December, así reportó un medio extranjero.
Este caso despertó considerable atención y planteó numerosas preguntas sobre los límites éticos y emocionales de este tipo de tecnología.
Asimismo, hay otros casos que ponen de manifiesto la creciente utilización de la inteligencia artificial para recrear interacciones con personas fallecidas, y las profundas implicaciones psicológicas y éticas que conlleva.
Qué recomiendan los expertos
El estudio de la Universidad de Cambridge enfatiza la necesidad de abordar estos temas con extremo cuidado y sensibilidad, priorizando tanto los derechos del fallecido como de sus seres queridos en duelo.
No se debe permitir que la capacidad técnica para recrear digitalmente a una persona fallecida pase por alto las profundas implicaciones humanas involucradas.
Los investigadores enfatizan que, si bien las innovaciones en inteligencia artificial pueden ofrecer consuelo a algunos, también pueden infligir un dolor considerable a otros. Resucitar digitalmente a los muertos debe ser tratado con extrema precaución y respeto por la dignidad y el consentimiento de todos los involucrados.
Qué medidas se deben tomar a nivel internacional
Del mismo modo, los expertos llaman la atención sobre la necesidad de definiciones claras y regulaciones específicas para este tipo de tecnología. Hasta el momento, la falta de legislaciones específicas o directrices claras sobre el uso de deadbots deja a los usuarios en una situación legal y emocionalmente vulnerable.
Las compañías tecnológicas y los desarrolladores de inteligencia artificial tienen la responsabilidad de adquirir y respetar un código ético sólido cuando trabajan en aplicaciones tan delicadas. Los especialistas motivan a una discusión pública más amplia sobre el uso de esta tecnología.