No delegar: imperativo ético para la IA

A medida que la inteligencia artificial se integra en nuestra sociedad, el debate sobre su rol en decisiones críticas crece. ¿Estamos sacrificando valores humanos esenciales por eficiencia tecnológica?

Guardar
Inteligencia artificial (Imagen Ilustrativa Infobae)
Inteligencia artificial (Imagen Ilustrativa Infobae)

A medida que la inteligencia artificial ocupa cada vez más lugar en los procesos de toma de decisiones, surge la crítica pregunta: ¿hasta dónde es ético delegar decisiones significativas en los algoritmos?

Desde la bioética, una teoría de la no delegación radicaría en la moral kantiana, enfatizando la importancia de la autonomía racional y la dignidad humana. Bajo el imperativo categórico por el cual los humanos deben ser tratados siempre como fines en sí mismos, no como medios, delegar decisiones críticas a una IA violaría este principio, ya que, como demuestra Mark Coeckelbergh y detallo en mi anterior artículo ¿Maquinas Morales? ética e inteligencia-artificial, los algoritmos o las máquinas carecen de la capacidad para comprender la moralidad y actuar en función de juicios éticos auténticos. Así, la responsabilidad es un concepto central en la teoría de la no delegación, dado que delegar una decisión en algoritmos diluye la cadena de responsabilidad, cada vez más dispersa, no dejando finalmente, y como afirma Andreas Matthias, a nadie responsable.

Desde lo jurídico, una teoría de la no delegación es compatible con el principio por el cual ciertos poderes y deberes inherentes al Estado y a sus representantes, no pueden ser transferidos a entidades no humanas. Bajo este principio los tribunales han expresado su reticencia a permitir que las decisiones judiciales se basen exclusivamente en algoritmos sin la supervisión humana adecuada.

Además de la opacidad y el sesgo algorítmico que socavan la confianza pública y la responsabilidad de las decisiones, desplazar el juicio humano en las decisiones mina la naturaleza de la autonomía humana y el valor intrínseco del libre albedrío más el juicio moral, tal como se observan en los siguientes casos reales.

El sistema COMPAS que predice la probabilidad de reincidencia criminal, ha cometido severos errores por su falta de transparencia y sesgo racial en las decisiones sobre sentencias y libertades condicionales. El algoritmo de triage en el Reino Unido durante la pandemia COVID-19, subestimó las necesidades de ciertos pacientes, especialmente con discapacidades o condiciones preexistentes, basándose en criterios automatizados que no consideraban adecuadamente la complejidad de las condiciones individuales afectando por sobre todo a los más vulnerables. El programa Robo-Debt de Australia, comparaba ingresos reportados con datos fiscales, generando automáticamente deudas que los individuos debían pagar, pero con errores tales que afectó a miles de personas, muchas de ellas socialmente frágiles, culminando en un escándalo nacional y una demanda colectiva. Facebook-Cambridge Analytica en el 2018 manipuló la información de millones de usuarios violando la seguridad y la privacidad de datos personales para influir en el juicio de los votantes en las elecciones de 2016 en Estados Unidos.

Algunos países ya predican el reemplazo del sistema de votación por el resultado algorítmico predictivo de las preferencias políticas de los ciudadanos mediante data mining y biosurveillance. Ello socavaría la autonomía y libertad de los ciudadanos más la legitimidad de las instituciones democráticas. Ciertas tecnologías de reconocimiento facial en Estados Unidos y el Reino Unido, para identificar sospechosos o prófugos, han provocado el erróneo arresto policial de personas de color, particularmente mujeres afroamericanas. En las finanzas, el Flash Crash del 2010 ejemplifica los riesgos de delegar decisiones de mercado a sistemas automatizados sin suficiente supervisión humana, exacerbando la volatilidad del mercado y desencadenando la inestabilidad económica a gran escala. En el sistema educativo el Reino Unido enfrentó una severa crisis al utilizar un algoritmo para asignar calificaciones a los estudiantes de secundaria, cuyas evaluaciones fueron canceladas debido a la pandemia de COVID-19. El algoritmo estandarizaba las calificaciones basándose en el historial académico de las escuelas y en otros factores socioeconómicos, en lugar de evaluar el rendimiento individual de cada estudiante. Miles de estudiantes recibieron calificaciones más bajas de lo esperado, afectando sus oportunidades de ingreso a universidades. En algunos sistemas educativos se han implementado algoritmos de evaluación que califican trabajos de estudiantes en función de patrones y palabras clave, en lugar de un análisis profundo del contenido y la argumentación.

Los casos descriptos, entre otros, demuestran que, si bien es deseable aprovechar el uso de la IA para la mejora en la eficiencia y la objetividad en la toma de decisiones, esto no excluye la advertencia de críticos como Cathy O'Neil quienes alertan contra la confianza excesiva en los algoritmos perpetuando, agravando y hasta produciendo mayores desigualdades, erosionando además la responsabilidad humana.

Existen así suficientes justificaciones éticas, políticas y jurídicas para una doctrina de la no delegación que preserve las condiciones del juicio humano en todo ámbito y dominio. Porque en ello se juega la base sobre la cual residen todos los derechos humanos fundamentales, que es la dignidad humana como punto original para construir el marco ético y legal para la regulación de la IA en beneficio de la humanidad, sin sacrificar valores primordiales.

La IA, por su naturaleza, no puede valorar la dignidad humana, ya que opera sobre la base de cálculos y probabilidades formuladas algorítmicamente, sin considerar los aspectos éticos y morales inherentes a la condición humana. Por lo tanto, delegar decisiones que impactan en la dignidad humana a una IA violaría los principios fundamentales tanto de la Declaración Universal de DDHH como del Pacto Internacional de Derechos Civiles y Políticos.

En este sentido, un criterio de regulación para la IA y su método probabilístico en la toma de decisiones es resguardar los casos donde la probabilidad no es posible, es inadecuada o inútil. Por ejemplo, situaciones de conflictos o dilemas morales, o donde estén en juego valores humanos dentro de un contexto específico haciendo que toda decisión sea crucial y no pueda reducirse a una mera probabilidad. Porque la IA, al basarse en modelos probabilísticos, puede ofrecer soluciones que sean lógicamente consistentes, pero no capturan la complejidad ética inherente a estas decisiones. El juicio humano abarca aspectos como la intuición, la experiencia y la empatía, que no son traducibles a la sintaxis algorítmica. El método probabilístico de la IA simplifica estos aspectos resultando en decisiones que carecen de sensibilidad y comprensión profunda del contexto.

La teoría de la no delegación reconoce estas cruciales limitaciones y asegura que el juicio humano siga desempeñando un rol central en la toma de decisiones en áreas donde los cálculos probabilísticos son inadecuados. Es decir, logrando una integración cuidadosa de la IA como herramienta de apoyo, pero no como sustituto del juicio humano. Para ello, deben establecerse límites claros sobre cuándo y dónde se puede utilizar la IA, asegurando que el juicio humano permanezca en el centro de las decisiones que involucran valores éticos o tienen un impacto significativo en la vida de las personas.

Concluyendo, la teoría de la no delegación en el uso de la IA no rechaza la tecnología, sino que aboga por un enfoque ético en su implementación dada la importancia de mantener la supervisión humana en la toma de decisiones críticas, estando relacionadas profundamente con el concepto de dignidad humana. Mantener la agencia humana en este sentido resulta fundamental para preservar la responsabilidad, la justicia y la dignidad humana en una era tecnocrática, evitando un leviatán tecnológico. Al preservar la toma de decisiones en manos humanas, la teoría de la no delegación protege los principios fundamentales y garantiza que la dignidad humana siga siendo el núcleo de nuestras interacciones en todo ámbito. Resguardar lo constitutivo de la eticidad y la moralidad, como afirma Nick Bostrom, es el fundamento para gestionar el futuro del desarrollo tecnológico cada vez más poderoso, sin perder los aspectos esenciales de nuestra humanidad.

Guardar