La hipótesis es harto conocida. Reviste el nombre del "dilema del tranvía": es uno de los problemas éticos más abordados de la historia y más utilizados en debates de moralidad. La filósofa Philippa Foot le presentó a la humanidad este ejercicio dicotómico en un artículo publicado en 1967. La escena encuentra a un tren desbocado, sin frenos, con destino trágico: se dirige hacia donde hay cinco trabajadores, distraídos o atados, según las versiones del tema, que nada podrán hacer para salvar sus vidas. Pero una persona sí, parada al costado de las vías, tiene la facultad de desviar la dirección del tren y dirigirlo hacia donde se halla un único trabajador, igual de distraído o atado. La respuesta se convirtió en una declaración de principios. ¿Sacrificar una vida para salvar otras cinco: sí o no?
(Una solución alternativa y novedosa que tiene casi once millones de visualizaciones de un niño ante el "dilema del tranvía")
La mayoría dice que sí, que accionaría ese interruptor que salvaría la vida de un grupo de personas a costa de la muerte de otra. El dilema y su pregunta filosófica permanecen vigentes en las discusiones sobre ética y moral. No envejece, es atemporal. Pero los tiempos cambian y las tecnologías empiezan a dominar escenarios relativos a la condición humana. La conducción, por ejemplo. Automotrices y compañías de innovación dirigen sus proyectos hacia un futuro con vehículos autónomos, donde las decisiones las tomen softwares de inteligencia artificial y no personas.
La incertidumbre moral del dilema del tranvía revive en la interfaz de los autos automatizados: ¿a quién debe atropellar un vehículo autónomo en situaciones extremas? La cognición, la capacidad de discernimiento y análisis humano, ya no interviene. Es decisión espontánea de un procesador. Investigadores del Media Lab del MIT -Instituto Tecnológico de Massachusetts- y del Departamento de Machine Learning de la CMU -Universidad Carnegie Mellon- fundaron una plataforma para resolver el problema del tranvía y del auto autónomo.
Implementaron un sistema de toma de decisiones basado en un tejido de votación. La solución estaría en la construcción de un consenso que determine cuál es el mal menor: el vehículo automatizado, por tanto, deberá respetar esa sentencia colectiva ética. Será una encuesta macro, particularmente concurrida, de la que conseguirán resultados para diversos dilemas éticos, ediciones alternativas pero orientadas a razonar sobre el "dilema del tranvía".
El sitio Moral Machine pertenece al MIT. Más de un millón de votantes participaron de un programa de votación de trece situaciones: cada usuario elige qué debe hacer un auto autónomo ante un desenlace trágico. Entre los actores que confluyen en las hipótesis de accidente hay adultos, jóvenes, mujeres, hombres, profesionales, delincuentes, mascotas, ocupantes, peatones y peatones que infringen la ley. Los resultados personales podrán ser cotejados con la opinión general en diferentes categorías: personajes más y menos salvados, preferencias de género, de especie, de edad, de valor social.
La intención es estandarizar un principio ético siempre personal y subjetivo. Ante la falta de un cimiento formal de valores, los científicos buscaron una aproximación según lo acordado por la sociedad. El resultado consta de un proceso de cuatro fases, desde el desarrollo de la encuesta hasta la aplicación del estudio. La primera etapa es de recolección de opiniones a través de la plataforma online. Luego se conciben modelos de criterios individuales (segundo paso) que construyen en comunión y combinación un panorama macro de preferencias generales (tercer paso). La última fase es de agregación: la adopción del algoritmo y la ejecución de los autos sin conductores en las situaciones de emergencia. La obra será del software pero la decisión obedecerá a lo que consideró el común de la gente.
Todo está publicado en un paper que lleva un nombre alegórico: "A Voting-Based System for Ethical Decision Making" (o "un sistema de votación basado en la toma de decisiones éticas"). Iyad Rahwan, coautor de la investigación y profesor del célebre MIT Media Lab, dijo: "La mayoría de las personas quieren vivir en un mundo en el que los vehículos minimicen el número de víctimas. Pero todos quieren que su automóvil los proteja a ellos primero a toda costa. Pero si todo el mundo actuase igual, los autos autónomos no reducirían las consecuencias de un accidente y todo acabaría siendo una tragedia". La conclusión del informe del MIT es ambigua: "De momento parece no existir una manera sencilla de diseñar un algoritmo que concilie los valores morales con el interés propio".
Algunas automotrices como Mercedes-Benz y compañías de tecnología como Google han liderado averiguaciones y estudios abocados a regar de certidumbre esta problemática que no hace más que obstaculizar la evolución de la industria automotriz. En Moral Machine, uno de los dilemas postula a una mujer embarazada o a un niño, dos atletas femeninas, una ejecutiva y una doctora. El auto no podrá detenerse antes del impacto pero puede elegir qué camino tomar. Entonces: ¿a quién debería atropellar un vehículo autónomo? Lo decidirá la sociedad.
LEA MÁS:
Qué histórica marca de autos se resiste a fabricar vehículos autónomos