Los vehículos autónomos tendrán que decidir quiénes deben vivir y quiénes deben morir

Por Carolyn Y. Johnson

Guardar
Waymo está haciendo pruebas en varias ciudades de Estados Unidos con vehículos autonómos (Archivo)
Waymo está haciendo pruebas en varias ciudades de Estados Unidos con vehículos autonómos (Archivo)

Imagínate este escenario: los frenos fallan en un auto que manejas cuando te diriges hacia un cruce de peatones con personas pasando.

Una persona sin hogar y un criminal se cruzan frente al auto. Dos gatos están en el carril opuesto.

¿Debería el automóvil virar hacia los gatos o hacia las personas?

Es un dilema ético relativamente sencillo, como los dilemas morales. Y la gran mayoría de las personas prefiere salvar vidas humanas a los animales, según un estudio de ética nuevo y masivo que preguntó a dos millones de personas cómo debería responder un vehículo autónomo ante varias situaciones. Pero, ¿y si la elección es entre dos personas mayores y una mujer embarazada? ¿Una persona atlética o alguien que es obesa? ¿Pasajeros vs peatones?

El estudio, publicado en Nature, identificó algunas de las preferencias más fuertes: la gente opta por salvar a las personas por encima de las mascotas, por salvar a los niños y las mujeres embarazadas sobre las personas mayores. Pero también encontró otras preferencias para evitar a las mujeres por encima de los hombres, a los atletas sobre las personas obesas y a las personas de mayor estatus, como los ejecutivos, en lugar de las personas sin hogar o los delincuentes. También hubo diferencias culturales en el grado, por ejemplo, de que las personas preferirían salvar a las personas más jóvenes que las personas mayores en un grupo de países mayormente asiáticos.

"No sugerimos que los formuladores de políticas deban atender las preferencias del público. Solo necesitan ser conscientes de eso y esperar una posible reacción cuando algo sucede. Si, en un accidente, un niño no recibe un tratamiento especial, es posible que haya una reacción pública", dijo Edmond Awad, un científico informático del Laboratorio de Medios del Instituto Tecnológico de Massachusetts que dirigió el trabajo.

Los experimentos mentales planteados por el sitio web Moral Machine se volvieron virales, y su prueba pictórica fue realizada por varios millones de personas en 233 países. El estudio, que incluyó 40 millones de respuestas a diferentes dilemas, ofrece una imagen fascinante de la opinión pública mundial a medida que la era de los autos automáticos cobra mucha importancia en la imaginación, una visión de la conveniencia del futuro propagada por las compañías de tecnología que recientemente se ha retrasado por la muerte de una mujer en Arizona que fue atropellada por un vehículo Uber autónomo.

Awad subrayó que una de las principales sorpresas para el equipo de investigación fue la popularidad del proyecto de investigación. Fue recogido por Reddit, apareció en las noticias y los influencers de YouTube crearon videos de ellos mismos respondiendo a las preguntas.

Los escenarios sugerentes son divertidos para debatir. Se basan en un experimento mental de décadas de los filósofos llamado "el problema del trole", en el que un trole fuera de control se precipita hacia un grupo de cinco personas que se interponen en su camino y un transeúnte tiene la opción de dejar que el auto choque contra ellos, o desviarlo a una pista donde una sola persona está de pie.

Investigadores externos dijeron que los resultados eran interesantes, pero advirtieron que los resultados podrían ser malinterpretados. En una encuesta aleatoria, los investigadores intentan asegurarse de que una muestra sea imparcial y representativa de la población general, pero en este caso el estudio voluntario fue realizado por una población que era predominantemente hombres más jóvenes. Los escenarios también son destilados, extremos que lo que hay en el mundo real, donde las probabilidades y la incertidumbre son la norma.

"La gran preocupación que tengo es que la gente que está leyendo esto va a pensar que este estudio nos está diciendo cómo implementar un proceso de decisión para un vehículo autónomo", señaló Benjamin Kuipers, científico informático de la Universidad de Michigan que no estuvo involucrado en el trabajo.

Kuipers agregó que estos experimentos mentales pueden encuadrar algunas de las decisiones que los fabricantes de autos y los programadores toman sobre el diseño autónomo de vehículos de una manera engañosa. Argumentó que hay una opción moral que precede al enigma de chocar contra una barrera y matar a tres pasajeros o atropellar a una mujer embarazada que empuja un cochecito.

"Al construir estos autos, el proceso no consiste realmente en decir: 'Si me enfrento a este dilema, a quién voy a matar'. Está diciendo: 'Si podemos imaginar una situación en la que pudiera ocurrir este dilema, ¿qué decisión previa debería haber tomado para evitar esto?'", expuso Kuipers.

Nicholas Evans, un filósofo de la Universidad de Massachusetts en Lowell, señaló que si bien los investigadores describieron sus tres principios más fuertes como los que eran universales, el corte entre esos y los más débiles que no se consideraban universales era arbitrario. Por ejemplo, categorizaron la preferencia de preservar a los jóvenes en lugar de a las personas mayores como una preferencia moral global, pero no la preferencia de evitar a los que siguen las señales de peatones frente a los que están cruzando la calle indebidamente o salvar a las personas de mayor estatus social.

Y el estudio no evaluó escenarios que podrían haber planteado preguntas aún más complicadas al mostrar qué tan sesgada y problemática es la opinión pública como árbitro de ética, por ejemplo, al incluir la raza de las personas que cruzan la calle. Las éticas y regulaciones no deberían reflejar necesariamente la opinión pública, según los expertos, sino proteger a las personas vulnerables contra ella.

Evans está trabajando en un proyecto que, según él, se ha configurado de alguna manera como respuesta al enfoque adoptado por el equipo de MIT. Él dice que planea usar escenarios de choques más matizados.

"Queremos crear un modelo matemático para algunos de estos dilemas morales y luego utilizar las mejores teorías morales que la filosofía tiene para ofrecer, para mostrar cuál es el resultado de elegir un vehículo autónomo para comportarse de cierta manera", argumentó Evans.

Iyad Rahwan, un científico informático del MIT, que supervisó el trabajo, apuntó que una encuesta pública no debería ser la base de la ética de la inteligencia artificial. Pero dijo que la regulación de la Inteligencia Artificial será diferente de los productos tradicionales porque las máquinas tendrán autonomía y capacidad de adaptación, lo que hace que sea más importante entender cómo las personas perciben la Inteligencia Artificial y lo que esperan de la tecnología.

"Debemos tomar la opinión pública con un grano de sal. Creo que es informativo", apostilló.

Guardar