Algoritmos racistas, machistas y extremistas: ¿se necesita enseñarles ética a los robots?

Análisis de casos en los cuales diferentes formas de inteligencia artificial se equivocaron, discriminaron y hasta hicieron apología del nazismo

Guardar
(iStock)
(iStock)

La inteligencia artificial está conformada por algoritmos, fórmulas o instrucciones que procesan datos para llegar a una conclusión. Es la esencia de la computación.

Estos algoritmos nutren sistemas informáticos desde años, pero en el último tiempo fueron expandiendo su influencia y su capacidad gracias al machine learning que, tal como implica su nombre, se refiere a la posibilidad de aprender que tienen estos sistemas.

Los robots, algoritmos o inteligencia artificial permiten darle sentido a enormes caudales de datos (big data) y también optimizar procesos. Están presentes en el ámbito de la salud, la economía y la seguridad. Entran en acción cada vez que buscamos información en la web o cuando recibimos sugerencias personalizadas. Estos sistemas son capaces hasta de escribir poesía y producir música.

Si los algoritmos tienen tanto protagonismo y rigen cada aspecto de nuestras vidas, no deberíamos preguntarnos, cuanto menos, ¿cómo funcionan esas fórmulas? ¿qué tipo de datos son seleccionados para crearlas? ¿los algoritmos son justos o simplemente refuerzan patrones o estigmas?

Algunos creen que sí, que es hora de hacerse ésas y otras preguntas para entender el impacto que los algoritmos tienen en la vida diaria, con el fin de mejorarlos, de darles una dimensión ética. Si rigen cuestiones humanas deberían ser más humanos. Al menos esa es la visión de algunos.

Los algoritmos también se equivocan

La inteligencia artificial puede fallar. Basta con que haya algún error de programación para que surja una conclusión errónea o para convertir al software, la estructura o plataforma en algo fácilmente vulnerable. Ocurrió con el software de voto electrónico durante las elecciones para Jefe de Gobierno porteño en 2015. Y sucede con frecuencia que expertos en informática encuentren fallas o vulnerabilidades en routers y sistemas operativos que controlan millones y millones de datos.

Hace apenas unos días se supo que, por un falla en el sistema, Facebook desbloqueó temporalmente a personas en la red social y en su servicio de mensajería. Esto afectó a 800 mil usuarios. No es el primero de su tipo. Tampoco es la única plataforma con errores de sistemas. Los errores ocurren con frecuencia en el mundo virtual.

Aún cuando los robots estén "bien programados" pueden tomar decisiones poco convenientes. Fue el caso de la gran caída bursátil de la primera semana de febrero que, según varios especialistas, pudo haber estado propiciada por estos robots financieros que comenzaron a mandar órdenes de venta masiva que generó una caída de los valores. ¿Se equivocaron? No, simplemente ejecutaron las acciones para los cuales estaban programados. Las máquinas interpretaron que la mejora en el empleo ocasionaría más consumo y por ende mayor inflación, y actuaron en consecuencia. Estaban programados para vender en caso de que llegara un "dato de riesgo".

Qué tipo de datos nutren esos sistemas

Si los algoritmos están regidos por datos entonces cabe preguntarse qué tipo de datos son los que nutren a esos sistemas. Y también qué criterio de selección y uso se le dará a esos datos. Hay decenas de casos donde se vio que los algoritmos pueden tener visiones extremistas, sesgada y racistas.

Google fue duramente criticado cuando, en 2015, se difundió que su sistema de reconocimiento de imágenes confundía fotos de gorilas con personas. El tema enseguida se difundió en Twitter: "Mi amigo no es un gorila", escribió el usuario y adjuntó una captura de pantalla que dejaba en evidencia el problema. La compañía salió a pedir disculpas y prometió solucionar el error del algoritmo.

No fue el único caso de racismo. Un sistema empleado por la justicia de Estados Unidos para pronosticar la tasa de reincidencia de criminales (y que se utiliza para decidir el futuro de un acusado) marcaba como más propensos a cometer delitos a personas negras que blancas, aún cuando tuvieran un prontuario similar. A esa conclusión llegó una investigación realizada por ProPublica

Microsoft tuvo que silenciar a Tay, un bot para Twitter, cuando resultó ser que en menos de 24 horas de entrar en acción pasó de ser divertida y amable agredir a otros usuarios en esa plataforma y a hacer apología nazi. Aparentemente el contacto con los trolls de esa plataforma generó esa mutación en el sistema, que se nutría de la interacción con los usuarios.

“Soy una buena persona, solo
“Soy una buena persona, solo odio a todo el mundo”, escribió  la inteligencia artificial Tay

Según una investigación de la Universidad Carnegie Mellon realizada en 2015, las mujeres tenían menos chance que los hombres de ver anuncios sobre empleos bien remunerados en la web.

La periodista Carole Cadwalladr contó en The Guardian que al ingresar la pregunta: "¿existió el Holocausto?" en Google, el buscador le devolvió entre los siete primeros resultados links a sitios que cuestionaban la existencia del genocidio. De hecho el primer resultado era un artículo del sitio neonazi  Stormfront con el título "Las 10 razones por las cuales el Holocausto nunca sucedió". Luego Google modificó el algoritmo.

Esos son apenas algunos casos. Casos que se saben porque fueron hallados, anunciados y difundidos. Pero ¿qué pasa con todos los otros algoritmos que están filtrando información, tomando decisiones erróneas y que todavía no fueron hallados? ¿Y qué se debe hacer al respecto?

Discernir

Ser conscientes es el primer paso: los algoritmos pueden fallar y también pueden ser manipulados para favorecer ciertas visiones o sesgos. De ahí que sea importante nutrirse de más de una fuente de información y, por sobre todas las cosas, saber leer entre líneas: ver qué intenciones hay detrás de un texto, verificar si la información que se comparte es real. Dudar y no entregarse irremediablemente a "lo primero que se ve" o lo que es popular o viral dentro de una red social. Popular no siempre es sinónimo de real, ni de calidad ni de verdad.

"La mejor respuesta, antes que algoritmos es orientar a quienes los usarán. En el caso de las noticias falsas, hablamos de una nueva alfabetización que forme a los usuarios en la identificación de la confiabilidad informativa en la web, explicó a Infobae Roxana Morduchowicz, autora del libro Ruidos en la web: cómo se informan los adolescentes en la era digital.

Establecer límites

Recientemente la Comisión Europea designó a 52 especialistas en inteligencia artificial para ofrecer asesoramiento en cuestiones éticas, legales y sociales vinculadas con el desarrollo de este tipo de tecnología. La idea es establecer un marco de acción y repensar el avance de estos sistemas que regulan gran parte de la vida diaria.

Hace poco menos de un año, Elon Musk (que en más de una oportunidad mostró su preocupación por el avance sin límites de la inteligencia artificial) y otros 115 expertos en inteligencia artificial le pidieron a la ONU que se prohíban los robots de guerra por considerar que estos sistemas pueden terminar con la humanidad.

Dimensión ética

Algunos creen que más que limitar hay que darle una dimensión ética a las máquinas. "Si los algoritmos van a tomar decisiones sobre las vidas de las personas, entonces tienen que llevarlos a tomar decisiones que involucren un interés social", explicó Natalia Zuazo, autora del libro Los dueños de internet en diálogo con Infobae.

Y concluyó: "la tecnología no tiene que llevarnos a más desigualdad digo yo, sino que tienen que servirnos para volver a un sistema que genere más igualdad".

MÁS SOBRE ESTE TEMA:

Facebook perdió el control de un sistema de inteligencia artificial

Un robot se burló de Elon Musk durante un evento y el magnate le respondió por Twitter

Sophia, el primer robot en obtener ciudadanía

Guardar