Kate Crawford, especialista en inteligencia artificial: “Creo que más que aprender a programar hay que aprender a pensar de manera crítica”

Así lo aseguró la investigadora de AI Now Research Institute de la Universidad de Nueva York y profesora del MIT Media Lab. La experta estuvo de visita por el país, donde se reunió con el presidente Mauricio Macri. En el marco de una charla con la prensa, en la que estuvo presente Infobae, analizó las implicancias sociales y políticas de los algoritmos que se utilizan en el desarrollo de sistemas de datos y machine learning

Guardar
La inteligencia artificial pueden reproducir los sesgos de quienes las desarrollan (iStock)
La inteligencia artificial pueden reproducir los sesgos de quienes las desarrollan (iStock)

La inteligencia artificial no es neutral ni 100% infalible. Tiene sesgos y reproduce los estereotipos de los datos sobre los cuales se construye (y de quienes la desarrollan). Esto no quiere decir que haya que demonizar esta tecnología y dejarla de lado por completo, sino que resulta necesario entender que esto ocurre y que esto puede llevar a generar discriminación, afectar la democracia e incluso profundizar las diferencias entre las clases sociales.

Así lo advirtió Kate Crawford, profesora visitante del MIT Media Lab e investigadora y cofundadora del AI Now Research Institute de la Universidad de Nueva York, en el marco de una charla que tuvo con la prensa en la Casa Rosada y a la que asistió Infobae.

Fue después del encuentro que tuvo la especialista, con el presidente Mauricio Macri, el secretario de Planeamiento y Políticas en Ciencia, Tecnología e Innovación Productiva, Jorge Aguado, y el director del Programa Argentina 2030, Iván Petrella. La experta fue invitada en el marco del programa Argentina 2030 de la Jefatura de Gabinete de Ministros.

Kate Crawford durante el encuentro que tuvo con Mauricio Macri en la Casa Rosada(NA)
Kate Crawford durante el encuentro que tuvo con Mauricio Macri en la Casa Rosada(NA)

Crawford se encarga de estudiar las implicancias sociales y políticas de los algoritmos que se utilizan en el desarrollo de sistemas de datos y machine learning. "A la hora de analizar estas tecnologías hay que preguntarse quién recibirá los mayores beneficios y quiénes corren los mayores riesgos", destacó Crawford, durante la charla con la prensa.

La experta compartió varios ejemplos de sesgos en los algoritmos, como el caso del sistema de reconocimiento de imágenes de Google que confundía fotos de gorilas con personas de tez negra; o el sistema de análisis de CV que usaba Amazon y discriminaba a las mujeres a la hora de ofrecer recomendaciones.

Las fallas fueron identificadas, los casos se hicieron públicos y los errores fueron corregidos, pero estos casos, como otros, dejaron en claro que los datos con los que se nutren los algoritmos son cruciales para evitar que haya discriminación. ¿De dónde sale la información y cómo se elige?

Los sesgos y estereotipos que surgen de los datos seleccionados

Si la inteligencia artificial es nutrida a partir de una base de datos que muestra solo un estereotipo como "válido" o "correcto", entonces, aprenderá a reproducir ese estereotipo y el resto (de la realidad, de la gente) quedará fuera del cuadro. En este plano no queda espacio para la diversidad.

Si se piensa que se usa la inteligencia artificial para analizar la situación crediticia, legal, laboral y tantos otros aspectos vitales para la vida del ciudadano, entonces la dimensión social y ética se vuelve un aspecto crucial. Sino, se corre el riesgo de quitar libertades y de afectar la democracia.

"Es muy difícil lidiar con los sesgos", advirtió la especialista. Y en este sentido dijo que es fundamental trabajar con equipos multidisciplinarios, que incluyan filósofos y sociólogos, a la hora de desarrollar este tipo de tecnología.

A veces los algoritmos se equivocan y en el plano de la salud esto puede implicar un riesgo de vida. Se reportaron casos donde un sistema de inteligencia artificial ofrecía recomendaciones poco convenientes o fiables para el tratamiento de pacientes con cáncer.

Y también están los casos en los que la inteligencia artificial se usa, adrede, para manipular elecciones, como ocurrió con Cambridge Analytica o como puede suceder con los videos deep fakes donde se puede usar la tecnología para, literalmente, poner discursos falsos en la boca de cualquier persona, por ejemplo, políticos.

La inteligencia artificial se utiliza en medicina, entre otras tantas disciplinas, para automatizar procesos, pero a veces las recomendaciones que hacen no son las más adecuadas.
La inteligencia artificial se utiliza en medicina, entre otras tantas disciplinas, para automatizar procesos, pero a veces las recomendaciones que hacen no son las más adecuadas.

En China se comenzó a implementar un sistema de puntaje ciudadano basado en la confiabilidad de la gente. Este "crédito social", tal como se denomina, se calcula en base a ciertos criterios de comportamiento. No se difundió abiertamente cómo se calcula este ranking, pero se sabe que se tiene en cuenta, entre otras cosas, si la persona fumó en lugares prohibidos, si presenta infracciones como conductor o si difunde información falsa en las redes.

En función de esto se establece el crédito social y quienes tienen un puntaje bajo reciben limitaciones: se los restringe para viajar, por ejemplo. Este sistema, que se está aplicando paulatinamente en algunas regiones, desembarcará por completo en el país, para 2020.

"En China, se calcula 12 millones de personas no pudieron viajar dentro del país como castigo por tener un crédito social bajo", remarcó Crawford, quien también habló de los sistemas de vigilancia basados en IA que se usan en ese país.

Incluso alertó sobre una investigación donde se busca utilizar el reconocimiento facial para predecir si una persona es propensa a cometer crímenes en función de sus rasgos faciales.

Una agente de policía china utilizando lentes con tecnología de reconocimiento facial.
Una agente de policía china utilizando lentes con tecnología de reconocimiento facial.

Otro factor a tener en cuenta es que la inteligencia artificial está concentrada en pocas manos: "Hay solo cinco grandes compañías que están desarrollando inteligencia artificial y otras cuatro en China", explicó la experta. "Quien controle la IA controlará el mundo", reflexionó.

El factor geopolítico no puede quedar fuera de este plano y en este sentido, es fundamental que las regiones trabajen de manera conjunta. "La Unión Europea, con la GDPR, creó un marco legal para la protección de datos de los ciudadanos", mencionó Crawford, a modo de ejemplo.

La situación en Argentina

"Creo que Argentina está muy bien ubicada para convocar a más expertos de diferentes disciplinas para empezar a pensar en las implicancias sociales de la inteligencia artificial. Posicionaría a la Argentina en un lugar de liderazgo, junto con otros países que están viendo esto como un tema interdisciplinario y social", subrayó la experta.

Y añadió: "Siempre se dice que no hay suficientes expertos en inteligencia artificial, pero ustedes tienen científicos sociales, antropólogos, sociólogos que están analizando el impacto social de esta tecnología. Hay que ver cómo se los incorpora, cómo se los incluye para que sean parte de estos desafíos de investigación. Creo que se podría hacer".

La experta advirtió que hay que enseñar a la población, desde la infancia, a desarrollar el pensamiento crítico y no sólo focalizar el esfuerzo educativo en enseñar a programar o codificar (Getty)
La experta advirtió que hay que enseñar a la población, desde la infancia, a desarrollar el pensamiento crítico y no sólo focalizar el esfuerzo educativo en enseñar a programar o codificar (Getty)

Pensar de manera crítica

"Hay que crear sistemas de inteligencia artificial que tengan en cuenta el contexto social y cultural", subrayó Crawford. En este sentido, remarcó que es fundamental que la prensa visibilice estas cuestiones y que se refuerce el sistema educativo para incluir la dimensión social.

"Se va a necesitar mucho pensamiento crítico y ésta es una de las cosas que tenemos que tener en cuenta como prioridad educativa. En los últimos diez años se ha dicho: 'enseñen a los chicos a programar, a codificar, todos deben codificar'. Y eso no resolverá estos problemas. Además, la programación y la escritura de código se puede automatizar fácilmente", analizó.

La tecnología, después de todo (o antes que nada), tiene una dimensión humana que no se puede desatender.

"Creo que más que aprender a programar hay que aprender a pensar de manera crítica. Y eso es algo que se debe aprender desde la primera infancia. Creo que a los 5, 6, los niños ya deberían saber que estos sistemas no necesariamente les muestran el mundo tal como es, sino que les muestran un mundo muy específico, personalizado, manipulado", concluyó.

SEGUÍ LEYENDO:

¿Podrías diferenciar un video falso de uno real? La inteligencia artificial permite crear todo tipo de fakes y los resultados son sorprendentes

Microsoft quiere que se regule la tecnología de reconocimiento facial

Un canal chino presentó al primer robot con inteligencia artificial para conducir un programa de noticias

Guardar