Monterrey, México.
Se llama Rose Luckin y habla con el inglés londinense que parece como salido de un libro. Con una larga trayectoria educativa en los tres niveles —primario, secundario y universitario—, actualmente es profesora de Diseño Centrado en el Alumno en la University College of London, una de las diez mejores universidades según The Sunday Times.
Desde hace treinta años está abocada al estudio de la tecnología educativa y el uso de la inteligencia artificial con una mirada abarcativa, influenciada por las ciencias del aprendizaje. En 2018 —dos años antes de la pandemia y cinco antes de la irrupción de ChatGPT— publicó el ensayo Machine Learning and Human Intelligence: The Future of Education for the 21st Century en el que anticipaba cómo la inteligencia artificial podía convertirse en una herramienta efectiva para la enseñanza y el aprendizaje. Un año antes The Sunday Times la había nombrado como una de las veinte personas más influyentes de la educación británica.
Luckin fue una de las grandes invitadas de la décima edición del congreso educativo IFE Conference que se está llevando a cabo en el Tec de Monterrey. El IFE Conference es un territorio de innovación y discusión, donde los diferentes actores de la educación entran en contacto. Aquí hay grupos inversores como Reach Capital y Winnipeg Ventures, investigadores de Singapur, Finlandia, Estados Unidos, compañías EdTech como Canvas y Ticmas. La disertación de Luckin se llamó “Educar para el futuro de la IA: preparar a los estudiantes para un mundo transformado” y presentó distintas formas de relacionar el aprendizaje y la inteligencia artificial: aprender con inteligencia artificial, aprender sobre inteligencia artificial y aprender inteligencia artificial para aprovechar las herramientas.
Fue una charla muy desafiante que dejó, sin embargo, dos temas a los que volvió más tarde en este diálogo con Ticmas: la necesidad de pensar a la IA como una herramienta que nos provoque a ser más inteligentes antes que a tomarla únicamente como la facilitación de las tareas repetitivas, y el peligro de que los desarrollos tecnológicos acentúen las desigualdades entre las personas y los países.
—¿Cuánto aprendemos sobre la inteligencia humana a partir del desarrollo de la inteligencia artificial?
—Podemos aprender mucho, pero sólo si buscamos hacerlo. Por ejemplo, podrías probar diferentes tipos de procesos de aprendizaje con una simulación de IA y ver cuáles producen resultados similares. Esa podría ser una forma de aprender. También se puede usar la IA para analizar cómo aprenden los humanos y comprender algo más sobre el aprendizaje.
—¿Por ejemplo, la habilidad de aprender a aprender?
—Claro. Analizas los datos recopilados a medida que los estudiantes aprenden y, usando el tipo correcto de técnicas y herramientas, comprendes hasta qué punto el estudiante está aprendiendo a aprender. Puedes buscar señales en esos datos que den evidencia de que el estudiante está aprendiendo a aprender. Esa es una habilidad clave que se puede perfeccionar mediante big data e inteligencia artificial. Si analizas los datos adecuadamente, podrías identificar puntos en los que hay que intervenir para cambiar el comportamiento de los estudiantes y que sea más probable que aprendan a aprender.
—UNESCO publicó un informe en cuanto al uso de la tecnología en educación: ahí señalaban el peligro de que aumente la brecha entre las naciones. ¿Qué debe hacer América Latina para no quedarse atrás?
—Es una buena pregunta. He estado trabajando en esta área desde hace 30 años. Y durante 29 años, realmente creí que la inteligencia artificial podía ser una fuerza para el bien, podía lograr una mayor igualdad. Por ejemplo, podía ayudarnos a individualizar la educación para satisfacer las necesidades de todos los diferentes tipos de estudiantes. Todavía creo que es posible…
—¿Qué cambió en este último año? ¿ChatGPT?
—Lo que me preocupa es que, como los países más desarrollados tienen mejor acceso a estas tecnologías, vamos a aprender a usarlas más rápido y eso aumentará la brecha. Si pudiéramos ayudar a que los países menos desarrollados tuvieran un mejor acceso a las tecnologías —y cuando digo acceso no me refiero sólo a poder usarlas, sino a entender cómo usarlas—, si tuvieran mayor capacitación y desarrollo, sería la gran oportunidad para dar un salto de rana, pero eso no está sucediendo. Y aunque haya herramientas como ChatGPT, que son gratuitas —en realidad no son totalmente gratuitas: usan tus datos—, tienes que pagar las mejores versiones de la herramienta. De nuevo, tienes que tener dinero para usar una mejor herramienta de IA. No es que haya cambiado mi opinión de que la IA puede ayudar a lograr una mayor igualdad, lo que me preocupa es el modelo de negocio y la forma en que las grandes empresas de tecnología influyen en cómo se implementa la IA.
—Recientemente leí un ensayo de dos sociólogos españoles que se llama Los videojuegos como cultura. Allí decían que en el trasfondo del videojuego late una cultura neoliberal porque se sostienen en la creencia de que si te esfuerzas lo suficiente, tendrás éxito. ¿Podría estar presente ese paradigma en la inteligencia artificial?
—Esa es una pregunta muy interesante. Los videojuegos son artefactos culturales, no hay duda sobre eso. Son representaciones influenciadas por las culturas en las que se crean. Y lo mismo pasa con los sistemas de IA. La mayoría de los sistemas de inteligencia artificial están construidos por personas blancas. Los conjuntos de datos que se utilizan para entrenar algoritmos de aprendizaje automático no siempre son representativos de las poblaciones que van a utilizar esa IA. La única forma en que realmente se puede cambiar eso es encontrar maneras de traer una sociedad más diversa en el desarrollo de sistemas de IA, pero eso lleva tiempo.
—En ese libro, los sociólogos dicen que el hecho de manejar un personaje negro en un juego de la NBA no hace que te identifiques con los afroamericanos.
—Es interesante, ¿no? Y, además de los videojuegos, debemos tomar en cuenta a las redes sociales. Debemos aprender cómo han impactado negativamente en muchos jóvenes para no permitir que la IA haga lo mismo. No estoy segura de que estemos avanzando en la dirección correcta; creo que están sucediendo muchas cosas con la IA que tal vez no sean muy beneficiosas.
—En la conferencia magistral que dio en el IFE Conference, usted dijo que la IA no reemplazará a los profesores y que los profesores deben comprender la IA. Pero ¿qué es lo que necesitan comprender?
—Primero debería matizar lo que dije: la IA no debería reemplazar a los profesores humanos. No podemos imaginar un sistema educativo donde la inteligencia artificial haga toda la enseñanza. Sería terrible si eso sucediera, aunque puedo imaginar que para algunos sea atractivo porque la IA no se sindicaliza, no se va de vacaciones, nunca se enferma. Pero tampoco puede hacer todo lo que hace un profesor humano. Parte del problema es que no siempre valoramos lo que hace el maestro humano porque hay muchas cosas que hace y que en realidad no se miden. Ahí es donde podría estar el problema.
—Muchas veces quienes introducen la tecnología en las aulas son los alumnos. Pero aunque sean los primeros usuarios, eso no significa que sepan entender cómo funciona. Entonces, ¿cuál es el papel del docente en ese escenario?
—Creo que les estamos pidiendo mucho a los profesores. Ahora necesitan entender muchas más cosas que hace un año. Y eso es difícil porque quién les enseñará a ellos, dónde están los expertos que les van a ayudar a entender. Esperamos mucho de ellos, y ellos necesitan apoyo. Ahora bien, la realidad es que la tecnología existe y se utiliza y va a utilizarse cada vez más en el lugar de trabajo. A los estudiantes les encanta jugar con la tecnología: la van a usar les guste o no a los profesores. Tenemos que ayudar a los docentes, apoyarlos para que experimenten, para que formen comunidades donde aprender juntos, compartir experiencias, establecer parámetros dentro de los cuales puedan operar sin peligro. Hay mucho trabajo por hacer.