“A esta altura, sabemos que el futuro de la Inteligencia Artificial no solo se diseña con códigos y algoritmos, sino también con principios éticos, decisiones políticas y valores humanos”. En estas palabras se resume una de las ideas centrales de Melina Masnatta en su nuevo libro Educar en tiempos sintéticos: pasión por enseñar, deseo de aprender (Galerna). Allí la autora incorpora voces de docentes, familias, especialistas, decisores y ONG, junto con experiencias innovadoras y casos de distintos lugares del mundo para indagar sobre cómo se redefine el sistema educativo a partir de la irrupción de la IA.
Masnatta es emprendedora en el área de tecnología, educación y diversidad; cofundó las organizaciones Chicas en Tecnología y Enki, y es la subdirectora del posgrado de Inteligencia Artificial y Género de la UBA. En entrevista con Infobae, plantea que el futuro del sistema educativo se juega en la capacidad de la escuela de enseñar a los chicos a hacerse preguntas éticas y novedosas, poniendo en primer plano la educación como una experiencia de encuentro.
–¿Qué implica pensar esta época como un “tiempo sintético”?
–La idea de lo sintético para mí tiene dos pivotes. Por un lado, vivimos en un escenario digital que busca la síntesis, y a veces es una síntesis reduccionista: el algoritmo tiende al hashtag y no a pensamientos más complejos. Por otro lado, lo sintético es lo no orgánico, aquello creado de manera artificial. Podemos pensar estos tiempos como sintéticos desde el reduccionismo, pero también desde la complejidad del nuevo escenario, que nos confronta con posibilidades antagónicas: desde un futuro hipertecnologizado hasta un apagón digital por la crisis climática. En el libro recupero un dato que indica que ChatGPT utiliza alrededor de medio litro de agua cada 5 prompts (instrucciones), lo cual es tremendamente alto.
Frente a estas posibilidades, la escuela se debate entre la potencialidad del futuro y las limitaciones del presente, dado que en muchos lugares el acceso a la tecnología aún resulta imposible. Creo que la educación tiene que acercarse a lo novedoso, pero también creo en recuperar aquello que nos trajo hasta donde llegamos: no tenemos que tirar todo por la borda. El subtítulo del libro (“pasión por enseñar, deseo de aprender”) surge de la reflexión de una docente, que formulaba una pregunta clave: en este escenario sintético, ¿quién despertará tu deseo de aprender, tu pasión por enseñar?
–En el libro sostenés que la IA le plantea al sistema educativo el desafío de poner en primer plano los principios y valores humanos. ¿Cómo se está redefiniendo “lo humano” en educación? ¿Qué aspectos de lo humano debería priorizar la escuela?
–Estamos en un momento de descubrimiento, de empezar a ver la tecnología, que nos resultaba invisible. Por un lado, creo que no podemos perder de vista la persistencia de los privilegios: la falta de alfabetización y la desescolarización todavía afectan a millones de niños y niñas, así como la falta de acceso a las tecnologías. Dicho esto, sabemos que las IA generativas ya no solo son capaces de detectar patrones, sino que también producen contenido escrito, imágenes, audios y videos. Creo que lo que nos puede diferenciar como humanos es la creatividad, la divergencia, la capacidad crítica, el deseo y la pasión. Y especialmente el hacer las mejores preguntas, las más filosóficas, las que tienen que ver con el para qué y el por qué.
Hace unos días desde Enki presentamos los resultados de una encuesta a más de 12.800 docentes de 19 países de América Latina, sobre cómo está impactando la IA en sus prácticas de enseñanza. Encontramos que 9 de cada 10 docentes consideran que la inteligencia artificial tiene un impacto positivo para la educación, pero menos de la mitad la usa. Aquellos que sí lo hicieron, en general la usaron para cuestiones personales. Y cuando les preguntamos por qué no la usaron aún, nos dicen “es pago”, “no sé qué pasa con los datos”, o “el impacto no es transparente”. Ahí hay un ejercicio de filtro educativo: los docentes tienen una práctica bastante más reflexiva que la que había hace algunos años, cuando aparecieron las netbooks en las aulas. Saben que hay costos que tienen que ver con los datos, con el sistema de procesamiento de la atención.
El sistema educativo tiene una responsabilidad al final del camino. Hay un responsable final: el directivo, el supervisor, el ministerio. Frente a un caso de bullying en redes sociales, la escuela es la única institución que va a dar una respuesta, a diferencia de la compañía de tecnología, que va a responsabilizar al usuario. Lo humano dentro de la escuela trae el ejercicio de la responsabilidad, que las compañías y los gurúes tecnológicos no tienen, porque se confunde mucho el poder con el poder hacer. La lógica de todos los tecnólogos que quieren marcar agenda es romper las reglas, los acuerdos y las responsabilidades.
A la vez, la transgresión es algo propiamente humano. Hay muchos casos de gente que para innovar transgrede las reglas, cosa que una IA no se animaría a hacer. Ahí aparece una forma de creatividad.
Por otro lado, está la cuestión del tiempo. El mundo educativo plantea reflexiones profundas sobre la celeridad del mundo digital. El mundo sintético nos está rompiendo como personas, generando crisis cognitivas, emocionales, de salud mental. En Estados Unidos, 41 estados demandaron a Meta, alegando que Instagram y Facebook tienen funciones adictivas que perjudican a los adolescentes. Por primera vez, 41 estados se pusieron de acuerdo en que ese es un problema que hay que resolver y regular. Esto también nos habla de que los algoritmos no son transparentes, que los humanos tenemos otros tiempos y muchas veces no sabemos lo que cedemos emocional y cognitivamente.
Entonces, repasando: lo humano se juega en el tiempo, en la pregunta filosófica, en la responsabilidad y en la transgresión. Todos esos componentes aparecen en el libro en las voces y experiencias de los protagonistas del sistema educativo: docentes, estudiantes, decisores, directivos. Todos tenemos que hacernos responsables de estos desafíos, de lo que estamos consumiendo: nuestra “dieta cognitiva”.
–A veces se cuestiona la “lentitud” de la escuela para adaptarse a los cambios, se repite que la escuela se quedó en el siglo XX pero tiene alumnos del siglo XXI… ¿puede ser una riqueza de la escuela esta lentitud, en la medida en que no implique negarse al diálogo con el presente?
–Me parece que eso es nodal. Hablando con docentes y directivos aparece esta necesidad de pensar primero, la pregunta de por qué tengo que apurarme a implementar una aplicación tecnológica sin saber qué hay detrás o qué puede suceder. En muchos casos vemos que cuanto más usan los docentes la inteligencia artificial, más cuidadosos se vuelven en el uso. A veces se escucha el preconcepto de que “los docentes no quieren innovar”, pero no es así. Es fundamental que haya lo que llamamos el “human in the loop”, una persona que filtra, supervisa, toma decisiones y trae sugerencias. No podemos corrernos de ahí, y eso implica también otros tiempos que no son los tecnológicos.
–Vos venís trabajando sobre la brecha digital; cofundaste y dirigiste la organización Chicas en Tecnología. ¿Qué nuevas formas de desigualdad traen estos tiempos sintéticos y cómo puede la escuela intervenir ahí?
–Yo creo que la pregunta es la tecnología más poderosa: no dejar de preguntarnos quién diseñó tal aplicación, por qué tenés que hacer tanto esfuerzo cognitivo para adaptarte a ella. Seguramente se explica porque no hubo una persona como vos diseñando eso: ahí se empieza a ver la cuestión de la desigualdad. Un diseño que no consideró gente que no estuviera alfabetizada, que fuera neurodivergente, que perteneciera a otra cultura o que tuviera otra edad. En Japón, que es una meca tecnológica, lo generacional está muy presente en el diseño de las tecnologías, porque tienen una población mayor; ahí las aplicaciones son súper accesibles.
A veces no nos damos cuenta de que la tecnología también nos educa. Nunca hay una sola manera de pensar las cosas, pero vemos que los algoritmos traen el riesgo de promover un pensamiento único y unificador. La idea de la personalización es un poco engañosa: te hago sentir que te ofrezco algo personal, pero no estoy haciendo algo diferente para cada persona, sino que te estoy insertando en un patrón, con el objetivo de la paquetización.
Hoy la tecnología es la gran escuela, pero es una escuela peligrosa: está moldeada por los sesgos de quienes la diseñan, que tienen un background. No son equipos diversos, lo único que les importa es cotizar en bolsa y salir rápido. Hay una frase que se dice mucho en el mundo tecnológico, que yo no sé si sería posible en el mundo educativo: “Es mejor pedir perdón que pedir permiso”. Esto entra en tensión con la idea de responsabilidad. Es una mirada que piensa solo en términos de consumidores, no de ciudadanos.
–Muchas veces el entorno digital se nos presenta como natural, como algo que viene dado y no como algo que fue construido. ¿Es un desafío de la educación poder desnaturalizar este entorno, ayudarnos a ver que podría ser de otra manera?
–Sí, eso nos cuesta un montón, porque la experiencia de usuario nos hace sentir que es orgánico, cuando en realidad es sintético.
Hoy las IA pueden monitorearnos y registrar nuestra actividad desde que ingresamos al aula, ver cuánto engagement hay en la clase. Vamos hacia un escenario donde las entrevistas de trabajo ya no serán necesarias: con solo monitorearnos, las empresas podrían acceder a nuestro historial de desempeño. No solo verán tu huella digital, sino que pueden saber cuánto te concentrás, cuánto participás. Y toda esa información después queda en manos de grandes conglomerados, porque las startups lo que quieren es vender a las tres o cuatro empresas más grandes.
A fines del año pasado la Unión Europea aprobó una Ley de Inteligencia Artificial, que recién entrará en vigencia en 2026 (y este no es un dato menor, porque es difícil imaginar el impacto que puede tener la IA en estos dos años). Entre otras cosas, la ley dice que no se podrá usar la IA para recopilar los datos personales de tu trayectoria escolar. También advierte sobre la manipulación de las emociones.
En marzo de 2023 participé de BettUK, el mayor evento de educación y tecnología del mundo. Una de las preocupaciones principales era encontrar una solución al desafío que se abre frente a la IA, y tuvo mucha convocatoria la propuesta de EdSafe, un grupo global de docentes dedicado a promover el uso seguro de la IA en educación. Ese grupo redactó un manifiesto para pedirles a las tecnológicas, entre otras cosas, que te digan qué estás poniendo en riesgo al usar determinada tecnología, qué va a pasar con tus datos. Las compañías lo saben, pero no lo dicen. Esto me pareció clave porque muy pocas veces tenemos esta visibilidad y desnaturalización. Hoy la única red social que te dice que puede tener condiciones adictivas es TikTok, y casi no lo leés, porque aceptás rápido los términos y condiciones. Recién ahora Instagram lo está sofisticando y te avisa si pasaste más de determinado tiempo.
Por otro lado, me parece muy interesante la reforma educativa que implementó Japón en 2023, a la que bautizaron “Cambio valiente”. La nueva currícula es súper sencilla, con solo cinco asignaturas: Aritmética de negocios, Lectura, Civismo, Computación e Idiomas. La idea es formar a los estudiantes desde muy temprana edad como parte de la ciudadanía mundial, formar jóvenes con capacidad de cuestionamiento, con pensamiento socrático, con la capacidad de desnaturalizar lo que consumen.
Hoy ya se habla de las alucinaciones artificiales, que suponen un desafío crítico, especialmente para las personas con menor trayectoria educativa, que pueden tener menos capacidad de “filtro” y tienden a creer que lo digital es lo real. Hace poco la CTO (Chief Technology Officer) de ChatGPT advirtió que hay personas que están empezando a tener alucinaciones artificiales, falsas memorias. Ahí también se ve la importancia de poder desnaturalizar lo que vemos en el entorno digital.
–En el libro rescatás experiencias educativas que jerarquizan la importancia del encuentro, que hacen lugar a las emociones y a los desafíos vinculados con la salud mental. ¿Esa también es una forma de poner en primer plano lo humano, sin desconocer la centralidad del aprendizaje?
–Hoy estamos volviendo a las metodologías educativas que ponen en primer plano el encuentro, la experiencia en tiempo real. En la era de la posverdad, donde ya no sé si un video es real o no, el momento de la experiencia presencial se vuelve completamente necesario. En el fondo siempre estamos buscando lo que nos deja huella. La educación es, ante todo, un encuentro humano. Ese encuentro es la condición de posibilidad para que se dé la experiencia de aprendizaje. Una directora me decía que, después de la pandemia, lo que pase en la escuela tiene que ser súper significativo, porque si no los adolescentes se van, hay desgranamiento, hay casos muy graves de salud mental.
–En la escuela y la universidad se plantea el desafío de entrar en diálogo con la cultura de los chicos, de “adaptarse” a los formatos a los que ellos están acostumbrados. ¿Hasta qué punto hay ahí un camino para el futuro de la educación? ¿Es deseable que una clase se parezca a TikTok?
–Creo que una cosa es en el nivel primario, donde la captación de la atención y el lugar de la autoridad es diferente. Pero en el nivel universitario hay algunas posibilidades. En el libro cito el caso de un profesor que desarrolló el concepto de “café, medialuna, desayuno y conocimiento”, donde elige un concepto y con algunas herramientas de IA freemium arma videos cortos con avatares, en formato TikTok. Entonces, mientras los estudiantes se preparan para la clase, tomando un café con una medialuna, miran el video y ese docente se asegura de que ya tengan algún anclaje teórico para iniciar la clase. A él le sirve porque así los engancha, pero después viene la clase, que es lo importante. Y si no está el video, él se pierde un espacio en la “grilla” de atención de sus estudiantes. Creo que ahí hay un punto: el formato tiene mucha pregnancia, y es importante para mostrar que estás entendiendo esa cultura. Pero el formato no puede comerse el saber, porque esa tecnología no fue pensada con un objetivo educativo, sino con la lógica de vender y llegar más rápido.