Hay dos formas por las que la tecnología llega en la educación. La primera es desde los espacios de autoridad, a través de los directivos y los docentes. Ese ingreso no suele afectar notablemente la cultura de la institución. El caso típico es el de la aparición de la computadora personal en la década de los 80: se pensaba que iba a desencadenar una transformación y, sin embargo, fue absorbida por la tradición escolar. La otra manera es que llegue con los estudiantes. La respuesta habitual de los docentes es la susceptibilidad y la desconfianza, a tal punto que se termina prohibiendo el uso. Pensemos en las tensiones que se dieron y que todavía se dan en torno a los teléfonos celulares en clase.
¿Será ChatGPT la oportunidad que necesitábamos para abandonar estas posiciones antagónicas?
ChatGPT es un modelo de lenguaje capaz de producir texto de forma autónoma, que puede ser utilizado para tareas de generación de texto, traducción automática, resúmenes, entre otras. En pocas palabras, es una herramienta de inteligencia artificial que se utiliza para generar respuestas a preguntas y realizar otras tareas naturales del lenguaje.
¿Funciona? Bueno, el párrafo que acaba de leer fue escrito por ChatGPT. Lo mismo que el que sigue:
ChatGPT está desarrollado por OpenAI, una empresa de investigación en inteligencia artificial con sede en San Francisco, California. Fue fundada en 2015 por Elon Musk, Sam Altman, Greg Brockman, Ilya Sutskever, Wojciech Zaremba, John Schulman. OpenAI tiene como objetivo desarrollar tecnologías de IA de vanguardia y hacerlas accesibles al público en general. La empresa ha desarrollado varios modelos de IA, incluyendo GPT-3, una de las redes neuronales de procesamiento de lenguaje más grandes y avanzadas del mundo.
Sobre su adopción hay un dato increíble: Netflix necesitó tres años y medio para llegar al millón de usuarios, Twitter los alcanzó en dos años y Facebook en diez meses. ChatGPT llegó al millón de usuarios en cinco días.
El maestro como curador
Una tecnología capaz de obtener información de diferentes fuentes y producir un texto con la textura y la apariencia de haber sido escrito por un humano es una revolución. Y para el sistema educativo es un gran interrogante. En las últimas semanas, se han dado grandes debates en torno a ChatGTP. Algunas cátedras universitarias todavía no permiten el uso; otras han comenzado a reconfigurar el modo en que dan clase. Hace unos días se realizó una experiencia notable en la Universidad de Minnesota: ChatGPT rindió exámenes de grado y posgrado en Derecho y Negocios y los aprobó sin problemas, aunque por ahora lo hizo con baja nota. Y, si bien las primeras discusiones se han dado en el ámbito universitario, es cuestión de tiempo para que derrame a los demás niveles. Los próximos meses, entonces, serán cruciales para reconocer el impacto de la inteligencia artificial en el modelo educativo.
“La educación siempre se quedó atrás ante las tecnologías disruptivas y eso nunca es positivo”, dice Melina Masnatta, experta en Tecnología Educativa y una de las grandes referentes del área en la Argentina. Y sigue: “Hoy tenemos la oportunidad de replantear cómo se desarrolla la información. Después de un primer acercamiento a la inteligencia artificial que puede despertar fascinación, hay que poner en juego el pensamiento crítico y analizar si el contenido es el mejor, si es el más actualizado; y también hay que preguntarse quién produjo esta inteligencia artificial, para qué, con qué sentido, qué pasa con la versión paga, etc. No para estar en contra, si no para promover un mejor uso de la tecnología”.
A tono con Masnatta, el educador mexicano Fernando Valenzuela, que fue reconocido como una de las cien personalidades más influyentes en EdTech, dice que, si bien vivimos en una época en que el conocimiento está totalmente disponible, al mismo tiempo es sospechoso. “Por lo tanto, que esté disponible no significa que sea verídico o confiable”, dice, “y eso nos obliga a repensar el concepto de autoridad y a basar nuestra educación en un modelo de curación, lo que significa contextualizar, editar, recomponer, verificar”.
La memoria del copiloto
Valenzuela compara a la inteligencia artificial con un copiloto que nos acompaña en la creación y en la resolución de tareas repetitivas. Gracias a eso, los docentes y alumnos pueden dedicarse a las funciones asociadas con la interpretación y la contextualización de los aprendizajes. “Nos obliga a pensar otro tipo de evaluaciones donde haya más dimensiones que simplemente sabe/no sabe”, dice, y continúa: “probablemente necesitemos un incremento en la oralidad y en hacer que las evaluaciones se centren en la capacidad de expresar las ideas antes que en requerir ensayos y trabajos escritos. Ese copiloto nos va a permitir tener mejores intervenciones docentes y mejores tutorías: nos obliga a que la educación llegue a los límites, a donde solo llegan los humanos”.
“Acá también entra el gran debate del aprendizaje memorístico”, dice Masnatta. “El uso de la memoria no es negativo; de hecho, sabemos que es necesaria para construir y consolidar aprendizajes. Pero el uso de esta habilidad requiere que sea criterioso”. Julián Varas, profesor asociado de la Universidad Católica de Chile, cirujano general y fundador de C1DO1, hace un aporte sobre la memorización a partir de una analogía con la medicina: “Las generaciones anteriores se formaron con la memorización de textos, procedimiento, fármacos, tratamientos, etc., mientras que la nuestra ya tuvo un tremendo cambio con Google: la competencia que uno desarrolla es cómo filtrar y discriminar la información para aplicarla a sus pacientes”.
“Al mundo de la educación”, dice Masnatta, “le sirve pensar dónde las personas podemos aportar valor. Eso que básicamente tiene que ver con crear preguntas profundas, generativas, filosóficas, éticas, de las cuales la inteligencia artificial se pivotea y se enriquece”. “Las intervenciones de los docentes van a llegar a la parte más personalizada, a las emociones, las capacidades”, dice Valenzuela, “y con las evaluaciones se buscará asegurar que los estudiantes realmente sean capaces de integrar y procesar el contenido”.
Quién controla la información
“Tenemos que aprender cómo humanizar la inteligencia artificial”, dice Masnatta, “y mostrar quiénes están detrás”. Las bases de datos que usa ChatGPT están diseñadas por humanos: necesariamente tienen un sesgo organizacional, tienen normalizaciones y otras cuestiones que intervienen directamente sobre el contenido que producen. Allí hay una diferencia clave con la filosofía de Wikipedia, otra tecnología que provocó un enorme cimbronazo en el aula cuando apareció. La noción de Wikipedia es transparentar y brindar acceso libre a la información desde una perspectiva democrática y colectiva del conocimiento. Además, Wikipedia, que tiene ya veintiún años de experiencia, ha realizado acciones específicas para lograr un abordaje pedagógico en la currícula escolar.
“El movimiento Wikimedia”, dice Luisina Ferrante, doctora en Educación y Sociedad y coordinadora del Programa de Educación y Derechos Humanos de Wikimedia Argentina, “es un ejemplo de cómo habitar los territorios digitales no solo como consumidores, sino también con ser creadores de contenidos y de ser parte de una comunidad”. Para Ferrante, la inteligencia artificial va a tener un impacto educativo, pero requiere de instancias previas como el acompañamiento, formación y seguimiento de los docentes que están frente al aula para reducir las brechas tecnológicas.
“ChatGPT todavía tiene errores”, dice Varas, “aunque cada vez falla menos. Y las autoridades probablemente regulen los límites éticos para evitar, por ejemplo, las fake news. Estamos ante un formato de aprendizaje increíble que nos puede hacer la vida mucho más eficiente. El mundo es muy promisorio”.
LEER MÁS