“Inteligencia artificial: ¿aliada o amenaza?”. Este fue el título de la jornada exclusiva que organizó Ticmas en el Alvear Palace Hotel, en la que asistieron más de 80 directivos de colegios de la Argentina. Los paneles abordaron diversos enfoques con los que reflexionar los desafíos y las nuevas posibilidades que la IA abre en el ámbito educativo. En una de las actividades del día, Gustavo Brey (docente de ITBA), Mariano Yacovino (Director de Educación de Microsoft Argentina), Mariano Ruani (Director en Instituto Baikal) hablaron del paso necesario —e inevitable— que va de la educación tradicional a la educación con inteligencia artificial.
Coordinados por Astrid de Herrera, líder estratégica de ABP en Ticmas, los tres expertos asumieron el desafío de tomar una postura frente a ChatGPT: cómo puede la Inteligencia Artificial mejorar la enseñanza y el aprendizaje, cuáles son los desafíos éticos y de privacidad, y cuál es el rol de docentes, directivos y familias.
“Pensar que ChatGPT va a reemplazar a los docentes o va a hacer que los chicos se copien no va”, dijo Brey. “Ya no se puede pensar que la calculadora es un problema para la matemática o que Google y Wikipedia son el terror de los docentes”. Brey contó que su experiencia con ChatGPT lo llevó a mejorar sus parciales, porque aún cuando creía que los suyos tenían un grado de excelencia que provocaba que los estudiantes piensen y relacionen las respuestas, la inteligencia artificial lo aprobó. “Eso me hizo levantar la vara como docente”, dijo. “Hoy la inteligencia artificial me permite optimizar un montón de cuestiones de la docencia y me da más tiempo para la creatividad y para sostener la parte emocional con los alumnos”.
“La discusión que estamos teniendo hoy aquí”, dijo Yacovino, “está pasando en cualquier entidad educativa del mundo. Yo creo que la Inteligencia Artificial es una herramienta súper poderosa. Nos va a ayudar no sólo a ahorrar el tiempo preparando las clases y en generar experiencias de aprendizaje más interactivas, sino que va a hacer que la educación se adapte a la necesidad de cada uno. Esta herramienta nos va a ayudar a crear clases más interactivas y personalizadas. ¿Cómo nos vamos a ir adaptando? Vamos a ir aprendiendo en el camino”.
Mariano Ruani también destacó que la IA brinda la posibilidad de ser más creativos, porque uno puede ayudarse a pensar actividades más entretenidas y consultar otras experiencias. Pero está claro que ChatGPT necesita estar acompañado por un maestro. “Tiene determinados riesgos que hay que conocer”, dijo, y habló, entre otras cosas, del sesgo, la falta de contextualización y la “alucinación” en las respuestas —contenidos equivocados que requieren de una recepción crítica para reconocerlos como tales—. “Muchos piensan cómo nos van a hacer trampa los chicos”, dijo, “y para mí es cómo la usamos para mejorar el aprendizaje, para que los chicos sean mejores, más creativos y aprendan mejor. Después veremos cómo los evaluamos”.
Actualmente hay dos grandes posturas a nivel educativo: hay instituciones que prohíben el uso y hay otros enfoques en los que se alienta —casi se obliga— su uso. “Esos docentes reconocen que los alumnos son mucho mejores que si no la usan”, dijo Ruani, “y, además, va a estar en toda la sociedad: no aprender a usarla es negarle una oportunidad a los chicos”.
Los límites de ChatGPT está en las sutilezas. Yacovino pidió hacer la prueba y preguntarle, por ejemplo, cuántas bananas se pueden comer en ayunas. La IA respondió que no hay un número fijo, cuando la pregunta era capciosa y la respuesta era clara: sólo una. Después de esa banana ya no hay ayuno.
“Nosotros vemos la computación como algo determinístico y esto es probabilístico”, explicó Ruani. “Todas las respuestas tienen determinada probabilidad de ser ciertas. Por eso ChatGPT aprueba un examen, pero lo hace con ocho, nunca con diez. El problema es que cuando hablamos con una computadora le empezamos a creer. Si la primera vez está bien, la segunda también, ya a la quinta no chequeás más y por ahí te dijo cualquier cosa. El problema es que cuando se equivoca, se puede equivocar por una barbaridad”.
“La AI tiene que ver más con buscar patrones en los datos y clasificarlos. Si el modelo está mal entrenado, puede tener errores”, dijo Brey, que además destacó que la tecnología no está todavía capacitada para suplir a Google. “Pero”, dijo, “esta es la punta del iceberg”.
LEER MÁS