Implementar herramientas tecnológicas como inteligencia artificial generativa en institutos educativos representa un gran avance en los métodos de enseñanza, sin embargo, la seguridad e integridad de los estudiantes es un factor que se debe tener en cuenta dentro de la ecuación.
El Departamento de Educación de Australia del Sur, cuando decidió acercar la IA generativa a los alumnos, se cuestionó cómo debería hacerlo de manera responsable.
La principal preocupación giraba en torno a ayudar a proteger a los estudiantes de contenidos potencialmente dañinos o inapropiados que pueden reflejarse en el resultado de un gran modelo de lenguaje, dada su formación en vastas extensiones sin filtrar de Internet, dijo Simon Chapman, director de arquitectura digital del departamento.
“No existen barreras de seguridad sobre cómo los estudiantes pueden interactuar con estas herramientas”, añadió.
En este contexto, el gobierno australiano decidió experimentar con EdChat, un chatbot impulsado por inteligencia artificial, combinado con Azure AI Content Safety. Este último sistema sirvió como una barrera que bloqueaba contenido no apto para los estudiantes.
Casi 1.500 estudiantes y 150 profesores de ocho escuelas secundarias probaron la capacidad del bot para ayudar a investigar todo, desde la división celular hasta la trama de ‘De ratones y hombres’ de John Steinbeck. El departamento todavía está en el proceso de evaluación de los resultados pero el sistema de Microsoft recibió buenas calificaciones.
Las funciones de seguridad integradas de EdChat bloquearon consultas de entrada inapropiadas y filtraron respuestas dañinas, lo que permitió a los maestros centrarse en los beneficios educativos de la tecnología en lugar de la supervisión del contenido, dijo el director de arquitectura digital del departamento de Educación.
Azure AI utiliza lenguaje avanzado y modelos de visión para ayudar a detectar contenido de odio, violencia, sexual y autolesión. Cuando los modelos detectan contenido en potencia dañino, lo marcan con una puntuación de gravedad estimada. Eso permite a las empresas y organizaciones personalizar el servicio para bloquear o marcar contenido según sus políticas.
A nivel interno, Microsoft ha implementado Azure AI Content Safety para salvaguardar a los usuarios de sus propios productos respaldados por la inteligencia artificial. Esta tecnología desempeñó un papel crucial en el lanzamiento responsable de innovaciones relacionadas con la mensajería en productos como Bing, GitHub Copilot, Microsoft 365 Copilot y Azure Machine Learning.
“Una ventaja clave de Azure AI Content Safety es su capacidad de configuración”, dijo Sarah Bird, gerente de productos del grupo de socios de Microsoft.
Las políticas se pueden ajustar para adaptarse al entorno y los casos de uso específicos de cada entorno. Una plataforma centrada en los juegos, por ejemplo, es probable que establezca estándares diferentes para cosas como el lenguaje violento en comparación con una plataforma para la educación en el aula.
La proliferación de la Inteligencia Artificial en el contexto educativo ha revolucionado la forma en que se aborda la enseñanza y el aprendizaje. La personalización del aprendizaje es una de las facetas más destacadas de esta transformación, ya que la IA permite adaptar el contenido y las estrategias pedagógicas para satisfacer las necesidades individuales de cada estudiante.
Los tutores virtuales impulsados por IA brindan un apoyo constante, respondiendo a preguntas y aclarando conceptos en cualquier momento. Además, facilita la evaluación automatizada de tareas y exámenes, proporcionando retroalimentación inmediata. Al analizar grandes conjuntos de datos educativos, asimismo, ayuda a las instituciones a identificar patrones de rendimiento y a tomar decisiones basadas en datos.
En el contexto de la educación a distancia, la IA ha impulsado el crecimiento de la educación en línea al ofrecer plataformas y recursos digitales eficaces.
A pesar de sus beneficios, la propagación de la Inteligencia Artificial en la educación plantea potenciales amenazas, como la privacidad de datos y la necesidad de supervisión adecuada.