Las diez reglas para usar inteligencia artificial en las investigaciones científicas

El Instituto para el Futuro de la Educación del Tecnológico de Monterrey elaboró en su Research Lab un conjunto de buenas prácticas para la integración responsable de la IA en ciencia

La IA revolucionó la forma de hacer ciencia, facilitando y optimizado la investigación (Imagen ilustrativa Infobae)

El rol de la Inteligencia Artificial (IA) dentro del campo científico ha revolucionado la forma de hacer ciencia. Gracias a ésta, se ha facilitado y optimizado el trabajo en la investigación científica, desde la automatización de procesos, el análisis de grandes cantidades de datos o patrones, hasta nuevas formas de gestionar, crear y examinar infinidad de recursos.

Los avances en la tecnología han permitido que la interacción humano-máquina sea más sencilla con la implementación de comandos (prompts), sin tener la necesidad de saber sobre programación avanzada.

Sin embargo, existen preocupaciones sobre el uso de la IA en el ámbito científico (así como en muchas áreas). por ejemplo, la integridad en investigación, el uso y la privacidad de los datos, entre otras. Por tanto, la ética se convierte en un imperativo para crear lineamientos sobre el uso honesto y responsable de la inteligencia artificial.

La IA como potenciador de la investigación científica

Actualmente, se considera a la IA como una herramienta imprescindible dentro del quehacer científico. Dentro del cúmulo de actividades que se pueden realizar con esta tecnología dentro del campo de investigación, se encuentran las siguientes:

  • Escritura académica
  • Gestión, análisis, modelado e interpretación de datos
  • Elaboración de tablas e imágenes
  • Corrección de estilo (tono, estilo, etc.), traducción y parafraseo
  • Simulaciones
  • Búsqueda y organización de recursos
  • Generador de títulos y palabras clave.
LasIA Generativa le dan al investigador una tecnología que acelera los diversos procesos científicos (Imagen ilustrativa Infobae).

A tal efecto, la Universidad de Galileo ha creado la guía “Cómo utilizar ChatGPT para la investigación científica: Prompts efectivos”. Este manual práctico, didáctico y robusto se enfoca en la creación de prompts especializados para potenciar la investigación científica mediante la IA generativa.

Estas y otras herramientas impulsan el avance en el área de la investigación, mismas que conforme pasa el tiempo se mejoran en diseño, desarrollo y despliegue para asegurar versiones actualizadas y optimizadas para los end-users de estos instrumentos tecnológicos.

De acuerdo con Rocael Hernández-Rizzardini, Director del GES (Galileo Educational System) de la Universidad Galileo:

“La diversidad de herramientas de IA Generativa, provee al investigador actual de una tecnología para acelerar los diversos procesos científicos, muchos de los cuales previamente se hacían con una asistencia computacional básica, pero ahora se proveen capacidades para rápido análisis de contexto profundo, conectar información que antes estaba dispersa, y asistir con IA los diversos procesos de investigación”.

Por tanto, es fundamental que se planteen estrategias que tengan una base ética y de legalidad para que los procesos y el mismo conocimiento científico no se vea afectado por las implicaciones de la IA, perpetuando el progreso de la ciencia y el bienestar de la humanidad.

La IA contiene un entorno fluctuante, por lo que su diseño, desarrollo e implementación seguirá en constante crecimiento (Imagen Ilustrativa Infobae)

Recomendaciones para implementar IA en investigación

Estas son las recomendaciones elaboradas por el R4C-IRG Grupo de Investigación Interdisciplinar: Pensamiento complejo para todos y la Unidad de Tecnología Educativa del Instituto para el Futuro de la Educación (IFE) sobre el uso de la IA generativa en el quehacer científico:

  1. Garantizar la integridad científica y ética al emplear IA en la investigación: se debe considerar como una herramienta auxiliar, pero no como una solución definitiva
  2. Asegurar la confidencialidad de datos personales y cumplir con las normativas globales de protección de estos: se debe realizar durante todo el proceso de su uso.
  3. Efectuar un análisis crítico de los datos generados por IA: mediante elreconocimiento de sus limitaciones técnicas y la influencia de la calidad de los prompts en los resultados.
  4. Verificar y validar rigurosamente la información obtenida: asegurar la validez y la relevancia de los resultados, y asumiendo la responsabilidad en su interpretación y aplicación.
  5. Documentar detalladamente los métodos y herramientas utilizados: especificar claramente la autoría y el grado de contribución de la IA en los resultados de la investigación.
  6. Actuar activamente para identificar, reducir y evitar sesgos en la investigación: promover un uso íntegro y responsable de esta tecnología.
  7. Mantenerse continuamente actualizado sobre los avances en IA: diversificar la experimentación con herramientas, y fomentar su uso creativo y efectivo en la investigación.
  8. Realizar revisiones periódicas y adaptaciones de las normativas de IA: se debe asegurar una alineación continua de los principios éticos con la integridad científica.
  9. Fomentar la colaboración interdisciplinaria para enriquecer el intercambio de conocimientos: aprovechar la sinergia entre la IA y el conocimiento humano.
  10. Compartir activamente fuentes de IA relevantes para la investigación y ofrecer formación a otros investigadores sobre su aplicación efectiva.

Es importante destacar que la inteligencia artificial contiene en sí un entorno fluctuante, por lo que su diseño, desarrollo e implementación seguirá en constante crecimiento, así como la adaptación de los lineamientos éticos. Es inevitable pensar que esta tecnología no irrumpa en todas las esferas que atañen al ser humano.

En este sentido, Nacho Despujol de la Universitat Politècnica de València, menciona lo siguiente:

“La evolución de las herramientas de inteligencia artificial ha entrado en una fase de crecimiento exponencial con lo que, quien no esté preparado para incorporarlas, estará en una importante desventaja en un plazo muy breve, pero, como toda herramienta nueva de gran potencia, su uso inadecuado conlleva riesgos importantes, por lo que es imprescindible sentar unas bases adecuadas para empezar lo antes posible de forma correcta”.

Por ende, la forma de realizar investigación se ha reformulado gracias a la IA, por lo que es necesario reflexionar y accionar sobre las implicaciones éticas que esto conlleva.

Existen nuevos retos como la privacidad y vigilancia, la manipulación de la conducta, los sesgos, el impacto en el campo laboral, etc., que requiren de una "ética de las máquinas". (Imagen Ilustrativa Infobae)

Ética, ciencia e IA

Para entender el campo de la ética y la inteligencia artificial (AI ethics) se debe comprender un concepto que le brindó las bases a esta nueva disciplina: la ética de las máquinas (machine ethics or machine morality).

Esta noción se refiere a la creación y adhesión de las máquinas a los principios éticos durante los procesos de toma de decisiones. Aborda las cuestiones del estatus moral de las máquinas, es decir, si se les debe atribuir derechos legales y morales. Su esencia es de carácter interdisciplinario y multidisciplinario, esto al estar dentro del dominio de la ética de la tecnología (technology ethics).

¿Por qué es importante la ética en la ciencia?

Los esfuerzos por incorporar la ética dentro del campo tecnológico, y más en una era en donde los sistemas se vuelven más pragmáticos, automáticos e inteligentes, se debe a que existe una necesidad de regulación y acción ante una gran variedad de nuevos retos, entre los cuales se encuentran los siguientes:

  • Privacidad y vigilancia
  • Manipulación de la conducta
  • Opacidad y falta de transparencia
  • Sesgos (sistemático, modelado, exclusión, interpretación, etc.)
  • Interacciones humano-máquina
  • Impacto en el campo laboral
  • Ética de las máquinas
  • Estatus moral de las máquinas/sistemas inteligentes
  • Singularidad tecnológica
Representación ilustrativa en estilo macro fotografía de cadena de ADN, DNA, bilogía, salud, cuidado, cuerpo, ciencia, tecnología, avances en medicina, laboratorio, investigación (Imagen ilustrativa Infobae)

Integraciones éticas

Existen múltiples modelos que buscan la integración de la ética en el dominio de las máquinas y los sistemas inteligentes:

En la investigación científica

A raíz de la integración de la inteligencia artificial en la investigación científica surgen nuevos dilemas éticos y de integridad que deben estudiarse en profundidad. Del mismo modo, se debe analizar el impacto que los sesgos en los algoritmos puedan tener sobre el conocimiento científico.

Miguel Morales, Director del área de Educación Digital de la Universidad de Galileo, expone que:

“La implementación de la IA en la investigación debe ser guiada por principios éticos sólidos, que aseguren la integridad, la equidad y la responsabilidad en todas las etapas del proceso investigativo. Solo así podremos confiar plenamente en los hallazgos generados y en su capacidad para contribuir positivamente a la sociedad”.

Por ende, para responder a estos desafíos éticos (sesgos, integridad, responsabilidad, etc.), los sistemas inteligentes deben priorizar que su desarrollo y diseño se enfoque en la transparencia, así como en su capacidad de ser explicable (explainable AI) y auditable.

Además, se debe considerar el término de la gobernanza ética de la IA (AI ethical governance), puesto que se requieren lineamientos y reglas que puedan ser flexibles y adaptables para guiar el desarrollo e implementación responsable y exitoso de la tecnología, asegurando el progreso y el conocimiento.

La integración de la ética en la investigación científica es un proceso que requiere de colaboración en diversas áreas. Por tanto, demanda un enfoque con educación, transparencia, responsabilidad y participación proactiva.

La necesidad de regulaciones señala la preocupación de la comunidad científica por la búsqueda de los marcos legales, éticos y de integridad dentro de la investigación con IA. (Imagen ilustrativa Infobae)

El impacto de la IA en las publicaciones científicas

Las instituciones y los equipos de investigación deben tomar en cuenta las nuevas normas y lineamientos editoriales sobre el uso de la IA en investigación, puesto que cada editorial tiene distintos grados de aceptación y uso en sus publicaciones. Esto con el fin de promover la legalidad, ética e integridad del trabajo científico.

Es imperativa la actualización y la noción de estas nuevas modificaciones para que las y los investigadores conozcan los alcances y limitaciones del uso de la IA para ciertas casas editoriales científicas.

La finalidad de estas regulaciones demarca la preocupación de la comunidad científica por la búsqueda de los marcos legales, éticos y de integridad dentro de la investigación con IA.

La integración de la IA con la ciencia es un campo amplio que debe ser explorado y empleado con fines benéficos para la humanidad. Se requiere de responsabilidad, transparencia, así como de principios éticos y académicos para su despliegue sea en pro de la investigación, alineado al marco de la legalidad.

Tampoco hay que olvidar que, gracias a su exponencial crecimiento, se debe tener una mente flexible que pueda seguir el paso de su avance y de los cambios que esto pueda traer al campo científico.

Una versión previa del artículo fue publicado en el Observatorio del Instituto para el Futuro de la Educación del Tecnológico de Monterrey

Más Noticias

Cómo se escribe según la RAE: ¿australopiteco o Australopithecus?

La Real Academia Española se ha convertido en la institución más relevante para fomentar la unidad idiomática del mundo hispanohablante

Maurilio Suárez: “Es urgente replantear los modelos pedagógicos, porque ya no funcionan”

En el V Seminario de Innovación Educativa organizado por Ticmas, el reconocido educador mexicano analizó cómo el enfoque STEM puede transformar la educación y los retos urgentes de los modelos pedagógicos actuales

Formación docente: evaluarán más de 1300 institutos de todo el país

El Consejo Federal de Educación estableció que los profesorados deberán atravesar un proceso de evaluación y acreditación cada 6 años. El objetivo es que para 2030 todas las instituciones hayan pasado por este ciclo. Los gremios docentes rechazan la medida

¿Para qué sirven las pruebas Aprender y cuál es su impacto en el sistema educativo?

Implementadas desde varios años, buscan evaluar los logros educativos de estudiantes en todo el país. Sin embargo, su alcance y método generan debates sobre su representatividad y utilidad.

Información educativa: solo 10 provincias tienen digitalizados los datos de todos los alumnos

Contar con los datos de cada estudiante en tiempo real es clave para poder hacer un mejor seguimiento de las trayectorias, tanto desde los ministerios como desde las escuelas. Un nuevo informe relevó varios desafíos y asimetrías entre las jurisdicciones, pero también avances