La inteligencia artificial (IA) generativa como la empleada en Chatbots famosos como ChatGPT o Gemini de Google ha ganado popularidad en los últimos años, mostrada como una herramienta capaz de crear desde textos coherentes hasta imágenes sorprendentes.
Sin embargo, un reciente estudio llevado a cabo por la Universidad de Oxford, en Inglaterra, publicado en la revista Nature, ha encendido las alarmas sobre un posible defecto inherente a este tipo de tecnologías cuando se utilizan para entrenar otras IA.
El fenómeno, denominado “colapso del modelo”, sugiere que al entrenar nuevos modelos de IA utilizando datos generados por IA anteriores, se corre el riesgo de que los resultados se vuelvan cada vez menos coherentes y precisos con el tiempo.
Cuál es el enemigo del avance de la inteligencia artificial
El enemigo de la inteligencia artificial, de acuerdo a lo que concluye el estudio de Oxford, sería los mismos modelos de IA que existen. Esto es producto de que, a medida que los datos originales son reemplazados por información generada por las IA, los modelos subsecuentes podrían empezar a producir respuestas sin sentido.
El estudio de Oxford se concentra principalmente en la observación de que las IA entrenadas con datos generados por otras IA tienden a degradar la calidad de los resultados tras pocas generaciones.
Este fenómeno tiene serias implicaciones para la calidad de los modelos de aprendizaje automático y, por ende, para los usuarios que dependen de estas tecnologías.
Por ejemplo, una IA dedicada a resumir artículos científicos podría acabar generando respuestas erróneas o irrelevantes, afectando la confianza y la calidad de la información presentada.
Cómo se equivocará la IA en el futuro, según la universidad de Oxford
El estudio de la Universidad de Oxford mencionó un caso llamativo en el que se ilustra el riesgo a futuro. En él, un modelo de IA fue entrenado inicialmente con texto sobre arquitectura medieval.
Después de pasar por nueve generaciones de entrenamiento con datos generados por IA, el modelo concluyó con una salida completamente desconectada del contenido original: un listado de liebres norteamericanas. Este resultado reflejó cómo la precisión y veracidad de la información pueden deteriorarse notablemente.
El equipo de expertos sugiere que este efecto de “colapso del modelo” es casi inevitable si se continua utilizando datos generados por anteriores IA. El estudio pone de relieve la necesidad imperiosa de emplear datos fiables y, preferentemente, datos originados por humanos para el entrenamiento de estos modelos.
La precisión y la coherencia a largo plazo de los modelos de IA y su impacto a nivel social podrían depender en gran medida de esta práctica.
Por qué la precisión de la inteligencia artificial genera alerta
Que la inteligencia artificial sea más precisa es algo que preocupa a varios sectores que podrían subsistir y mejorar su operatividad gracias a ella.
No obstante, pese a la gravedad del hallazgo, muchas compañías tecnológicas optan por utilizar datos generados por sus propias IA, intentando así evitar posibles demandas costosas o reducir gastos.
Esta estrategia empresarial, aunque económica en el corto plazo, podría acelerar el proceso degenerativo descrito en el estudio de Oxford, comprometiendo la calidad y fiabilidad de sus productos de IA a largo plazo.
Qué pasa si colapsa el modelo de la inteligencia artificial
El “colapso del modelo” plantea preguntas cruciales sobre el verdadero valor y la aplicación práctica de estas tecnologías. Si la tendencia de depender cada vez más en datos generados por IA persiste, la utilidad y fiabilidad de los modelos de IA podrían verse comprometidas.
Varios expertos han expresado sus preocupaciones sobre el uso indiscriminado de datos generados por IA, alertando que la calidad de estas tecnologías podría degradarse, transformándolas en herramientas potencialmente perjudiciales.
También, hay quienes mantienen una posición más optimista respecto a los hallazgos del estudio. Algunos expertos argumentan que, en la práctica, siempre habrá una cantidad suficiente de datos generados por humanos que podrían mitigar parcialmente los efectos del “colapso del modelo”.
Esta perspectiva plantea la posibilidad de que un equilibrio bien gestionado entre datos humanos y datos generados por IA pueda ayudar a mantener la calidad y precisión de los futuros modelos de IA.