Sam Altman, CEO de OpenAI, confesó que a pesar de los logros y el financiamiento obtenido, su empresa aún no entiende completamente cómo funcionan sus modelos de lenguaje grandes (LLM) como GPT-4, y las versiones futuras que están en desarrollo.
Durante la reciente Cumbre Global de IA para el Bien de la Unión Internacional de Telecomunicaciones (ITU) en Ginebra, Suiza, el directivo abordó la cuestión de la interpretabilidad en la IA, un tema crucial para la seguridad y la eficacia de estas tecnologías.
“Ciertamente no hemos resuelto la interpretabilidad”, afirmó Altman, en declaraciones publicadas por Observer. La interpretabilidad, en términos de IA, se refiere a la capacidad de comprender y explicar cómo los sistemas de aprendizaje automático toman decisiones.
Un enigma sin resolver en OpenAI
Altman fue presionado durante el evento por Nicholas Thompson, CEO de The Atlantic, quien cuestionó si la falta de comprensión no debería ser un argumento para no seguir lanzando modelos nuevos y más poderosos.
Ante esto, el directivo respondió asegurando que las IA son “generalmente consideradas seguras y robustas”.
Una respuesta que sigue generando dudas, en un campo que continúa emergiendo y en el que los investigadores han estado luchando durante mucho tiempo para explicar el pensamiento libre y, a veces, ilógico de los chatbots de IA, que responden casi mágicamente a cualquier consulta que se les presente.
Sin embargo, intentar rastrear la salida hasta el material original con el que se entrenó la IA ha demostrado ser extremadamente difícil.
Para ilustrar la complejidad de la situación, Altman hizo una comparación entre los modelos de IA y el cerebro humano. “No entendemos lo que está sucediendo en tu cerebro a nivel de neurona por neurona, y, sin embargo, sabemos que puedes seguir algunas reglas y podemos pedirte que expliques por qué piensas algo”, dijo en la conferencia.
Al comparar GPT con el cerebro humano, el directivo afirmó que existe una presencia de caja negra, o un sentido de misterio detrás de su funcionalidad. Al igual que los cerebros humanos, la tecnología de IA generativa como GPT crea nuevo contenido basado en conjuntos de datos existentes y, supuestamente, puede aprender con el tiempo.
Si bien GPT no tiene inteligencia emocional ni conciencia humana, puede ser difícil entender cómo los algoritmos (y el cerebro humano) llegan a las conclusiones que generan.
Finalmente, agregó que la compañía ha “comenzado recientemente a entrenar su próximo modelo de frontera y anticipamos que los sistemas resultantes nos llevarán al siguiente nivel de capacidades en nuestro camino hacia la AGI (inteligencia artificial general)”.
El reto de la interpretabilidad
La interpretabilidad de la IA es un tema fundamental en medio del auge de esta tecnología, especialmente en temas de seguridad y los riesgos de que una inteligencia artificial general (AGI) se vuelva incontrolable, lo que para algunos expertos representa un peligro a nivel de extinción para la humanidad.
A pesar de las preocupaciones y los desafíos, Altman se mantiene optimista sobre el futuro y el potencial de la IA. “Me parece que cuanto más podamos entender lo que está sucediendo en estos modelos, mejor”, dijo durante la conferencia. “Creo que eso puede ser parte de este paquete cohesivo sobre cómo podemos hacer y verificar afirmaciones de seguridad”.
No obstante, el CEO admitió que OpenAI aún no ha alcanzado ese nivel de comprensión. “Pienso que eso puede ser parte de este paquete cohesivo sobre cómo podemos hacer y verificar afirmaciones de seguridad”, concluyó.
Lo que demuestra que el camino hacia una inteligencia artificial general y segura es complejo y lleno de incertidumbres, por lo que el uso y desarrollo de estas herramientas debe bien llevado por los usuarios para evitar riesgos.