Con el anuncio de su nuevo modelo Llama 3, Meta se prepara para llevar la inteligencia artificial a WhatsApp, Instagram y Facebook. Se trata de un movimiento que podría poner el modelo en manos de más de 3.000 millones de usuarios diarios. Este flujo sin precedentes de datos de interacción entre humanos e IA podría ayudar a Meta a tomar la delantera en la carrera de la IA.
Durante el último año, el GPT-4 de OpenAI ha sido el gran modelo lingüístico dominante. La popularidad del LLM eclipsa la de las ofertas rivales de Google, Meta y Mistral, pero la diferencia en la calidad del modelo es cada vez menor. Después del Command R+ de Cohere, Llama 3 es el segundo modelo disponible abiertamente este mes que supera al GPT-4 original en el popular. En los últimos días, hemos visto cómo Microsoft lanzaba sus modelos Phi-3, e incluso Snowflake entraba en la carrera con un LLM propio. El sector de los modelos lingüísticos está cada vez más saturado y sus protagonistas luchan por diferenciarse.
“La intensa competencia da lugar a un espacio en rápida evolución”. Un avance técnico increíble puede convertirse en un juego de niños en cuestión de meses, ya que los competidores adaptan rápidamente su enfoque. La innovación en arquitecturas y algoritmos no se ha traducido en una ventaja competitiva defendible. Tampoco lo han hecho el presupuesto o la escala, incluso cuando las grandes tecnológicas y las sociedades de capital riesgo invierten miles de millones de dólares en financiación. “La única forma de encontrar una ventaja duradera es a través de más y mejores datos”.
Un bucle de retroalimentación positiva para la IA
Las investigaciones que acompañan a las recientes publicaciones de LLM han demostrado que incluso los modelos entrenados con miles de millones de palabras de texto de entrenamiento siguen estando poco entrenados. “Aumentar el volumen y la calidad de los datos es una forma probada de mejorar el rendimiento”. Dado que los principales actores ya consumen la mayor parte de los datos de entrenamiento públicos adecuados, el siguiente lugar en el que habrá que fijarse será el propio uso de LLM.
Los datos que se derivan de cómo consultamos y guiamos a los modelos lingüísticos a través de las conversaciones son algo más que un simple aumento de volumen: pueden ayudar a reforzar lo que los modelos ya hacen bien, y a centrarse en lo que les cuesta mejorar. OpenAI y Google, que ofrecen sus modelos directamente a los usuarios finales a través de una interfaz de chat, ya han empezado a crear ese conjunto de datos.
Cuando los datos de uso mejoran la calidad, y la calidad impulsa un mayor uso, “el bucle de retroalimentación positiva puede convertir un espacio en casi un monopolio”. Ya hemos visto esta historia con los motores de búsqueda. Mientras que Google se situó en cabeza gracias a un innovador algoritmo de clasificación que utilizaba datos públicos, ha conseguido mantener y aumentar ese liderazgo aprendiendo del enorme volumen de datos de uso procedentes de sus usuarios. Esto ha dejado a otros actores luchando por capturar incluso una pequeña fracción del mercado. Incluso Satya Nadella, consejero delegado de Microsoft, declaró el verano pasado que Bing es peor que Google, y que todo está relacionado con los datos.
“Todavía tenemos que ver a una empresa capitalizar eficazmente el bucle de retroalimentación del uso de la IA”. Aunque es probable que las mejoras introducidas en GPT-4 desde su lanzamiento inicial se deban en parte a los datos de uso, los cambios parecen más iterativos que transformativos. Sin embargo, con más de 100 millones de usuarios activos mensuales, OpenAI ha creado un conjunto de datos conversacionales sin precedentes. Se rumorea que la esperada GPT-5 saldrá a la venta este verano, y puede que por fin veamos esos datos entrar en juego. A partir de ahí, podríamos ver cómo OpenAI amplía la brecha y sigue afirmando su dominio.
Incluso si las ganancias de calidad derivadas de los datos de uso fueran modestas, tus interacciones pasadas seguirían permitiendo a un modelo adaptar sus formas a ti mejor que nadie. “Y ahí es donde reside la verdadera diferenciación a largo plazo de los modelos de IA: conocerle mejor”.
La IA dominante llegará a través de aplicaciones de mensajería y redes sociales
El bucle de retroalimentación de datos y el próximo lanzamiento de OpenAI hacen que el momento de Meta sea especialmente interesante. Mucho más que reclamar el tiempo y la atención de miles de millones de personas, Meta posee el lugar al que la mayoría de la gente acude por defecto para chatear. “Llevar sus capacidades de IA basadas en Llama directamente a esa bandeja de entrada podría hacer crecer la adopción más rápido que la tasa de ChatGPT”.
“En lo que queda de año, es probable que veamos a los proveedores de IA que pueden sacar partido de los datos de los usuarios, adelantarse a todos los demás”. Los jugadores que poseen los espacios virtuales en los que la gente interactúa con sus modelos estarán en mejores condiciones que los que solo proporcionan los modelos, pero no pueden recopilar los datos. Es una gran noticia para OpenAI, Microsoft, Google y Meta, pero podría dejar fuera a otros contendientes no pertenecientes a las grandes tecnológicas, como Mistral y Cohere. “El espacio de la IA del año que viene tendrá probablemente una dinámica competitiva muy diferente a la actual”.
Mientras que la financiación abrumadora y los modelos competitivos de código abierto hacen que las capacidades de IA más potentes sean sorprendentemente baratas hoy en día, es poco probable que ese punto de precio se mantenga una vez que solo los grandes actores puedan ofrecer la experiencia de IA más sólida.
“El hábito actual de Meta de ofrecer sus modelos en código abierto la convierte en la opción más amigable hoy en día, pero podría reconsiderarlo cuando otros jugadores de código abierto se queden atrás”. “La IA de primera categoría de hoy en día es probablemente la más abierta y accesible que jamás hayamos visto, así que haremos bien en disfrutarla mientras dure”.