Meta sigue avanzado en sus proyectos de inteligencia artificial y ahora presentó un nuevo modelo llamado I-JEPA (Image Joint Embedding Predictive Architecture), que busca emular el sentido común humano para generar contenido desde la percepción y no tanto desde los datos, lo que le permitiría aprender de manera más rápida, planificar tareas complejas y adaptarse fácilmente a situaciones desconocidas.
Según la empresa, este sistema sería superior a los modelos actuales porque usaría el aprendizaje autosupervisado, que se basa en la observación humana para adquirir conocimientos, y eso le daría el diferencial frente a lo que hay actualmente en el mercado.
Esto permitirá que la IA tenga información más allá de la que se ingresa manualmente y pueda visualizar el contexto de los datos para continuar con el proceso de creación.
Qué puede hacer esta nueva IA
El científico jefe de inteligencia artificial de Meta, Yann LeCun, asegura que uno de los objetivos de este modelo es “evitar los sesgos” y que en su lugar I-JEPA pueda “predecir la representación de una parte de una entrada (como una imagen o un fragmento de texto) a partir de la representación de otras partes de la misma entrada”.
Esto también le permitirá completar imágenes sin terminar con una mayor precisión que otros modelos actuales, lo que reducirá las opciones de tener contenido con errores que una persona jamás cometería, como por ejemplo imágenes de manos con dedos adicionales o formas extrañas.
Gracias a su metodología, esta inteligencia artificial también será capaz de “predecir” la información que hace falta en un contenido abstracto y que tenga un resultado mucho más cercano al que tendría un humano. Dejando de depender de los píxeles o datos que conforman la obra original, para tomar otros elementos adicionales cómo lo haría una persona.
Dentro de las aplicaciones que LeCun ve en I-JEPA está la creación de videos al poder predecir lo que pasaría en un video solo con entradas de audio y texto. Un desarrollo que podría convertirse en un “modelo general del mundo” que influya en otros sistemas existentes o que se estén desarrollando.
Además de su rendimiento, esta IA también destaca por su eficiencia computacional, porque no requiere ningún gasto adicional en la aplicación de aumentos de datos para producir múltiples vistas de un contenido, sino que solo necesita procesar una de ellas.
Meta ya trabaja con inteligencia artificial
Meta Lattice y AI Sandbox son dos herramientas con las que la compañía está empezando a involucrar a los anunciantes a la IA. Cada una está enfocada en un aspecto diferente del trabajo publicitario, por lo que están direccionadas para las compañías y no a los usuarios.
La primera es definida por la empresa como “una nueva arquitectura de modelo que aprende a predecir el rendimiento de un anuncio”, tomando datos y objetivos de optimización, que antes estaban en modelos más pequeños y aislados.
Con esta herramienta se pretende mejorar el rendimiento de la publicidad porque tiene la capacidad de comprender la información con los objetivos de la marca.
Mientras que AI Sandbox es una plataforma que funcionará como “campo de pruebas” para las primeras versiones de nuevas herramientas y funciones, donde están incluidas las enfocadas en anuncios generativos basados en IA.
Con esto se busca aprender sobre lo que funciona y lo que no para los anunciantes y de esa forma facilitar el uso de todos los recursos de una manera más optimizada.