Algo tan cotidiano como la modificación de una receta de un pastel de coco, banana y dulce de leche sirvió para que el CEO de Meta, Mark Zuckerberg, le muestre al mundo una nueva funcionalidad de Instagram: traducir y doblar automáticamente los videos de reels al inglés o español, utilizando su avanzado sistema de inteligencia artificial, Meta AI translation.
Pero lo peculiar de su masiva presentación fue que el ejemplo utilizado durante la disertación empresarial estuvo centrado en una cuenta de IG argentina: Sabores del conurbano, algo inusual en este tipo de eventos. “La Inteligencia Artificial y Meta hicieron que hable a la perfección inglés”, posteó Dana Buttigliero, entre emojis sonrientes, replicando un video publicado por un usuario que figura como story (historia) en su popular canal de comidas y recetas varias.
“Yo desayunando viendo todo el revuelo que se armó”, posteó también la influencer gastronómica, que cosecha 637 mil seguidores, al saber que su sitio fue tendencia en X por la mención que hizo el creador de Facebook durante su presentación de esta tecnología, que inicialmente estará disponible solo en español e inglés.
“Estamos experimentando con doblaje automático de videos de reels, esta será una manera de que puedas ver más contenido disponible sin importar el idioma que hables”, explicó Zuckerberg al público acerca de la nueva herramienta.
Según el CEO de Meta, esto permitirá a cada creador de contenidos “llegar a personas de todo el mundo sin importar el idioma que hablen”, afirmado que “tu voz auténtica”, aparecerá doblada a otros idiomas. Además, la nueva función de IG aplicará la sincronización labial automática. “Es para que realmente parezca que hablas otro idioma”, agregó Zuckerberg asegurando que este nuevo avance prometerá cambiar la forma en que se interactúe con la audiencia global, eliminando barreras lingüísticas.
Las características del traductor de Meta AI
La innovación detrás de esta función se basa en los continuos avances en inteligencia artificial que Meta desarrolló en los últimos años. Utilizando la última versión de su modelo de IA, Llama 3.2. La firma logró implementar un sistema que no solo traduce el contenido, sino que también sincroniza el movimiento de los labios del hablante en el video con el nuevo idioma, creando una experiencia visual más realista.
Cuando un reel es traducido con Meta AI, la inteligencia artificial toma la voz original del creador y genera una nueva versión del audio en el idioma seleccionado. Esto significa que un creador que graba en español, por ejemplo, podrá tener una versión de su video en inglés, manteniendo un tono y estilo similares al original, pero en el nuevo idioma.
Esta función no solo traduce el contenido, sino que también ajusta su sincronización labial, lo que genera un efecto visual más original. Meta, por su parte, destacó que esta nueva característica transformará la manera en que los creadores de contenido puedan llegar a un público más amplio y diverso, lo que podría aumentar significativamente su alcance y engagement.
La implementación de esta tecnología es un reflejo del compromiso de Meta con la innovación y la mejora continua de sus productos. La compañía invirtió considerablemente en el desarrollo de inteligencia artificial avanzada, y esta nueva función en Instagram es un claro ejemplo de cómo estas inversiones están dando frutos.
Además, la capacidad de traducir y doblar videos automáticamente podría tener un impacto significativo en la forma en que se consume contenido en las redes sociales. Los usuarios podrán disfrutar de videos en su idioma preferido, lo que podría aumentar el tiempo de visualización y la interacción con el contenido. La empresa informó que esta función se expandirá a futuro hacia otros idiomas, aparte del inglés y español.