Tras la llegada de Meta AI a WhatsApp, se espera que la aplicación empiece a sumar mejoras continuamente para ampliar la experiencia de los usuarios. Y la más cercana que está por llegar al chatbot es la interacción a través de voz.
En la más reciente actualización de la versión de prueba de la plataforma de mensajería, WABetaInfo descubrió que el chatbot incluirá respuestas por voz y la posibilidad de que los usuarios envíen notas de audio para solicitar contenidos.
Cómo será posible hablar con Meta AI en WhatsApp
Entre las novedades más destacadas de la próxima actualización se encuentra el modo de chat por voz. Esta función, que se encuentra en etapa de desarrollo, permitirá a los usuarios comunicarse con Meta AI en tiempo real, utilizando un sistema de manos libres similar al de un mensaje de audio convencional.
La diferencia clave radica en la rapidez con la que se podrán realizar consultas y obtener respuestas, lo que promete mejorar la fluidez de las conversaciones con el chatbot.
Además, se conoció que habrá una posibilidad de personalizar la voz del asistente de Meta AI. Según lo descubierto por el medio WABeta, en la versión beta 2.24.17.16 para Android, ya disponible en la Google Play Store, WhatsApp permitirá a los usuarios elegir entre diez voces diferentes para la inteligencia artificial.
Estas voces variarán en tono y estilo, lo que permitirá a los usuarios ajustar la voz del asistente a sus preferencias personales o a las necesidades de un momento específico.
Por ejemplo, si un usuario prefiere una voz más calmada para consultas simples, podrá configurarla en consecuencia. De igual manera, aquellos que necesiten respuestas rápidas y enérgicas podrán optar por una voz más dinámica.
Además, la opción de cambiar la voz del chatbot no solo mejorará la personalización de la experiencia, sino que también podría ser un recurso valioso para personas con dificultades auditivas, quienes podrán ajustar la voz hasta encontrar una que les resulte más fácil de entender.
Por ahora todas estas novedades están en fase de desarrollo, por eso solo es posible acceder a ellas en la versión de prueba. Tampoco se ha informado cuándo se realizará su lanzamiento oficial, aunque se espera que sea en los próximos meses, teniendo en cuenta la intención de la plataforma por aumentar el uso de su nuevo chatbot.
Meta AI tendría voces de personas famosas
Meta tiene planes de incorporar voces de celebridades como Awkwafina, Judi Dench y Keegan-Michael Key en sus proyectos de Inteligencia Artificial, específicamente en su asistente Meta AI. Este asistente, impulsado por el modelo de lenguaje Llama 3, está diseñado para integrarse en redes sociales como Instagram, WhatsApp y Facebook.
La empresa presentó este chatbot en septiembre del año pasado, destacando sus capacidades para acceder a información en tiempo real e interactuar utilizando lenguaje natural. Para dar voz a este asistente, la compañía ha iniciado negociaciones con estas celebridades, según han informado fuentes cercanas a medios como Bloomberg y The New York Times.
Sin embargo, estas negociaciones han tenido altibajos, ya quela compañía busca asegurarse los derechos de estas voces a largo plazo, mientras que las celebridades desean establecer límites más claros en los acuerdos.
The New York Times ha señalado que Meta espera cerrar estos acuerdos antes de su conferencia Meta Connect, programada para los días 25 y 26 de septiembre, donde presentarán sus últimas innovaciones en IA.
Es importante destacar que, recientemente, la empresa decidió cancelar un proyecto similar que involucraba a influencers de redes sociales. En su lugar, ha lanzado AI Studio, una herramienta basada en Llama 3.1 que permite a cualquier creador de contenido, no solo a celebridades como Snoop Dogg, Naomi Osaka, Paris Hilton y Tom Brady, crear sus propios bots conversacionales.
Estos bots, que actualmente solo están disponibles en Estados Unidos, utilizarán modelos de lenguaje de Gemini para imitar o emular el estilo de respuesta de la celebridad seleccionada.