Las gafas inteligentes Ray-Ban Meta están a punto de recibir potentes actualizaciones gracias a las mejoras en el asistente de inteligencia artificial desarrollado por la compañía de Mark Zuckerberg, quien en varias ocasiones ha hecho algunas demostraciones de las capacidades de estos lentes desde su cuenta de Instagram.
En su publicación más reciente, el magnate puso a prueba las nuevas capacidades de IA multimodal que le permiten al dispositivo responder preguntas basadas en su entorno.
De hecho, Zuckerberg, aprovechó para pedirle recomendaciones a sus gafas inteligentes para combinar su vestuario.
Y con solo decir: “Hey Meta. Mira y dime qué pantalón usar con esta camisa”.
El asistente respondió: “Según la imagen, la camisa parece tener rayas. Un par de jeans oscuros o pantalones de un color sólido complementarían bien esta camisa”.
El CEO de la compañía, que concentra a Facebook, Instagram y WhatsApp, no es ajeno a los divertidos memes que constantemente se publican en sus redes sociales y de hecho, también utilizó las Ray-Ban Meta para entender que decía uno de estos que estaba en español.
Zuckerberg de nuevo recurrió al asistente de los lentes para solucionar esta situación. “Hey Meta. Mira y dime qué dice este meme en inglés” solicitó el magnate.
A lo que el dispositivo respondió “claro, esto es lo que dice el texto de la imagen en inglés. Oiga instructor, ¿puedo llevar mis proteínas al gimnasio? Sí, claro, no hay problema”.
El texto venía acompañado de una imagen de un asador con carne en medio de un gimnasio.
Meta trae novedades a sus experiencias de IA
Los usuarios en Estados Unidos ya pueden experimentar y ofrecer retroalimentación sobre las capacidades multimodales que permiten interactuar con Meta AI, no solo a través de comandos de voz, sino también entendiendo lo que ven mediante la cámara integrada.
Esta innovación tecnológica se encuentra ya en fase de prueba con la promesa de mejorar la experiencia de manos libres y la integración de la asistencia por voz en la vida cotidiana.
Los participantes del programa de acceso temprano tendrán la oportunidad de ayudar a afinar estas capacidades impulsadas por IA, como la solicitud de ayuda a Meta AI para redactar títulos para fotografías o describir objetos visualizados.
La marca recuerda a los usuarios que las funciones pueden no funcionar perfectamente durante las pruebas, pero sus comentarios serán valiosos para el desarrollo futuro.
Las inscripciones están abiertas a través de la aplicación Meta View, disponible en iOS y Android, asegurándose los usuarios de contar con la versión más reciente tanto en la app como en las gafas.
Además, Ray-Ban Meta ha comenzado a implementar nuevas actualizaciones que permiten a las gafas obtener información en tiempo real utilizando parcialmente el motor de búsqueda Bing.
Los usuarios pueden consultar sobre resultados deportivos, datos de interés local, entre otros, enriqueciendo así la funcionalidad de las gafas inteligentes. Esta implementación se realiza en fases y actualmente está dirigida a clientes en EE.UU.
Meta AI busca ofrecer respuestas más detalladas en diversos servicios
El asistente Meta AI ahora desempeña un papel esencial no solo en la interacción directa con el usuario, sino también en el engranaje interno de las plataformas como Facebook e Instagram, donde facilita una experiencia de usuario más atractiva y eficientemente asistida.
La tecnología de modelo de lenguaje también se aplica para crear sugerencias de comentarios generados por IA y temas de chat en grupos, específicamente en mercados de habla inglesa.
Además, esta inteligencia artificial optimiza textos en las Tiendas y potencia una innovadora plataforma creativa denominada imagine with Meta AI.
Además, la asistencia se ha extendido al uso cotidiano de productos asociados, como las mencionadas gafas inteligentes, por medio de comandos de voz sencillos como “Hey Meta”.