Descubre la nueva función de Google para hacer consultas con video y voz

La aplicación Google Lens usa la tecnología de Gemini para hacer preguntas contextuales, como saber una receta mostrándole los ingredientes

Guardar
Google ha integrado nuevas funciones
Google ha integrado nuevas funciones en su buscador con las que ayudará a los usuarios a resolver situaciones cotidianas como un daño en el hogar o conocer la historia de un monumento. (GOOGLE)

Google Lens cuenta con una nueva herramienta impulsada por la inteligencia artificial Gemini. Esta actualización permite a los usuarios realizar consultas a través de video y audio, ofreciendo respuestas más precisas y contextualizadas, ampliando sus opciones que hasta ahora se centraban únicamente en imagen y texto.

Esta aplicación ha crecido en el último tiempo debido a la facilidad que le da a los usuarios de encontrar información detallada sobre objetos, monumentos, textos y más, simplemente capturando una imagen. La integración de la inteligencia artificial ha permitido que Lens interprete y analice las fotos de manera efectiva, proporcionando datos relevantes en segundos.

Cómo usar Google Lens para buscar con video y audio

La nueva función, anunciada y desplegada recientemente, permite a los usuarios grabar videos y agregar contexto de voz a sus búsquedas. Anteriormente, Google Lens solo permitía realizar búsquedas a través de fotografías, ya sea capturadas en el momento o desde la galería del dispositivo.

Google ha integrado nuevas funciones
Google ha integrado nuevas funciones en su buscador con las que ayudará a los usuarios a resolver situaciones cotidianas como un daño en el hogar o conocer la historia de un monumento. (Google)

Ahora, los usuarios pueden mantener presionado el botón de búsqueda para grabar un video y hablar, explicando lo que desean saber.

Esta característica se activa al mantener pulsado el icono de búsqueda con forma de lupa en Google Lens. Una vez activada, se notifica al usuario que debe hablar “para preguntar sobre esta imagen”. Por ejemplo, al grabar un plato con varios arándanos y preguntar en voz alta cuántos de estos frutos hay frente a la cámara, la IA analiza tanto la imagen como el audio para ofrecer una respuesta precisa.

La integración de la inteligencia artificial se hace a través de Gemini. El modelo de lenguaje estudia la imagen y analiza el audio proporcionado, utilizando técnicas avanzadas de procesamiento del lenguaje natural y visión por computadora. Esto significa que puede interpretar el contexto de la consulta de una manera más completa, proporcionando respuestas que tienen en cuenta tanto lo que se ve como lo que se escucha.

Esta capacidad es especialmente útil en situaciones donde una imagen por sí sola no proporciona suficiente contexto. Por ejemplo, si un electrodoméstico está fallando, un usuario puede grabar un video del dispositivo y explicar verbalmente el problema. La IA puede entonces proporcionar sugerencias para la solución del problema, guías de reparación, o incluso enlaces a productos de reemplazo si la reparación es demasiado costosa.

Google ha integrado nuevas funciones
Google ha integrado nuevas funciones en su buscador con las que ayudará a los usuarios a resolver situaciones cotidianas como un daño en el hogar o conocer la historia de un monumento. (Imagen Ilustrativa Infobae)

Google ha comenzado a implementar esta nueva función de manera global en dispositivos Android. Según Mishaal Rahman, un analista y experto, la característica ya está disponible en todos los teléfonos con este sistema operativo. Pero para asegurarse de tener acceso a esta función, los usuarios deben actualizar la aplicación Google Lens a su versión más reciente.

La implementación de esta funcionalidad se realiza a través de una actualización del servidor, lo que significa que los usuarios no necesitan descargar una actualización específica desde la Play Store. Sin embargo, es recomendable mantener las aplicaciones actualizadas para garantizar que se reciba esta y otras futuras mejoras.

Además de la capacidad de búsqueda por video y voz, Google ha introducido varias mejoras recientes en Google Lens. Una de las más notables es la vista de cuadrícula, que permite a los usuarios rastrear fácilmente su historial de búsquedas de imágenes. También se está trabajando en la funcionalidad Circle to Search, que promete hacer las búsquedas aún más intuitivas.

Google ha integrado nuevas funciones
Google ha integrado nuevas funciones en su buscador con las que ayudará a los usuarios a resolver situaciones cotidianas como un daño en el hogar o conocer la historia de un monumento. (Imagen Ilustrativa Infobae)

En qué momentos vale la pena usar la búsqueda por video y voz

Las posibilidades de uso de esta nueva funcionalidad son prácticamente ilimitadas. Los usuarios pueden emplear la función de video y voz para obtener información más detallada y relevante en una variedad de contextos. Algunos ejemplos incluyen:

  • Averías de electrodomésticos: grabar un video de un electrodoméstico defectuoso y explicar el problema para recibir guías de reparación o sugerencias de productos de reemplazo.
  • Recetas de cocina: grabar los ingredientes de una receta y preguntar sobre su preparación para recibir instrucciones detalladas.
  • Manualidades y proyectos DIY: explicar un proyecto mientras se graba un video de los materiales y herramientas necesarios para recibir guías paso a paso.
  • Información sobre monumentos y lugares: grabar un video de un lugar histórico y preguntar sobre su historia y detalles relevantes.
Guardar