La Oficina de Patentes y Marcas de Estados Unidos reveló cuatro peticiones de patente de Apple, las cuales están relacionadas al uso de gestos manuales para interactuar con objetos virtuales al utilizar unas Vision Pro.
1. Encender lámparas con gestos
La primera de una serie de cuatro patentes se llama “Activación de elementos procesables mediante gestos manuales”.
Esta describe un sistema que trabaja de la siguiente manera: primero recoge imágenes del entorno usando una cámara. Después, el sistema busca en esas imágenes objetos con las que se pueda interactuar, y a cada una le asigna una acción diferente.
Si el sistema ve que una mano hace un movimiento específico hacia uno de esos objetos, como una señal, entonces responde llevando a cabo la acción que corresponde a ese objeto en particular.
Un ejemplo dentro del documento de la patente es el de una lámpara en el escritorio del usuario. Su luz se encendería con un simple toque de los dedos de la persona si está utilizando un aparato Head-Mounted Display (HMD) o pantalla montada en la cabeza, como Apple Vision Pro.
2. Detectar objetos fuera del campo de vista
El dispositivo Apple Vision Pro, que viene con cámaras, altavoces, procesadores y una memoria duradera, puede notificar al usuario con sonidos. Esto ocurre de la siguiente forma:
Primero, las cámaras capturan una imagen de algún lugar. El HMD reconoce si hay un objeto presente en la imagen.
Luego verifica si ese objeto no está a la vista del usuario. Si resulta que está fuera del campo visual de la persona, Apple Vision Pro utiliza los altavoces para emitir un sonido y avisarle al usuario que hay algo que no está viendo.
3. Sensores especiales
La tercera solicitud de patente presenta un sistema que funciona así:
La cámara saca fotos de lo que está alrededor de la persona. Después, el sistema del Apple Vision Pro transforma esas fotos en sonidos. Por último, estos sonidos se escuchan a través del altavoz que está conectado a la parte que se inserta en el oído.
Esto se podría implementar de las siguientes maneras:
- Traducción de señales o texto visual en audio: Apple Vision Pro podría leer y convertir señales de tráfico o menús de restaurantes en audio para el usuario.
- Interacción mejorada con la realidad aumentada: el dispositivo tendría la capacidad de proporcionar información sobre puntos de interés o negocios cercanos al usuario al pasar por ellos.
4. Avisos de bloqueo de vista
El método sencillo para identificar si algo está bloqueando la cámara en Apple Vision Pro funcionaría así:
El HMD toma una foto del lugar con su cámara. Después, se fija si algo está obstruyendo la cámara y no deja que vea bien.
A continuación, decide qué tipo de cosa está haciendo la obstrucción. Una vez que sabe qué es lo que está tapando la cámara, Apple Vision Pro utiliza sus altavoces para emitir un sonido especial que le avisa al usuario del bloqueo.
El recorrido de Apple
Apple Vision Pro fue anunciado el 5 de junio de 2023, en la Apple Worldwide Developers Conference de 2023, y estará disponible para su compra a principios de 2024 por $3.499 estadounidenses y se enviarán inicialmente aproximadamente 1.000.000 de unidades.
En 2022 circulaban rumores sobre un dispositivo de Apple, entonces llamado Reality Pro. Bloomberg informó en mayo que líderes de Apple, incluyendo a Tim Cook, vieron un prototipo.
En junio, iniciaron la búsqueda de directores para crear contenido, contratando a Jon Favreau para un programa de dinosaurios en Apple TV+.
En enero de 2023, el mismo medio señaló un retraso en el lanzamiento del dispositivo de realidad aumenta. Se reveló en abril que Apple estaba motivando a desarrolladores para crear aplicaciones para el mismo.