Google revoluciona el control: ¿Te imaginas manejar tu celular solo con gestos faciales?

La compañía creó un ‘ratón’ para juegos y aplicaciones de Android que permite controlar el cursor de una computadora o un móvil mediante el movimiento de la cabeza y los gestos faciales

Project Gameface analiza los gestos visuales y de acuerdo a cada uno ofrece una acceso. (Tomado de Google)

Google anunció Project Gameface, una herramienta que permite controlar el cursor de una computadora mediante movimientos de cabeza y gestos faciales. Esta innovación fue conocida el año pasado, pero durante el evento I/O 2024 abrieron dichas funcionalidades a Android.

En un principio era dirigido especialmente a personas con discapacidades, este “ratón” manos libres emplea la cámara del dispositivo para rastrear expresiones faciales y movimientos de cabeza, facilitando así el acceso a la tecnología.

Ahora, Google quiso pasar todas estas funciones a dispositivos móviles Android, adaptándolo además en controlar aplicaciones de este sistema operativo por medio de más de 60 gestos faciales.

Cuál es la apuesta de Google con esta función

Google se basó en la experiencia de un streamer con discapacidad para diseñar esta función. (Foto: Google)

Project Gameface se inspiró en la historia del streamer de videojuegos Lance Carr, quien padece distrofia muscular, y fue desarrollado en colaboración con él, difundió Google.

Este proyecto hace que el entretenimiento sea más accesible, permitiendo acciones como levantar las cejas para hacer clic y arrastrar o abrir la boca para mover el cursor. La compañía ha dicho que varias empresas la han comenzado a usar en su software inclusivo.

Google ha explicado en su blog que esta idea inicial de mover el cursor con la cabeza ha sido adaptada para celulares Android. Utilizando la cámara frontal del móvil, la tecnología analiza las expresiones faciales y movimientos de la cabeza, traduciendo estos gestos en un control personalizado y práctico.

En dispositivos Android es la adaptación más reciente de esta función. (Foto: Google)

Esto significa que los usuarios pueden adaptar su experiencia ajustando las expresiones faciales, el tamaño de los gestos y la velocidad del cursor, entre otras opciones.

En qué se diferencia la versión PC con la móvil

En la versión para Windows, Project Gameface permitía replicar acciones comunes de clic. No obstante, la versión para Android incluye una gama más amplia de capacidades.

Los usuarios ahora pueden realizar acciones móviles soportadas globalmente, como “Inicio”, “Atrás”, “Notificaciones” y “Todas las Aplicaciones”. Además, se introdujo una mejora significativa permitiendo el arrastre en tiempo real, que facilita una interacción más versátil.

Así se ve Project Gameface en su versión PC. (Foto: Google)

Del mismo modo, para integrar Project Gameface en Android, Google ha empleado el servicio de accesibilidad del sistema operativo para crear un nuevo cursor.

También ha utilizado la API de detección de puntos de referencia faciales de su servicio MediaPipe, permitiendo que el cursor se mueva de acuerdo con los gestos faciales. Esta API reconoce 52 gestos, como levantar las cejas y abrir la boca, que pueden ser utilizados para mapear y controlar una amplia gama de funciones.

Qué acciones puedes realizar con sus gestos faciales

En un primer momento Google enfocó esta herramienta para los videojuegos, pero en este momento, las aplicaciones para Android que incluyan Project Gameface permitirán a los usuarios escribir en plataformas de mensajería instantánea controlando el cursor con movimientos de la cabeza.

Analiza más de 50 gestos faciales. (Imagen ilustrativa Infobae)

Google ha reiterado que el código fuente de Project Gameface está disponible en Github,que cualquier desarrollador pueda implementar esta tecnología en sus aplicaciones y mejorar la accesibilidad de los dispositivos Android.

Google quiere brindar mayor accesibilidad a los usuarios

Según la compañía, el diseño y desarrollo de Project Gameface para Android se basó en estos principios clave:

  • Ampliar las posibilidades de uso de dispositivos móviles a personas con discapacidad.
  • Crear una solución rentable y que se prolongue con el tiempo.
  • Usar la API de Detección de Marcadores Faciales de MediaPipe para mapear y controlar una amplia gama de funciones.

Además, se estima que los desarrolladores programen aplicaciones en las que los usuarios configuren su experiencia y personalicen expresiones faciales y gestos, ajustando el tamaño de los gestos y la velocidad del cursor.

Estas son algunas novedades que pasaron en el marco del evento anual para desarrolladores Google I/O, con otras relacionadas con la potenciación de la Inteligencia Artificial, Gemini.