Crean gafas con inteligencia artificial para traducir lenguaje de señas

Este dispositivo también cuenta con altavoces para entender a la otra persona

El dispositivo por ahora solo puede entender letras y no frases.

La accesibilidad es uno de los campos en los que la tecnología continuamente está explorando, con el objetivo de acabar con las brecas y que todas las personas se puedan comunicar con facilidad. Un ejemplo reciente es la creación de unas gafas capaces de traducir lenguaje de señas.

Para este proyecto se ha usado una placa desarrollada por Raspberry Pi, una empresa de Reino Unido que se dedica a crear placas de computadores de bajo costo, ideales para dispositivos pequeños. Además, juntaron impresión 3D para dar vida a un producto que puede ayudar a quienes tienen cerca a personas que usan este tipo de lenguaje.

Cómo fueron creadas las gafas de traducción de lenguaje de señas

A través de Hackster.io se dieron a conocer los detalles de este desarrollo, que usa inteligencia artificial y que todavía tiene algunas cosas por mejorar para adaptarse a contextos de uso real.

Crean unas gafas de traducción que usan IA para entender las letras y que la persona escuche por medio de un altavoz. (hackster.io)

Para darle vida a sus funciones, se utilizó una placa llamada Raspberry Pi Zero 2, que permite tener un buen rendimiento a un bajo costo, además de tener un tamaño muy pequeño. Con este procesamiento fue posible procesar diferentes capas de imágenes a través de un módulo de cámaras y ejecutar algoritmos de reconocimiento entrenados específicamente para detectar y analizar los gestos de las manos.

De esta forma, la cámara se ubica entre los lentes de las gafas y empieza a registrar los movimientos de la persona que está al frente. Estos datos visuales son enviados a la Raspberry Pi, donde son procesados a través de algoritmos de visión por computadora.

Aquí es donde entra en juego la inteligencia artificial. Un sistema entrenado meticulosamente reconoce los gestos de las manos y los correlaciona con las letras del alfabeto de lenguaje de señas. Este proceso de traducción es crucial para la comprensión, ya que permite que las señas se conviertan en voz a través de un sistema de conversión de texto a voz.

Crean unas gafas de traducción que usan IA para entender las letras y que la persona escuche por medio de un altavoz. (hackster.io)

La capacidad de adaptación y aprendizaje de estos algoritmos permite una mejora continua en la precisión y fluidez de la traducción, dando la oportunidad de tener una comunicación más natural y fluida.

El usuario Nekhill, quien compartió todo el proceso de desarrollo, aseguró que el reto más grande fue encontrar todos los componentes de hardware ideales para ensamblarlos en un espacio tan pequeño, como el de unas gafas, cuyo marco fue impreso en 3D.

Además del módulo de cámara y la placa Raspberry Pi, se incluyeron elementos como un altavoz de 3W, una tarjeta de sonido USB y un amplificador para garantizar una experiencia auditiva óptima.

Si bien estas gafas representan un avance significativo en la accesibilidad para personas con discapacidad del habla, aún hay desafíos por delante. El sistema actual solo es capaz de traducir letras individuales, no frases completas, lo que limita su utilidad en ciertos contextos.

Sin embargo, esta tecnología tiene un gran potencial, teniendo en cuenta que no todas las personas entienden el lenguaje de señas, es una alternativa ideal para poder comunicarse con quienes tienen discapacidad auditiva o verbal.

Crean unas gafas de traducción que usan IA para entender las letras y que la persona escuche por medio de un altavoz. (hackster.io)

Personas con discapacidad visual ahora pueden sentir un eclipse

Un grupo de investigadores desarrolló una tecnología que le permitirá a las personas con discapacidad visual disfruten y sientan un eclipse en tiempo real.

La tecnología, conocida como LightSound, ha sido desarrollada a través de una colaboración entre la astrónoma de Harvard, Allyson Bieryla, y la astrónoma ciega, Wanda Díaz-Merced. Este dispositivo se ha diseñado específicamente para permitir a las personas ciegas o con discapacidad visual experimentar un eclipse solar de una manera completamente nueva y cercana.

El funcionamiento de este dispositivo consiste en que cuando la luz del Sol está presente, el aparato emite un tono musical agudo. A medida que la Luna comienza a bloquear progresivamente la luz del Sol, este tono va descendiendo gradualmente. Cuando la luz está completamente bloqueada, el dispositivo comienza a emitir una serie de chasquidos, proporcionando una representación sonora de la oscuridad durante el eclipse.