Crearon una mochila para guiar a personas con problemas de visión

Se trata de un proyecto que utiliza una cámara espacial que cuenta con un procesador de inteligencia artificial y tecnología de procesamiento de imágenes

Guardar
Mochila inteligente desarrollada por investigadores de la Universidad de Georgia
Mochila inteligente desarrollada por investigadores de la Universidad de Georgia

Investigadores de la Universidad de Georgia desarrollaron una mochila inteligente capaz de ayudar a guiar a personas con problemas de visión. El sistema contribuye a detectar obstáculos y lidiar con situaciones de la vida diaria como señales de tráfico, cruces peatonales y diferentes elevaciones.

Los sistemas de asistencia visual para la navegación que existen actualmente van desde aplicaciones de smartphones, basados en GPS y que integran asistentes de voz asistidas, así como bastones inteligente con cámaras. La idea era proveer una solución más efectiva con percepción de profundizar para permitirle al usuario manejarse con mayor independencia. Otro punto a destacar es que se trata de una solución sutil.

Cómo surgió

El proyecto surgió de la mano del desarrollador de inteligencia artificial Jagadish K. Mahendran y su equipo quienes diseñaron esta mochila que se gestiona por medio de comandos de voz y que busca ayudar a las personas con discapacidad visual, una problemática que afecta a unas 285 millones de habitantes en todo el mundo, según datos de la OMS.

“Cuando conocí a mi amigo Breean Cox, que tiene discapacidad visual, me llamó la atención la ironía de que mientras había estado enseñando a los robots a ver, hay muchas personas que no pueden ver y necesitar ayuda. Esto me motivó a construir el sistema de asistencia visual“, explicó Jagadish en el comunicado difundido con detalles de este proyecto.

Se puede colocar una cámara de inteligencia artificial espacial Luxonis OAK-D en el chaleco o en la riñonera y luego conectarla a la unidad computacional en la mochila
Se puede colocar una cámara de inteligencia artificial espacial Luxonis OAK-D en el chaleco o en la riñonera y luego conectarla a la unidad computacional en la mochila

Cómo funciona el sistema

El sistema está alojado dentro de una pequeña mochila que contiene una unidad de procesamiento, que funciona como una mini computadora portátil. A su vez, se requiere utilizar un chaleco que tiene en su interior una cámara y una riñonera cuyo propósito es sostener una batería de bolsillo capaz de proporcionar aproximadamente ocho horas de uso.

Se puede colocar una cámara de inteligencia artificial espacial Luxonis OAK-D en el chaleco o en la riñonera y luego conectarla a la unidad computacional en la mochila.

La cámara, que integra un procesador de inteligencia artificial en el chip y utiliza tecnología de procesamiento de imágenes Movidius de Intel, es capaz de ejecutar redes neuronales avanzadas mientras proporciona funciones de visión por computadora y un mapa de profundidad en tiempo real, así como información de color de una sola lente de 4k.

Se basa en visión por computadora
Se basa en visión por computadora

Los auriculares con bluetooth le permiten al usuario interactuar con el sistema mediante comandos de voz que el sistema responde con información verbal. A su vez, a medida que la persona se mueve recibe datos sobre señales de tránsito, peatones que se aproximan, desniveles, entradas, escaleras y obstáculos que pueda haber en el camino.

Se trata de un proyecto no comercial y de código abierto. La iniciativa se dará a conocer con más detalles por medio de una publicación que se hará próximamente.

El sistema está alojado dentro de una pequeña mochila que contiene una unidad de procesamiento, como una computadora portátil
El sistema está alojado dentro de una pequeña mochila que contiene una unidad de procesamiento, como una computadora portátil

Un sistema de asistencia para correr

Hace unos meses se dio a conocer un innovador proyecto basado en inteligencia artificial que permite a personas con visión reducida correr tan sólo con la asistencia de un smartphone. Se trata de una iniciativa elaborada por investigadores de Google junto con Thomas Panek, corredor y presidente de la asociación Guiding Eyes for the Blind.

Se llama Project Guideline, ya se probó con éxito y está en una etapa incipiente. El sistema se basa en la cámara del móvil que busca una guía física en el suelo y envía señales de audio según la posición en la que está el usuario.

SEGUIR LEYENDO:

Guardar