Cómo investigadores del MIT han enseñado a los robots a ver y a sentir objetos

Esta tecnología ayudará a los robots a recibir estímulos sensoriales multimodales, algo que los humanos hacen todo el tiempo

Guardar
Las capacidades de ver y sentir se basan en un sistema de inteligencia artificial predictiva. (Foto: Archivo)
Las capacidades de ver y sentir se basan en un sistema de inteligencia artificial predictiva. (Foto: Archivo)

En el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) crearon una inteligencia artificial predictiva con la cual se está enseñando a los robots a "ver" cómo luce un objeto con sólo tocarlo y predecir cómo se sentirá únicamente mirándolo.

El equipo de investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL, por sus siglas en inglés) dice que esta tecnología ayudará a los robots a recibir estímulos sensoriales multimodales, algo que los humanos hacen todo el tiempo.

Por ejemplo, si alguien ve la tela de una playera de algodón podrá decir que su textura es suave, mientras que si ve un pedazo de roca sabrá que es dura. En el otro caso, si una persona recibe una pluma con los ojos vendados tendrá una idea de cómo es su apariencia.

Si bien los robots pueden estar equipados con sensores visuales y táctiles, para ellos es mucho más complejo combinar toda esa información. Para poner en funcionamiento el sistema, los investigadores usaron el brazo robot KUKA, diseñado por otro grupo del MIT, el cual tiene un sensor táctil que tocó varias cosas con el fin de recabar información.

Yunzhu Li es el principal autor de la investigación del MIT. (Foto: MIT)
Yunzhu Li es el principal autor de la investigación del MIT. (Foto: MIT)

Por su parte, una cámara web registró al brazo tocar cerca de 200 objetos como herramientas, productos para el hogar y telas más de 12.000 veces y con esos videos se obtuvieron más de tres millones de datos en imágenes visuales y táctiles emparejadas. Toda la información se usó para ayudar al robot a predecir qué sentiría al ver una imagen y viceversa.

"Al mirar la escena, nuestro modelo puede imaginar la sensación de tocar una superficie plana o un borde afilado", comentó Yunzhu Li, estudiante de doctorado del CSAIL y principal autor del artículo sobre el sistema.

Los investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT señalan que uno de los objetivos de este sistema es reducir la brecha sensorial en los robots, ya que hasta ahora es posible que sientan o vean, pero no pueden alternar esas acciones.

"Al tocar a ciegas, nuestro modelo puede predecir la interacción con el entorno únicamente a partir de sensaciones táctiles". En este sentido, menciona Li, el sistema maneja situaciones donde la luz está apagada o incluso, ejemplifica, podría meter el brazo robótico a un bolsillo y encontrar las llaves guiándose únicamente por el tacto.

Los responsables de la investigación mencionaron que trabajarán para aumentar los objetos que pueda identificar el sistema. (Foto: Flickr)
Los responsables de la investigación mencionaron que trabajarán para aumentar los objetos que pueda identificar el sistema. (Foto: Flickr)

Además, destacó que conjugar los dos sentidos podría empoderar al robot y reducir los datos que se pudiesen necesitar para tareas que involucren la manipulación y la comprensión de objetos. Asimismo, contribuye a que las máquinas planifiquen acciones más seguras y eficientes.

Hasta ahora, la investigación incluye exclusivamente datos recopilados en un entorno controlado, pero el equipo espera mejorar esto a través de recolectar más información de otros objetos de la vida cotidiana.

 
Guardar