Los robots son capaces de atender restaurantes, hacer acrobacias y bailar, pero uno de los mayores desafíos es lograr que realicen actividades que requieren motricidad fina.
Por eso sorprendió el modelo que presentaron investigadores de la Universidad de Tokio en el que un robot levanta y pela una banana con ambos brazos en tres minutos.
Si bien, la máquina de dos brazos solo tiene éxito el 57 % de las veces, el índice es bastante bueno considerando las dificultades que implica que un robot realice este tipo de tareas.
Lo más interesante de este desarrollo no es que la inteligencia artificial sea capaz de pelar un fruto con éxito sino que abre una gran cantidad de posibilidades a futuro, ya que este tipo de motricidad puede servir para que los robots realicen tareas que requieran un cuidado meticuloso como trasladar pequeñas piezas de un sitio a otro, tomar y guardar objetos delicados, etc.
Los investigadores Heecheol Kim, Yoshiyuki Ohmura y Yasuo Kuniyoshi entrenaron al robot utilizando un proceso de aprendizaje automático. En este tipo de entrenamiento, se toman varias muestras para producir que datos que luego son utilizados para que el robot replique la acción.
Kuniyoshi estima que su método de entrenamiento podría ayudar a que los sistemas de IA realicen todo tipo de tareas que para los humanos pueden resultar sencillas pero requieren mucha coordinación y motricidad. Esto favorecería el uso de este tipo de tecnologías en los hogares, fábricas y todo tipo de entornos.
En los últimos años han surgido varios desarrollos que apuntan a potenciar las capacidades de robots con miras a que estas máquinas puedan aliviar muchas actividades repetitivas o rutinarias. El foco se ha puesto, como en este caso, en el entrenamiento de habilidades de coordinación, estabilidad y motricidad fina.
Tal es el caso de los investigadores de la Universidad de California, en Berkeley que crearon el algoritmo Motion2Vec, que busca conseguir que un robot sea capaz de suturar a pacientes con la precisión de un humano.
Con este objetivo, utilizaron un sistema de aprendizaje profundo semi-supervisado con el que el robot aprende mirando videos de intervenciones quirúrgicas donde se realizan suturas. Con esa información, el sistema de IA aprende a imitar los movimientos de los profesionales de la salud con el objetivo de imitarlos con precisión.
Los desarrolladores emplearon una red neuronal siamesa (siamese neural network) que consiste en el uso de dos redes idénticas que reciben dos conjuntos de datos por separado y luego de procesarlos, los compara y muestra un resultado final.
Por un lado el sistema recibe el video del médico haciendo las suturas y por el otro las grabaciones al robot practicando. Establece una comparación entre estos dos clips y así aprende a mejorar la precisión de sus movimientos.
Los videos que se emplean en el entrenamiento son parte la base de datos JIGSAWS, que reúne información de actividad quirúrgica para el modelado de movimiento humano. Los datos que forman parte de JIGSWAS fueron recolectados a través de una colaboración entre la Universidad Johns Hopkins (JHU) y Intuitive Surgical, Inc. (Sunnyvale, CA. ISI) dentro de un estudio aprobado por el IRB.
También en línea con este tipo de robots mayordomos. Hay desde modelos capaz de recoger objetos en el suelo y ordenar el caos de la casa hasta robots chef para tener como aliados en la cocina. Existen opciones para lo que se quiera imaginar pero lo cierto es que esta tecnología todavía no se ha hecho parte del cotidiano ni se ha extendido en parte porque todavía le hace falta madurar, optimizar algunas funciones y además, bajar sus valores, algo que ocurrirá cuando se extienda el uso de estos dispositivos.
SEGUIR LEYENDO: