En video: perros robot hacen parkour con un fin único para los humanos

Esta práctica les genera aprendizaje para desenvolverse en entornos complejos

Guardar
El robot se entrena para superficies difíciles y para alcanzar un sistema de reintento cuando no sea capaz de realizar algún movimiento a la primera. (Zipeng Fu)

La Universidad de Stanford y el Instituto Shanghai Qi Zhi han colaborado para desarrollar una nueva generación de perros robóticos. Estos no son meros juguetes, sino robots autónomos equipados con algoritmos avanzados que les permiten llevar a cabo tareas complicadas.

Según la universidad estadounidense, el robot perro es capaz de saltar, trepar, gatear y atravesar barreras físicas como nunca antes. El propósito de esta invención es que en un futuro funcionen como perros rescatistas. “Los cuadrúpedos que funcionan con baterías usarían la visión por computadora para evaluar los obstáculos y emplearían habilidades de agilidad propias de los perros para superarlos”, explicó Standford.

Con ese objetivo, los investigadores de inteligencia artificial de ambas instituciones han desarrollado un nuevo algoritmo basado en la visión que ayuda a los perros robot a escalar objetos altos, saltar a través de huecos, arrastrarse por debajo de umbrales y pasar por grietas, y luego salir corriendo. Básicamente, el algoritmo representa el cerebro del perro robot.

“La autonomía y la variedad de habilidades complejas que nuestro robot cuadrúpedo aprendió es bastante impresionante”, dijo Chelsea Finn, profesora asistente de ciencias de la computación y autora principal del artículo Aprendizaje de Parkour con robots. “Y lo hemos creado utilizando robots de bajo costo y disponibles en el mercado”, añadió.

La práctica de parkour les ayuda a optimizar su movilidad. (Zipeng Fu)
La práctica de parkour les ayuda a optimizar su movilidad. (Zipeng Fu)

De acuerdo con los investigadores, el avance fundamental radica en que el perro robótico es autónomo, lo que significa que puede evaluar desafíos físicos, imaginar soluciones y luego llevar a cabo una amplia variedad de habilidades de agilidad basadas únicamente en los obstáculos que detecta en su entorno.

El parkour autónomo requiere que los robots aprendan habilidades generalizables que se basen en la visión y sean diversas para percibir y reaccionar ante diversos escenarios.

“Lo que estamos haciendo es combinar percepción y control, utilizando imágenes de una cámara de profundidad montada en el robot y aprendizaje automático para procesar todas esas entradas y mover las piernas para pasar por encima, por debajo y alrededor de los obstáculos”, dijo Zipeng Fu, candidato a doctorado en el laboratorio de Finn y primer autor del estudio, junto con Ziwen Zhuang del Instituto Qi Zhi de Shanghai.

“Nuestros robots tienen visión y autonomía: la inteligencia atlética para evaluar un desafío y autoseleccionar y ejecutar habilidades de parkour en función de las demandas del momento”, dijo Fu.

Los enfoques de aprendizaje actuales a menudo dependen de sistemas de recompensa complicados que deben ser adaptados para situaciones físicas particulares. Por lo tanto, tienen dificultades para adaptarse eficazmente a entornos nuevos o desconocidos. Otras metodologías afines se basan en el aprendizaje mediante la utilización de datos del mundo real para emular las habilidades de agilidad observadas en otros animales.

Cuando el perro se equivoca, intenta enmendar su error a través del sistema de reintento. (Zipeng Fu)
Cuando el perro se equivoca, intenta enmendar su error a través del sistema de reintento. (Zipeng Fu)

Como resultado, esos robots no tienen las capacidades necesarias para afrontar unos entornos retadores, además su visión es limitada al igual que su algoritmo.

Los perros robots de la Universidad de Stanford y el Instituto Shanghai Qi Zhi, son los primeros con aplicación de código abierto que logra objetivos con un sistema de recompensa simple que no utiliza datos de referencia del mundo real, según lo escrito por los autores en el estudio.

Primero desarrollaron y perfeccionaron el algoritmo utilizando un modelo computacional. Luego, lo transfirieron a dos perros robots en el mundo real. Posteriormente, emplearon un proceso conocido como aprendizaje por refuerzo, en el cual los robots intentaron avanzar de la manera que consideraran apropiada y recibieron recompensas en función de su desempeño. De esta forma, el algoritmo finalmente aprendió la mejor manera de abordar nuevos desafíos.

En la práctica, la mayoría de los sistemas de recompensa en el aprendizaje por refuerzo involucran demasiadas variables, lo que puede ralentizar significativamente el rendimiento computacional. Esto hace que el enfoque de recompensas simplificadas para la agilidad de los perros robots en el parkour sea excepcional, aunque sorprendentemente sencillo.

“En realidad, es bastante simple”, dijo Finn. “Nos basamos principalmente en qué tan lejos se mueve el robot y la cantidad de esfuerzo que ha aplicado para hacerlo. Con el tiempo, el robot aprende habilidades motoras más complejas que le permiten salir adelante”.

Los robot perros lograron superar obstáculos que eran más altos que su propia altura en más de una vez y media, saltar distancias mayores que una vez y media su longitud, desplazarse por debajo de barreras que tenían una altura de tres cuartos de su propia longitud y, además, inclinarse para atravesar aberturas que eran más estrechas que su propio ancho.

Guardar