Un modelo de IA desarrollado por la tecnológica estadounidense, NVIDIA enseña a los robots habilidades complejas que hasta ahora solo habían estado en el rango de las capacidades de los humanos.
Este agente de inteligencia artificial es impulsado por GPT-4 y escribe de forma autónoma algoritmos de recompensa para entrenar a cualquier tipo de robot, como cuadrúpedos, bípedos, quadrotores, manos diestras y brazos de robots colaborativos (Cobots); en actividades como a abrir cajones, usar tijeras, atrapar pelotas y casi 30 tareas diferentes.
Este innovador aprendizaje por refuerzo es un tipo de aprendizaje automático que permite a los agentes aprender de sus propias acciones y retroalimentación. Y el mejor ejemplo de estas capacidades se evidenció en cómo Eureka pudo enseñar a una mano robótica a hacer trucos con un bolígrafo tan bien como un humano.
Cómo funciona Eureka
Los investigadores afirman que los algoritmos de recompensa generados por Eureka superan a los escritos por expertos humanos en más del 80% de las tareas, lo que lleva a una mejora del rendimiento promedio de más del 50% para los robots.
Esta inteligencia artificial funciona con tecnologías de simulación aceleradas por GPU de NVIDIA, como Isaac Gym que es una aplicación de referencia de simulación física para investigación en aprendizaje por refuerzo; y Omniverse, que es una plataforma de desarrollo para la construcción de herramientas y aplicaciones 3D basadas en el marco OpenUSD.
Herramientas que le permiten a este modelo de IA puede evaluar rápidamente la calidad de grandes lotes de candidatos de recompensa para un entrenamiento más eficiente.
De hecho, Eureka es capaz de construir un resumen de las estadísticas clave a partir de los resultados del entrenamiento e instruye a su modelo de lenguaje para mejorar su generación de funciones de recompensa. De esta manera, la IA se mejora a sí misma.
Los investigadores afirman que Eureka es un primer paso hacia el desarrollo de nuevos algoritmos que integran métodos de aprendizaje generativo y por refuerzo para resolver tareas difíciles. También pronostican que esta tecnología permitirá el control de robots diestros y proporcionará una nueva forma de producir animaciones físicamente realistas para los artistas.
Avances y preocupaciones
La idea de que los robots enseñen a los robots está generando un mayor interés y éxito. Un artículo publicado en la revista Transactions on Machine Learning Research presentó un nuevo sistema llamado SKILL (Shared Knowledge Lifelong Learning), que permitió a los sistemas de inteligencia artificial aprender 102 habilidades diferentes, incluido el diagnóstico de enfermedades a partir de radiografías de tórax y la identificación de especies de flores.
Estos modelos compartieron sus conocimientos, actuando en cierto modo como profesores, a través de una red de comunicación y pudieron dominar cada una de las 102 habilidades. Además, investigadores de escuelas como el MIT y la Universidad de Brístol también han tenido éxito, específicamente en el uso de IA para enseñar a los robots a manipular objetos.
Sin embargo, la incorporación de la inteligencia artificial en la robótica plantea diversos temores y preocupaciones en la sociedad, cómo:
- Desempleo y reemplazo de trabajadores: Uno de los temores más prominentes es que la automatización impulsada por la IA podría resultar en la pérdida de empleos para trabajadores humanos. Los robots y sistemas automatizados tienen el potencial de realizar tareas repetitivas y rutinarias de manera más eficiente que los seres humanos, lo que podría llevar a la obsolescencia de ciertos puestos de trabajo.
A medida que la IA avanza, existe la preocupación de que pueda superar no solo la fuerza física humana, sino también habilidades cognitivas y creativas. Esto podría afectar a profesionales en campos como la medicina, el derecho y la creatividad artística.
- Control y autonomía: La preocupación de que los sistemas de IA y robots puedan volverse demasiado autónomos y escapar al control humano es una inquietud legítima. Los escenarios de robots autónomos tomando decisiones por sí mismos, especialmente en aplicaciones militares, pueden generar temores sobre la falta de control y supervisión.
- Seguridad y ciberataques: La IA en la robótica puede ser vulnerable a ciberataques y piratería informática. Si los sistemas autónomos o semiautónomos caen en manos equivocadas, podrían utilizarse para fines maliciosos, lo que plantea preocupaciones sobre la seguridad nacional y la privacidad.
- Desarrollo no ético: La preocupación por el desarrollo no ético de la IA es una preocupación importante. Si no se implementa y regula adecuadamente, la IA podría utilizarse de manera inapropiada o discriminatoria, lo que podría tener efectos negativos en la sociedad.
-Dependencia excesiva: La dependencia excesiva de la IA y la automatización podría hacer que las personas se vuelvan menos competentes en la realización de tareas manuales o cognitivas por sí mismas, lo que podría tener un impacto negativo en la autonomía y las habilidades humanas.
- Sesgo y discriminación: Los sistemas de IA pueden aprender sesgos y prejuicios presentes en los datos con los que son entrenados. Esto podría llevar a decisiones discriminatorias o injustas en aplicaciones como la selección de personal o la toma de decisiones judiciales.