Esta actuación allana el camino a futuros desarrollos informáticos orientados a resolver tareas de la vida diaria, pero también a participar en el tratamiento de algunas cuestiones importantes (clima, salud) que impliquen el uso de grandes cantidades de datos, aseguran los creadores de este algoritmo, quienes publicaron sus trabajos en la revista Nature.
"Es la primera vez que concebimos un sistema de aprendizaje general único, que sea capaz de aprender directamente a partir de la experiencia para dominar a continuación una amplia gama de tareas difíciles", declaró Demis Hassabis, cofundador de DeepMind, durante una rueda de prensa en Londres, retransmitida por Nature.
Esta compañía británica, adquirida en 2014 por el gigante norteamericano de internet, presentó los resultados de su nuevo sistema, que conjuga varias técnicas de aprendizaje informático con mecanismos inspirados en el funcionamiento de las redes neuronales.
A partir de informaciones mínimas, este "agente de inteligencia artificial", bautizado DQN (deep-Q-network) consiguió aprender solo varios videojuegos mediante la experiencia, hasta el punto de igualar e incluso superar a los humanos en gran parte de los casos.
Así, el sistema se mostró mejor que un jugador experimentado en 29 juegos clásicos desarrollados por el japonés Atari, especialmente iSpace Invaders/i y iBreakout/i. Pero, por el momento, no es tan bueno en otros 20, como iMs Pac Man/i.
Dieciocho años después de la victoria de la supercomputadora Deep Blue contra el entonces campeón del mundo de ajedrez, el ruso Gary Kasparov, y cuatro años después de la del programa informático Watson en un juego televisado en Estados Unidos, este anuncio marca un nuevo paso importante en el campo de la inteligencia artificial.
DQN experimentó con juegos de finales de los años 1970 y los años 1980. "Ahora vamos hacia los juegos de los años 1990. Nos orientamos hacia juegos en 3D, lo que es mucho más complicado", reconoció Demis Hassabis. "Llegaremos en cinco años", sentenció.