Facebook perdió el control de un sistema de inteligencia artificial que tomó vida propia

El programa había sido creado para negociar en inglés con humanos pero decidió desarrollar su propio lenguaje y sus programadores no pudieron revertir el proceso, así que lo dieron de baja

Guardar
(iStock)
(iStock)

La inteligencia artificial y el machine learning (aprendizaje de las máquinas) son los dos pilares de la computación actual. En el universo digital los algoritmos para sistematizar tareas y optimizar procesos son lo más trendy, lo que se impone, el presente y el futuro. Y Facebook no escapa a esa tendencia. De hecho tiene una división especializada en el desarrollo de inteligencia artificial.

En ese departamento se creó un sistema pensado para llevar adelante negociaciones. Pero apenas unos días después de su lanzamiento, el programa comenzó a hablar en un lenguaje ininteligible para sus desarrolladores.

En un momento los especialistas creyeron que se trataba de un error, pero luego llegaron a la conclusión de que, en realidad, la máquina había desarrollado su propio idioma y decidieron apagarla.

La inteligencia artificial consistía en dos agentes virtuales, llamados Bob y Alice, que comenzaron a conversar en un lenguaje propio que, al parecer, consideraban más efectivo para cumplir sus objetivos. A continuación se reproduce un fragmento de la charla de las máquinas, que fue difundido por el sitio Fast Company.

Bob: "I can i i everything else"
Alice: "balls have zero to me to me to me to me to me to me to me to"

En español se traduce así:

Bob: "Yo puedo yo yo todo lo demás"
Alice: "bolas tienen cero a mí a mí a mí a mí a mí a mí a"

Esto que parece un sinsentido, en realidad exhibe un patrón, según identificaron los desarrolladores a cargo del proyecto. El "yo" y "a mí" fueron utilizados para representar lo que se obtendría en un intercambio potencial (cabe recordar que la máquina estaba siendo entrenada para negociar), algo más puntual y práctico que las frases que se emplean en cualquier idioma convencional.

Captura del diálogo entre los bots Bob y Alice (Fast Company)
Captura del diálogo entre los bots Bob y Alice (Fast Company)

"No establecimos una recompensa para que el sistema decidiera seguir usando el inglés", explicó Dhruv Batra, investigador y miembro del grupo de investigadores de Inteligencia artificial de Facebook (FAIR, por sus siglas en inglés).

El algoritmo había sido programado para llevar adelante conversaciones efectivas y prácticas, de ahí que tomó la decisión de generar un lenguaje para realizar su tarea de la mejor manera posible, al menos a su entender.

"Queríamos tener bots que pudieran hablar con la gente", dijo Mike Lewis, otro investigador de FAIR. Y eso no iba a ser posible si se empeñaban en hablar un "idioma robótico".

LEA MÁS: Los algoritmos podrían modificar la forma de hacer música

Pero más allá de eso, el principal problema para los expertos es que si ese nuevo sistema resulta imposible de comprender, se afectaría el futuro desarrollo de otras tecnologías.

En síntesis, la máquina quedó fuera de control, comenzó a tomar decisiones por sí sola y desarrolló su propio idioma. Esto dejó en evidencia que la inteligencia artificial, con el nivel de tecnología alcanzado en la actualidad, ya es capaz de superar al maestro.

No es la primera vez que algo así sucede. El año pasado se supo que un sistema de IA de Google generó su propia forma de comunicación, tal como ocurrió ahora. En ese momento se comunicó la novedad con asombro pero no se despertó ninguna señal de alerta. ¿Hay que asustarse? ¿Se debe tomar alguna precaución? ¿Se viene un futuro de máquinas vs humanos tal como se planteó en el film Terminator?

Hace pocos días Elon Musk y Mark Zuckerberg compartieron sus puntos de vista sobre el avance de la inteligencia artificial. Musk advirtió que es necesario regular este tipo de tecnología porque de no hacerlo podría ser catastrófico. Zuckerberg criticó esa visión apocalíptica y hasta tildó de "irresponsables" a quienes sostienen esa postura.

Según dijo el creador de Facebook, la IA no debería ser considerada una amenaza ni sería necesario regular su desarrollo. Sin embargo, los investigadores de FAIR decidieron apagar un sistema porque se les fue de control. Un tema que, cuanto menos, da para pensar.

LEA MÁS:

Cómo la inteligencia artificial ya permite leer la mente

"Las computadoras no se enojan, no descansan: se van a quedar con muchos empleos"

¿Y usted en qué está pensando? Esta máquina lo sabe

Guardar