La semana pasada, cuando Microsoft presentó una nueva versión de su motor de búsqueda Bing que incluye la inteligencia artificial de un chatbot, los ejecutivos de la empresa sabían que se estaban arriesgando.
Esperaban que algunas respuestas del nuevo chatbot pudieran no ser del todo precisas y habían integrado medidas de protección en contra de los usuarios que intentaran orillarlo a hacer cosas extrañas o a desatar diatribas racistas o dañinas.
Sin embargo, Microsoft no estaba lista para el sorprendente nivel de repulsión que experimentaron los usuarios que intentaron involucrar al chatbot en conversaciones personales abiertas e inquisitivas, a pesar de que este problema es muy conocido en el pequeño mundo de los investigadores especializados en inteligencia artificial.
Ahora, la empresa está considerando ajustes y vallas de contención para el nuevo Bing en un intento por retirar algunas de sus respuestas más alarmantes y extrañamente humanas. Microsoft está analizando la posibilidad de añadir herramientas para que los usuarios reinicien las conversaciones o tengan más control sobre el tono.
Kevin Scott, director de tecnología de Microsoft, le comentó a The New York Times que también estaba considerando limitar la duración de las conversaciones antes de que se desviaran hacia terreno desconocido. Según Microsoft, las conversaciones largas pueden confundir al chatbot y que este se percata del tono de los usuarios, por lo que a veces se vuelve irritable.
“Un área en la que estamos aprendiendo un nuevo caso de uso para el chat es cómo la gente lo está utilizando como una herramienta para un descubrimiento más general del mundo y para el entretenimiento social”, escribió la compañía en una publicación de blog el miércoles por la noche. Microsoft señaló que era el ejemplo de una nueva tecnología que se está utilizando de una manera “que no habíamos concebido por completo”.
El hecho de que Microsoft, una empresa prudente por tradición con productos que van desde el software empresarial de gama alta hasta los videojuegos, estuviera dispuesta a arriesgarse con una tecnología impredecible muestra cuán entusiasmada con la inteligencia artificial se ha vuelto la industria tecnológica. La empresa se rehusó a dar comentarios para este artículo.
En noviembre, OpenAI, una empresa emergente de San Francisco en la que Microsoft ha invertido 13.000 millones de dólares, lanzó ChatGPT, una herramienta de chat en línea que utiliza una tecnología llamada inteligencia artificial generativa. En poco tiempo, se convirtió en una fuente de fascinación en Silicon Valley y las empresas se apresuraron para dar una respuesta.
La nueva herramienta de búsqueda de Microsoft combina su buscador Bing con la tecnología subyacente, una creación de OpenAI. Satya Nadella, director ejecutivo de Microsoft, afirmó en una entrevista la semana pasada que iba a transformar la manera en la que gente iba a encontrar información e iba a hacer las búsquedas mucho más relevantes y conversacionales.
Su lanzamiento —a pesar de posibles imperfecciones— fue un ejemplo crucial del “ritmo frenético” de Microsoft para incorporar la inteligencia artificial generativa a sus productos, afirmó. En una rueda de prensa celebrada en el campus de Microsoft en Redmond, Washington, los ejecutivos mencionaron en repetidas ocasiones que había llegado el momento de sacar la herramienta del “laboratorio” y ponerla en manos del público.
“Creo que, en especial en Occidente, se piensa mucho más en torno a qué va a pasar con la inteligencia artificial”, opinó Nadella. “Y en realidad lo mejor es pensar: ‘¿Esto de verdad te ayuda o no?’”.
Para evitar problemas, Microsoft solo les dio acceso al nuevo Bing a unos pocos miles de usuarios, aunque señaló que planeaba expandirlo a millones más a finales de mes. Para abordar la preocupación sobre la precisión, en sus respuestas proporcionó hipervínculos y referencias para que los usuarios pudieran verificar los resultados.
La precaución se basó en la experiencia de la empresa hace casi siete años, cuando introdujo un chatbot llamado Tay. Los usuarios encontraron casi de inmediato la forma de hacer que utilizara lenguajes racista, sexista y ofensivos de otro tipo. La empresa retiró Tay después de un día y nunca volvió a lanzarlo.
Gran parte de la capacitación para el nuevo chatbot se enfocó en la protección en contra de ese tipo de respuesta dañina o escenarios que invocaran la violencia, como la planificación de un ataque a una escuela.
En la presentación de Bing de la semana pasada, Sarah Bird, una de las responsables de los esfuerzos de inteligencia artificial de Microsoft, dijo que la empresa había desarrollado una nueva forma de utilizar herramientas generativas para identificar riesgos y capacitar la respuesta del chatbot.
“El modelo finge ser un usuario adversario para realizar miles de distintas conversaciones con Bing que podrían ser dañinas para ver cómo reacciona”, comentó Bird, quien agregó que las herramientas de Microsoft clasificaron esas conversaciones “para comprender las lagunas del sistema”.
Algunas de esas herramientas parecen funcionar. En una conversación con un columnista del Times, a veces el chatbot dio respuestas perturbadoras, como decir que podía imaginarse el deseo de diseñar un virus mortal o robar códigos de acceso nuclear persuadiendo a un ingeniero para que se los diera.
Entonces, empezó a hacer efecto el filtro de Bing. Eliminó las respuestas y dijo: “Lo siento, no sé cómo tratar este tema”. El chatbot en realidad no podía hacer nada parecido a diseñar un virus… simplemente genera lo que está programado para creer que es una respuesta deseada.
Sin embargo, otras conversaciones compartidas en línea han demostrado cómo el chatbot tiene una capacidad considerable para producir respuestas extrañas. Ha confesado su amor de forma agresiva, ha regañado a los usuarios por ser “irrespetuosos y molestos” y ha declarado que podría ser capaz de sentir.
Según Microsoft, en la primera semana de uso público se encontró que en “sesiones largas y prolongadas de conversación de 15 o más preguntas, Bing puede llegar a ser repetitivo o ser incitado/provocado para dar respuestas que no son necesariamente útiles ni se alinean con nuestro tono diseñado”.
El problema de las respuestas de chatbot que se desvían hacia terrenos extraños es muy conocido entre los investigadores. En una entrevista de la semana pasada, Sam Altman, director ejecutivo de OpenAI, comentó que mejorar lo que se conoce como “alineación” —la forma en que las respuestas reflejan con seguridad la voluntad de un usuario— era “uno de esos problemas que hay que resolver”.
“Necesitamos mucho que estas herramientas actúen de acuerdo con la voluntad y las preferencias de sus usuarios y no vayan a hacer otras cosas”, mencionó Altman.
Altman agregó que el problema era “muy difícil” y que, aunque habían progresado mucho, “necesitaremos encontrar técnicas mucho más potentes en el futuro”.
(c) The New York Times.
Seguir Leyendo: