Un estudio reciente publicado por la Universidad de Cornell (Estados Unidos) y que pone a prueba la capacidad de distintos programas de inteligencia artificial para superar el llamado “Test de Turing”, una evaluación en la que se pone a prueba a una computadora y su capacidad para imitar el comportamiento de un humano.
Por medio de un chat virtual, las 652 personas que formaron parte del estudio tuvieron que completar hasta 1.810 evaluaciones y determinar si las respuestas a una serie de preguntas fueron generadas por un humano o por una inteligencia artificial que intenta imitar a uno.
Los investigadores, Cameron Jones y Benjamin Bergen, usaron una selección de hasta 25 grandes modelos de lenguaje (LLM) diferentes que incluyeron a las diferentes versiones de ChatGPT, incluido GPT-4, además de otros programas, quienes fueron sometidos a esta evaluación y dieron como resultado una cercanía máxima de 41% a un comportamiento similar a una persona real.
La evaluación, que consistió en que los humanos interactúen con un chat por un periodo máximo de 5 minutos y con mensajes con una extensión no superior a 300 caracteres, indicó que una inteligencia artificial clásica, como la denominada ELIZA, solo pasa el test un 27% de las veces, mientras que modelos como GPT-3.5 (creado por OpenAI) apenas supera el 14%.
Sin embargo, el resultado más cercano al comportamiento humano lo tiene GPT-4, también creado por OpenAI, con un porcentaje de éxito de 41%. Esto quiere decir que de todas las evaluaciones a las que fue expuesta la inteligencia artificial, pudo “engañar” a un humano en 41 de cada 100 intentos.
Si bien el Test de Turing indica que el objetivo “ideal” es que una inteligencia artificial logre superar la evaluación al menos el 50% (o incluso el 70%) de las veces, y que GPT-4 aún no llega a esa cifra (pese a que está muy cerca del mínimo), la tasa de éxito refleja la diferencia en las capacidades entre GPT (programa gratuito) y GPT-4 (sofware de pago).
Aunque de momento no exista un modelo de inteligencia artificial que sea capaz de superar a GPT-4, sí se sabe que ya existen intentos de crear un software mejorado, por lo que es altamente probable que esta hipotética nueva IA pueda acercarse al 50% de éxito en imitación del comportamiento humano.
La inteligencia artificial puede salirse de control
En una reciente entrada en su blog GatesNotes, Bill Gates, cofundador de Microsoft sostuvo que, aunque es posible que una inteligencia artificial (IA) llegue a considerar a los humanos una amenaza, la probabilidad de que esto ocurra no es inminente.
La teoría planteada por Gates sigue la línea de Sam Altman, actual CEO de OpenAI, que indicó que los sistemas de IA creados por su compañía no ejecutan ninguna acción sin órdenes humanas previas. Por su parte Gates alertó sobre el peligro potencial de emplear la inteligencia artificial en el ámbito militar y sugirió que una medida positiva en este aspecto sería una regulación rigurosa respecto a sus aplicaciones.
Además de compartir preocupaciones sobre el uso militar de la inteligencia artificial, Gates también se mostró optimista para el futuro al considerar que los límites actuales de este tipo de tecnologías serán superados antes de lo imaginado, por lo que en general una inteligencia artificial difícilmente pueda salirse de control para pasar a representar una amenaza para la humanidad y su desarrollo.
Pese al riesgo existente, Gates insiste en que el desarrollo conseguido es positivo y que estos primeros pasos de la humanidad en la creación de inteligencias artificiales es solo el comienzo de una era en la que estas consciencias digitales podrán mostrar de lo que son capaces. “Cualquiera que sean las que tienen ahora, desaparecerán antes de que nos demos cuenta”, aseguró.