En los últimos años, la inteligencia artificial (IA), sigue avanzando generando asombro y, en algunos casos, preocupación por su posible impacto en la sociedad y el mercado laboral; no obstante, Yann LeCun, vicepresidente y director científico de inteligencia artificial asegura que esta tecnología no podrá imitar el pensamiento humano hasta después de 10 años.
Según LeCun, aunque los sistemas de inteligencia artificial pueden realizar tareas impresionantes, como predecir con gran precisión la siguiente palabra en una conversación o generar imágenes convincentes, carecen de una verdadera comprensión del mundo que los rodea.
Estos no poseen lo que él llama un “modelo del mundo”, es decir, una representación mental del entorno y las interacciones que ocurren en él. Para ilustrar este punto, LeCun compara la IA actual con un auto que puede moverse rápidamente, pero sin un destino claro o una ruta definida.
Qué tan avanzada está la inteligencia artificial
Los sistemas actuales, como los populares chatbots y generadores de imágenes, funcionan prediciendo patrones en base a los datos con los que han sido entrenados. Pueden realizar estas predicciones de manera extremadamente eficiente, pero no comprenden realmente el contenido que procesan.
De acuerdo al experto, aunque estos modelos parecen “inteligentes”, en realidad no entienden las palabras o imágenes que están manipulando. No pueden prever las consecuencias de sus acciones, algo que incluso un niño pequeño es capaz de hacer con facilidad.
Cuál es la clave para que la IA pueda imitar todas las funciones humanas
Para que la IA llegue a imitar verdaderamente las capacidades humanas, LeCun sostiene que será necesario que los sistemas de inteligencia artificial desarrollen su propio “modelo del mundo”.
En otras palabras, deberán ser capaces de formar una representación mental de su entorno, similar a la forma en que los seres humanos procesan y comprenden la información que reciben.
Un sistema con un modelo del mundo sería capaz de anticipar cómo sus acciones afectarían a su entorno, tomar decisiones más informadas y actuar de manera más inteligente. Actualmente, la IA puede procesar datos y hacer predicciones, pero no puede imaginar ni comprender las implicaciones de lo que hace.
Cuándo la inteligencia artificial podrá imitar a los humanos
LeCun es optimista sobre el futuro de la inteligencia artificial. Él estima que en aproximadamente diez años se podrían desarrollar sistemas de IA que comprendan el mundo de manera similar a los humanos. Aunque reconoce que esto es un gran desafío, cree que es posible y que podría transformar la forma en que se interactúa con la tecnología.
Para lograr este avance, se necesitarán importantes innovaciones en el campo de la IA, especialmente en la capacidad de los sistemas para aprender y adaptarse a su entorno. Esto permitirá que no solo procese información, sino que pueda tomar decisiones informadas sobre la base de una comprensión profunda de las situaciones en las que se encuentra.
Este tipo de IA sería capaz de realizar tareas mucho más complejas que las que vemos hoy en día. Imagina un asistente de IA que no solo responde preguntas o gestiona agendas, sino que también anticipa las necesidades de una persona basándose en su entorno y comportamiento.
Este avance abriría un mundo de posibilidades, desde aplicaciones en el campo de la medicina y la ingeniería, hasta la creación de robots autónomos que puedan tomar decisiones en tiempo real en entornos dinámicos.
Qué retos tiene el desarrollo de la inteligencia artificial
LeCun advierte que, aunque los avances son prometedores, todavía hay muchos desafíos por superar antes de que la IA pueda imitar todas las funciones humanas. Uno de los mayores obstáculos es la capacidad de los sistemas para aprender de manera autónoma y en tiempo real.
Los sistemas actuales de IA son extremadamente buenos en tareas específicas para las que han sido entrenados, pero no pueden adaptarse fácilmente a nuevas situaciones o aprender de manera independiente.
Otro desafío importante es la ética y la regulación. A medida que la IA avanza hacia niveles de comprensión más cercanos a los humanos, surgen preguntas sobre cómo deben ser controlados estos sistemas, y qué salvaguardias deben implementarse para evitar su uso perjudicial.