La inteligencia artificial va a pasos agigantados, hasta el punto de que los últimos desarrollos tecnológicos en su área ya han logrado crear redes neuronales que saben cuando no se puede confiar en ellas.
Estas redes neuronales de aprendizaje profundo están diseñadas para imitar al cerebro humano y permiten sopesar diferentes factores al mismo tiempo, determinando patrones en bases de datos a un nivel que los humanos no son capaces de analizar.
Algo que es supremamente importante porque en la actualidad la inteligencia artificial es usada en distintos campos que afectan directamente la vida humana, como la conducción automática de autos, aviones o sistemas completos de transporte, también en diagnostico médicos y procedimientos quirúrgicos.
Lejos de imaginarnos a la inteligencia artificial como un humanoide destructor como los de Yo, Robot, o como los infames perros de Black Mirror, las máquinas que actúan de manera autónoma ya están dentro de nuestra cotidianidad y que puedan ser más acertadas en sus predicciones e incluso saber cuando están fallando es vital para mejorar su funcionamiento y evitar, siguiendo con los ejemplos de ciencia ficción, una catástrofe nuclear como la causada por Skynet en la saga de Terminator.
“Necesitamos la capacidad no solo de tener modelos de alto rendimiento, sino también de comprender cuándo no podemos confiar en esos modelos”, dice al respecto el científico informático Alexander Amini del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL).
Amini, junto con la científica informática Daniela Rus, hacen parte de un equipo que avanza en el desarrollo de estas redes neuronales, avanzando la tecnología como nunca antes en su campo.
Su objetivo es generar una autoconciencia de la confiabilidad en la inteligencia artificial, algo que han bautizado como “regresión probatoria profunda”. Para lograrlo basa su puntuación en la calidad de los datos disponibles con los que tiene que trabajar: entre más precisos y completos sean los datos, más probables es que funciones las predicciones futuras.
Esta nueva red representa un avance en tecnología similar desarrollada hasta la fecha pues es más rápida en su funcionamiento y tiene menores demandas informáticas. La ejecución de la red se puede completar al mismo tiempo que una decisión humana con un nivel de confianza establecido.
“Esta idea es importante y aplicable en general. Puede utilizarse para evaluar productos que se basan en modelos aprendidos. Al estimar la incertidumbre de un modelo aprendido, también aprendemos cuánto error esperar del modelo y qué datos faltantes podrían mejorar el modelo”, dice Daniel Rus.
El equipo de investigadores lo explica comparándolo con un automóvil que tiene diferentes niveles de certeza, por ejemplo, ante la decisión de tomar o no un cruce o esperar, en caso de que la red neuronal tenga menos confianza en sus predicciones. La red incluso incluye consejos de como mejorar sus datos para hacer predicciones más acertadas.
El sistema fue probado haciéndolo juzgar las profundidades en diferentes partes de una imagen, del mismo modo en que un automóvil autónomo juzga la distancia. El comportamiento fue óptimo, pues al tiempo que estimó su propia incertidumbre, pudo marcar los momentos en que encontró fuera de su ámbito habitual.
“Estamos empezando a ver muchos más de estos modelos [de redes neuronales] salir del laboratorio de investigación y entrar en el mundo real, en situaciones que afectan a los humanos con consecuencias potencialmente mortales”, dice Amini .
“Cualquier usuario del método, ya sea un médico o una persona en el asiento del pasajero de un vehículo, debe ser consciente de cualquier riesgo o incertidumbre asociados con esa decisión”, agrega.
La idea del equipo de investigadores es presentar sus resultados en diciembre durante la conferencia NeurIPS, pero ya hay un artículo disponible en línea.
SEGUIR LEYENDO