La forma en que aprendemos es una cuestión en estudio por científicos de diversas disciplinas que enfocan su saber desde perspectivas distintas. Quienes trabajan en torno a la inteligencia artificial, la adecuada construcción de sus procesos y el modo de construir conocimiento aseguran que podemos aprender lecciones vitales de nuestra propia biología para hacer que la IA funcione mejor.
En este camino es que los investigadores del Imperial College of London han descubierto que la variabilidad entre las células cerebrales podría acelerar el aprendizaje y mejorar el rendimiento del cerebro y la IA futura.
El nuevo estudio encontró que al ajustar las propiedades eléctricas de las células individuales en simulaciones de redes cerebrales, éstas aprendieron más rápido que las simulaciones con células idénticas.
También encontraron que las redes necesitaban menos de las células modificadas para obtener los mismos resultados, y que el método consume menos energía que los modelos con células idénticas.
Los autores dicen que sus hallazgos podrían enseñarnos por qué nuestros cerebros son tan buenos para aprender y también podrían ayudarnos a construir mejores sistemas artificialmente inteligentes, como asistentes digitales que pueden reconocer voces y rostros, o tecnología de automóviles autónomos.
El autor principal, Nicolás Pérez, estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Electrónica del Imperial College de Londres, aseguró que “el cerebro necesita ser energéticamente eficiente y al mismo tiempo poder sobresalir en la resolución de tareas complejas. Nuestro trabajo sugiere que tener una diversidad de neuronas tanto en el cerebro como en la inteligencia artificial cumple con estos requisitos y podría impulsar el aprendizaje “.
Neuronas como copos de nieve
El cerebro está formado por miles de millones de células llamadas neuronas, que están conectadas por vastas redes entre ellas que nos permiten aprender sobre el mundo. Las neuronas son como copos de nieve: se ven iguales desde la distancia, pero en una inspección más profunda queda claro que no hay dos exactamente iguales.
Por el contrario, cada célula de una red neuronal artificial, la tecnología en la que se basa la inteligencia artificial, es idéntica, y solo varía su conectividad. A pesar de la velocidad a la que avanza la tecnología de IA, sus redes neuronales no aprenden con tanta precisión o rapidez como el cerebro humano, y los investigadores se preguntaron si su falta de variabilidad celular podría ser la culpable.
Se propusieron estudiar si emular el cerebro variando las propiedades de las células de la red neuronal podría impulsar el aprendizaje en IA. Descubrieron que la variabilidad en las células mejoró su aprendizaje y redujo el consumo de energía.
Dan Goodman, otro de los autores del documento, también del Departamento de Ingeniería Eléctrica y Electrónica de la misma entidad, afirmó que “la evolución nos ha proporcionado funciones cerebrales increíbles, la mayoría de las cuales apenas estamos comenzando a comprender”.
Para llevar a cabo el estudio, los investigadores se centraron en ajustar la “constante de tiempo”, es decir, la rapidez con la que cada célula decide lo que quiere hacer en función de lo que están haciendo las células conectadas a ella. Algunas decidirán muy rápidamente, mirando solo lo que acaban de hacer las vecinas conectadas. Otras reaccionarán más lentamente, basando su decisión en lo que otras células han estado haciendo durante un tiempo.
Después de variar las constantes de tiempo de las celdas, los especialistas asignaron a la red la tarea de realizar algunas acciones de aprendizaje automático de referencia: clasificar imágenes de ropa y dígitos escritos a mano; reconocer los gestos humanos; e identificar comandos y dígitos hablados.
Los resultados muestran que al permitir que la red combine información lenta y rápida, pudo resolver mejor las tareas en entornos más complicados del mundo real.
Cuando cambiaron la cantidad de variabilidad en las redes simuladas, detectaron que las que funcionaron mejor coincidían con la cantidad de variabilidad observada en el cerebro, lo que sugiere que éste puede haber evolucionado para tener la cantidad justa de variabilidad para un aprendizaje óptimo.
“Demostramos que la IA se puede acercar al funcionamiento de nuestro cerebro emulando ciertas propiedades cerebrales. Sin embargo, los sistemas de IA actuales están lejos de alcanzar el nivel de eficiencia energética que encontramos en los sistemas biológicos -explica Pérez-. Como siguiente paso, veremos de qué manera es posible reducir el consumo de energía de estas redes para acercar las redes de IA a un rendimiento tan eficiente como el cerebro”, concluye.
SEGUIR LEYENDO: