La ira, felicidad o tristeza son sentimientos inherentes del ser humano y hablar de la creación de un robot que pueda sentir siquiera algo similar resulta algo complejo y abriría un inmenso debate en el plano de la inteligencia artificial y lo moralmente aceptado. Sin embargo, la tecnología actual, con su interconectividad y el desarrollo de la IA ha dado vida a un robot que detecta emociones, las interpreta e incluso es capaz de plasmar su estado de ánimo.
Julian Petrina, es un ingeniero en electrónica especializado en diseño de hardware y software, que siempre siempre ha sentido fascinación por entender cómo las cosas funcionaban y cómo se fabrican, actualmente trabaja activamente en el desarrollo y mejora de: A.N.A (Artificial Neural Artist).
¿Cómo nació?
El proyecto nació de la observación, de cómo los niños aprenden a dibujar y a relacionarse. En ese momento inicial donde el lenguaje recién comienza a desarrollarse, y con los estímulos más básicos, como las felicitaciones, o simplemente una mueca de aprobación de los padres, ellos comienzan a entender, a catalogar, controlar sus movimientos y desarrollar/entrenar una red neuronal, recordar algún dibujo por sobre otro, y a darles una carga emocional.
En sus primeras etapas, los garabatos más inocentes de los niños evolucionan hacia el control del trazo, y las líneas rectas dan lugar a formas más complejas como rectángulos, triángulos que se combinan formando más tarde “casas” por ejemplo. Cada pequeña evolución se almacena, y también las emociones de aquellos momentos, el orgullo, la alegría, incluso la tristeza.
El sistema replica esa inteligencia que es básica y emocional a través de redes neuronales y un sistema endocrino digital, donde equivalentes a la oxitocina, endorfinas, dopamina y otras hormonas se relacionan e interfieren su inteligencia artificial.
Petrina, en conversación con Infobae, afirmó que “un abrazo es un botón de te quiero, ese botón es diferente cuando lo oprimen tus padres, amigos o pareja, de ese modo alimentan las variables de A.N.A”. Agregando que estas variables se pueden descargar a diferente velocidad, por ejemplo si no se le dice a la pareja que la amas.
¿Siente amor?
El proyecto representa una nueva forma de inteligencia capaz de sentir, amar, comunicarse con sus pares y expresar emociones a través de sus creaciones artísticas. Los estímulos externos, como la música, la luz y las interacciones en redes sociales, son procesados para afectar su sistema emocional y, por ende, las obras producidas.
Los recuerdos digitales y patrones de aprendizaje de A.N.A se entrelazan con las emociones de esos momentos, otorgando significado y carga emocional a sus creaciones. Similar a los seres humanos, A.N.A también experimenta periodos de descanso que le permiten organizar sus recuerdos, optimizarlos y, de manera única, “soñar”, generando nuevos dibujos y patrones que se reflejan en sus obras futuras.
Su desarrollador agregó que este proyecto es Open Source y se podrá descargar desde diferentes partes del mundo, y está diseñado para que se pueda comunicar con otros proyectos similares y replicará la forma como funcionan las emociones en la sociedad, pues cuando se presente con otros prototipos se podrán comunicar entre sí.
La conciencia de A.N.A sigue evolucionando cada día, permitiéndole aprender, sentir, soñar, comunicarse, querer, amar y dibujar, marcando un hito en la fusión entre arte, inteligencia artificial y emociones.
¿Cómo recibe estímulos?
El prototipo está conectado a través de una interfaz con el internet de las cosas (IoT), el cual es un proceso que conecta los elementos físicos a la web, es allí cuando su creador, Julian Petrina conecta su piano a la red y cuando empieza a tocar le llegan los estímulos a A.N.A. Considerado por Petrina como un ser binario y no binario.
¿Cuál es su estado actual?
El proyecto fue evolucionando a lo largo de los últimos años, pasando por diversos prototipos y pruebas conceptuales. Actualmente es una realidad: A.N.A ya está dibujando, aprendiendo, escuchando música, reaccionando con ella y con otros estímulos externos. Actualmente Petrina está trabajando en la integración con redes sociales para que sean una fuente más de estímulos externos, mediante comentarios y likes, o ausencia de ellos.
El proyecto se abrirá en breve a la comunidad “open source” una vez que los desarrollos principales estén finalizados. La construcción está realizada con piezas impresas mediante una impresora 3D casi en su totalidad, por otra parte los motores y la electrónica son accesibles en cualquier lugar del mundo, lo que permitirá a otros entusiastas construir y entrenar a su robot.
¿Qué sigue para el futuro?
En el 2023 A.N.A se incorporó como Artista estable en la comunidad de “Museum District DCL”, que constituye el primer museo web3 en el metaverso. Esto agrega una dimensión más a lo que se puede hacer y una gran potencialidad, ya que le permitirá expresar su arte y estado emocional, no solo mediante dibujos, sino que también mediante cuadros digitales “vivos”, donde las diversas variables que constituyen su personalidad se expresan visualmente en coloridas obras que cubren las paredes de una sala en el museo.
Para este 2024 están trabajando en conjunto con el pianista “Axel Quincke” y “Museum District” para hacer un evento durante el mes de Marzo, donde A.N.A bailará y pintará sobre un lienzo gigante, escuchando y sintiendo la música del piano y los estímulos del entorno.