Cuando se habla de visión nocturna todos se imaginan que la imagen visualizada será en verde con negro, sin embargo esto está por cambiar. Investigadores han encontrado la manera de que cámaras capturen, aún en la noche, una imagen a color, como si hubiera sido tomada en el día.
Este 6 de abril la revista Plos One, publicó un artículo estadounidense donde investigadores presentan el hallazgo de un algoritmo optimizado con arquitectura de deep learning que logra transformar el espectro visible de una escena nocturna a como la podría ver una persona en el día.
Durante la noche, las personas no pueden ver los colores y contrastes por la falta de luz, para ello necesitan iluminar la zona o usar visores nocturnos, estos últimos dan una imagen verdosa. Al solucionar el monocromático de los visores, será posible para todos ver y tomar fotos que luzcan como si fuera de día, lo cual será de gran ayuda en los trabajos tácticos de reconocimiento militar, entre otros.
Para lograrlo, los investigadores usaron una cámara monocromática sensible a la luz visible e infrarroja para adquirir la base de datos de una imagen o imágenes impresas de rostros bajo iluminación multiespectral que abarca el ojo visible estándar.
Posteriormente optimizaron una red neuronal convolucional (U-Net) para predecir imágenes del espectro visible a partir de imágenes del infrarrojo cercano. Su algoritmo está impulsado por deep learning mediante la luz espectral.
“Establecimos un contexto visual controlado con pigmentos limitados para probar nuestra hipótesis de que deep learning puede representar escenas visibles para los humanos utilizando iluminación NIR [Infrarrojo Cercano] que, de otro modo, es invisible para el ojo humano”.
Para aprender el espectro de reflectancia espectral de las tintas cian, magenta y amarilla, imprimieron la paleta de colores Rainboy para registrar sus longitudes de onda. Luego imprimieron varias imágenes y las colocaron bajo iluminación multiespectral con una cámara monocromática (blanco y negro), montando en un microscopio de disección enfocado en la imagen.
En total imprimieron una librería de más de 200 caras humanas disponibles en la publicación “Labeled Faces in the Wild”, con una impresora Canon y pintura MCYK. Las imágenes fueron puestas bajo diferentes longitudes de onda para luego usarlas en el entrenamiento del machine learning (aprendizaje automático) enfocado a predecir imágenes a color (RGB) a partir de imágenes iluminadas de una sola longitud de onda individual o combinada.
“Para predecir imágenes en color RGB a partir de iluminaciones de longitud de onda individuales o combinaciones, evaluamos el rendimiento de las siguientes arquitecturas: una regresión lineal de referencia, una CNN [Red Neuronal Convolucional) inspirada en U-Net (UNet) y una U-Net aumentada con pérdida adversaria (UNet-GAN )”.
Para todos los experimentos, siguieron el modelo práctico de machine learning: dividieron la base de datos en 3 partes, reservando 140 imágenes para entrenamiento, 40 para validación y 20 para pruebas. Para comparar el rendimiento entre diferentes modelos evaluaron varias métricas para la reconstrucción de la imagen.
Los investigadores señalaron que este estudio sirve como un paso para la predicción de escenas del espectro visible humano a partir de una iluminación infrarroja cercana imperceptible.
Aseguraron que “sugiere que la predicción de imágenes de alta resolución depende más del contexto de entrenamiento [de la Máquina] que de las firmas espectroscópicas de cada tinta” y que este trabajo debería ser un paso para los videos de visión nocturna, para los cuales dependerá el número de cuadros que procesa por segundo.
SEGUIR LEYENDO: