Wenn es um Nachtsicht geht, stellt sich jeder vor, dass das angezeigte Bild grün mit schwarz sein wird. Dies wird sich jedoch bald ändern. Forscher haben einen Weg gefunden, wie Kameras auch nachts ein Farbbild aufnehmen können, als wäre es tagsüber aufgenommen worden.
Am 6. April veröffentlichte das Magazin Plos One einen amerikanischen Artikel, in dem Forscher die Entdeckung eines optimierten Algorithmus mit Deep-Learning-Architektur vorstellen, der es schafft wandeln Sie das von einer Nachtszene sichtbare Spektrum so um, wie es eine Person tagsüber sehen könnte.
Nachts können Menschen aufgrund von Lichtmangel keine Farben und Kontraste sehen, dazu müssen sie den Bereich beleuchten oder Nachtvisiere verwenden, wobei letztere ein grünliches Bild ergeben. Durch die Lösung der monochromen Zuschauer kann jeder Fotos sehen und aufnehmen, die so aussehen, als wäre es tagsüber, was unter anderem bei der taktischen militärischen Aufklärungsarbeit eine große Hilfe sein wird.
Um dies zu erreichen, verwendeten die Forscher eine monochromatische Kamera, die für sichtbares und infrarotes Licht empfindlich ist, um die Datenbank eines gedruckten Bildes oder von Bildern von Gesichtern unter multispektraler Beleuchtung zu erfassen, die das sichtbare Standardauge abdecken.
Anschließend optimierten sie ein Faltungsneuronales Netzwerk (U-Net), um Bilder des sichtbaren Spektrums aus Nahinfrarotbildern vorherzusagen. Sein Algorithmus wird durch Deep Learning mit Spektrallicht gesteuert.
Um das spektrale Reflexionsspektrum von Cyan-, Magenta- und Gelbtinten zu erlernen, druckten sie die Rainboy-Farbpalette, um ihre Wellenlängen aufzuzeichnen. Anschließend druckten sie mehrere Bilder und stellten sie unter multispektraler Beleuchtung mit einer monochromatischen Kamera (Schwarzweiß), die auf einem auf das Bild fokussierten Präparationsmikroskop montiert war.
Insgesamt druckten sie eine Bibliothek mit mehr als 200 menschlichen Gesichtern, die in der Publikation „Labeled Faces in the Wild“ verfügbar waren, mit einem Canon-Drucker und MCYK-Farbe. Die Bilder wurden unter verschiedenen Wellenlängen platziert und dann in Schulungen für maschinelles Lernen verwendet, wobei der Schwerpunkt auf der Vorhersage von Farbbildern (RGB) aus beleuchteten Bildern einer einzelnen oder kombinierten Wellenlänge lag.
Bei allen Experimenten folgten sie dem praktischen Modell des maschinellen Lernens: Sie teilten die Datenbank in 3 Teile auf und reservierten 140 Bilder für das Training, 40 für die Validierung und 20 für das Testen. Um die Leistung zwischen verschiedenen Modellen zu vergleichen, werteten sie mehrere Metriken für die Rekonstruktion des Bildes aus.
Die Forscher wiesen darauf hin, dass diese Studie als Schritt zur Vorhersage von Szenen im sichtbaren Spektrum des Menschen aus nicht wahrnehmbarer Nahinfrarotbeleuchtung dient.
Sie sagten, dass „es darauf hindeutet, dass die Vorhersage hochauflösender Bilder mehr vom Trainingskontext [der Maschine] abhängt als von den spektroskopischen Signaturen jeder Tinte“ und dass diese Arbeit ein Schritt für Nachtsichtvideos sein sollte, für die die Anzahl der Bilder, die es pro Sekunde verarbeitet, abhängt.
LESEN SIE WEITER: