Eine Kamera speichert kein Licht. Das Licht, das Sie sehen, wenn Sie ein Foto betrachten, ist nicht dasselbe wie das Licht, das beim Aufnehmen des Fotos aufgenommen wurde.
Wenn Licht in eine Digitalkamera eintritt, löst es elektrische Änderungen im Bildsensor aus, die von einem ADC in digitale Daten umgewandelt werden. In einer Filmkamera verursacht das Licht stattdessen chemische Veränderungen in der Filmemulsion, die bis zur Entwicklung des Films erhalten bleiben
Menschen sind im Grunde Trichromaten. Wir haben drei verschiedene Arten von "Zapfen" in unseren Augen mit unterschiedlichen Reaktionen auf Licht. So können wir es schaffen, Farben mit drei Zahlen pro Pixel in einem digitalen Bildgebungssystem oder drei Schichten in einem chemischen Film darzustellen.
Einige Zeit später rekonstruieren wir ein Bild, das eine Person sehen kann. In einer vereinfachten Digitalkamera würden wir die Rot-, Grün- und Blauwerte für jedes Pixel verwenden und sie verwenden, um die rotgrünen und blauen Pixel auf unserem Display zu beleuchten. In der Realität sind normalerweise einige Anpassungen erforderlich, da die Filter in der Kamera das menschliche Auge nicht genau darstellen und sich die Frequenzbänder überlappen, sodass keine "Primärfarben" gefunden werden können, die nur einen Kegel auslösen. P. >
Normale Digitalkameras sind so konzipiert, dass sie sich unseren Augen annähern, denn genau das wollen die meisten Menschen. Es gibt jedoch keinen grundsätzlichen Grund, warum Kameras so sein müssen. Solange wir eine Linse bauen können, um die Strahlen zu fokussieren, und einen Sensor, der darauf reagiert, können wir ein Bild aufnehmen.
Es ist möglich, eine Kamera so zu bauen, dass sie gleichzeitig mit mehreren Wellenbändern arbeitet. So funktionieren normale Kameras, aber aus mehreren Gründen ist sie keine gute Wahl für die wissenschaftliche Bildgebung. Zunächst muss der "Bayer-Filter" grundsätzlich auf den Sensor gedruckt werden, was bedeutet, dass er nicht geändert werden kann. Zweitens bedeutet dies, dass Ihre Pixel für verschiedene Wellenbereiche leicht unterschiedliche räumliche Positionen haben.
Für dunkle Wellenbänder besteht eine häufigere Lösung darin, jeweils ein Wellenband zu erfassen. Die Bilder können dann nach der Erfassung zu einem einzigen Mehrkanalbild kombiniert werden.Oder es kann nur ein monochromes Bild aufgenommen werden, alles hängt vom Ziel der Bildgebung ab.
Natürlich können wir Menschen immer noch nur sichtbares Licht sehen und wir können das nur trichromatisch sehen, daher muss der Schöpfer eines Bildes irgendwann eine Entscheidung darüber treffen, wie die wissenschaftlichen Bilddaten (die möglicherweise willkürlich sind) abgebildet werden sollenAnzahl der Kanäle) zu einem RGB-Bild (mit genau 3 Kanälen) zur Anzeige.Beachten Sie, dass Farbe im endgültigen Bild nicht unbedingt bedeutet, dass die ursprünglichen Bilddaten mehrere Kanäle enthielten. Es ist nicht ungewöhnlich, einen Zuordnungsprozess zu verwenden, der eine einzelne Kanaleingabe einer Farbausgabe zuordnet.