Frage:
Wie ist es möglich, dass es UV-Fotos gibt, während unsere Augen keine UV-Wellen erkennen können?
Bored Comedy
2020-02-02 01:07:50 UTC
view on stackexchange narkive permalink

Ich weiß, dass diese Frage dumm klingt, aber bitte nehmen Sie sie mit.Diese Frage kam mir in den Sinn, als ich mir die Fotos in einem Astronomiebuch ansah.Wie ist es möglich, dass IR- und UV-Fotos von Sternen und Nebeln aufgenommen werden, wenn unsere Augen sie nicht erkennen können?

"Ich weiß, diese Frage klingt dumm" überhaupt nicht!Wenn überhaupt, zeigt die Frage ein überdurchschnittliches Maß an Intelligenz: Viele Leute würden nicht einmal daran denken, zu fragen ...
Ich habe einige Kommentare gelöscht, die nicht darauf abzielen, die Frage zu verbessern.
Haben Sie jemals jemanden ein Lied auf einem Klavier spielen hören, aber eine Oktave höher oder niedriger?Es ist so, aber mit einer anderen Art von Wellen.
Ein schönes Buch ist Alien Vision von Austin Richards.https://www.amazon.com/Alien-Vision-Exploring-Electromagnetic-Technology/dp/0819441422.Bereits alt, aber schön zu zeigen, was Sie außerhalb des sichtbaren Spektrums sehen können.
Es ist nicht wirklich eine Antwort auf die Frage, aber es könnte Sie interessieren, dass einige Tiere, einschließlich menschlicher Frauen, [Tetrachromaten] (https://en.wikipedia.org/wiki/Tetrachromacy) im UV-Bereich sehen können: https: //www.bbc.com/future/article/20140905-the-women-with-super-human-vision
@JimmyJames Es scheint nicht so, als würde es den Menschen eine Sicht im UV-Bereich ermöglichen.es scheint sich normalerweise beim Menschen noch im sichtbaren Lichtspektrum zu manifestieren.Auch UV wird anscheinend von unserer Augenlinse blockiert.
@JMac Hast du den Artikel gelesen?Auch die Wikipedia zitiert eine Quelle.Ich mache keine Ansprüche, sondern gebe nur Referenzen an.Wenn UV durch unsere Augen blockiert wird, sagen Sie dann, dass UV-blockierende Sonnenbrillen ein Betrug sind?
@JimmyJames Sie möchten auch nicht, dass die UV-Strahlung auf Ihre Augenlinsen trifft.Es schadet immer noch, auch wenn die meisten Ihre Netzhaut nicht erreichen und Sie es daher nicht wirklich sehen können.Die Wikipedia spricht nur von Menschen, die eine zusätzliche Sicht im sichtbaren Bereich haben, als Tetrachromat.Ich habe den Artikel überflogen und den Artikel nach "UV" oder "Ultra" durchsucht und keine Treffer erhalten, daher scheint es auch nicht darum zu gehen, dass Menschen im UV-Spektrum sehen.Der Wikipedia-Artikel spricht darüber, wie Menschen, die keine Tetrachromaten sind, einen Teil des UV-Spektrums sehen können, wenn sie keine Augenlinsen haben.
@JMac "Im Jahr 2010 identifizierte die Neurowissenschaftlerin Dr. Gabriele Jordan nach zwanzigjähriger Untersuchung von Frauen mit vier Arten von Zapfen (nicht funktionelle Tetrachromaten) eine Frau (Subjekt cDa29), die eine größere Farbvielfalt nachweisen konnte als Trichromatenein funktioneller Tetrachromat (oder echter Tetrachromat). "Analysiere ich das falsch?Es scheint sich ziemlich abzusichern, aber "echter Tetrachromat" scheint eindeutig zu sein.
@JMac Sie haben Recht mit dem BBC-Artikel, ich habe dort einen Sprung gemacht, der nicht im Text enthalten war.Angesichts der Tatsache, dass Vögel, Fische und Insekten im UV-Bereich sehen können und dass Primaten die Trichromie wieder entwickelten, nachdem Säugetiere sie im Allgemeinen verloren hatten, scheint es möglich, dass wir auch die Tetrachromie wieder entwickeln könnten.
Es wird angenommen, dass die Tetrachromie von @JimmyJames beim Menschen bedeutet, dass sie mehr Farben innerhalb des sichtbaren Spektrums unterscheiden können;es bedeutet nicht, dass sie in die UV sehen.
@JimmyJames Ich sehe nirgendwo etwas, das darauf hindeutet, dass es außerhalb des sichtbaren Bereichs liegt.Es hört sich so an, als hätten die echten Tetrachromaten einen zusätzlichen Farbkanal innerhalb des sichtbaren Bereichs.So hat beispielsweise eine farbenblinde Person Schwierigkeiten, den Unterschied zwischen einigen Farbtönen zu erkennen (die Farbtöne hängen davon ab, wie sie farbenblind sind), da sie nur ein Dichromat sind.Ein Tetrachromat, wie sie beschrieben werden, kann Farbtöne besser unterscheiden als ein Trichromat.So erhalten sie eine größere Farbvielfalt, da sie 4 verschiedene Wellenlängenintensitäten zum Vergleichen haben.
@JMac Ja, beim erneuten Lesen scheinen Sie Recht zu haben.Aber es ist wahr, dass einige Tiere in diesem Bereich sehen können, basierend auf dem, was ich dort und anderswo gelesen habe.
Sie können UV sehen, nachdem die Haut gebräunt wurde (oder Dinge verwittert sind).Sie können IR aus der Richtung der Wärmeenergie fühlen.
Was genau ist die Frage?Wie können UV-Detektoren hergestellt werden?Wie kann man UV-Licht in sichtbaren Farben darstellen?Ich habe Probleme zu verstehen, warum das OP verwirrt ist.Wir können keine Röntgenstrahlen sehen, aber wir können natürlich Röntgenbilder machen.
Filmmaterial ("Analoge Fotografie") und Bildsensoren sind nicht perfekt.Der Film reagiert auf UV-Licht, was unerwünscht ist, da das Bild dadurch "verschwommen" wird (außerdem sind die Linsen nicht für ein scharfes UV-Bild optimiert).Daher der Oberlichtfilter, der UV-Strahlung blockiert.Ein Bildsensor reagiert auf IR mit einer ähnlichen "Unnatürlichkeit" in Bildern.Dies kann jedoch von Vorteil sein: Überwachungskameras beleuchten die Szene nachts mit IR, was für Menschen unbemerkt bleibt.Es sei denn, Sie sehen die Szene mit der Kamera Ihres Mobiltelefons.Sie werden den Standort solcher IR-Quellen deutlich sehen.
Acht antworten:
Superfast Jellyfish
2020-02-02 01:33:59 UTC
view on stackexchange narkive permalink

Die Bilder werden von UV / IR-Kameras aufgenommen.Die Frequenzen werden jedoch unter Verwendung eines Schemas auf den sichtbaren Bereich abgebildet.Wenn Sie die Frequenzverhältnisse beibehalten möchten, führen Sie eine lineare Skalierung durch.Im Allgemeinen erfolgt die Skalierung so, dass ein Gleichgewicht zwischen Ästhetik und Informativität hergestellt wird.

Angesichts der überwältigenden Aufmerksamkeit für diese Frage habe ich beschlossen, das aktuelle Bild eines Schwarzen Lochs hinzuzufügen, das vom Event Horizon Telescope aufgenommen wurde.Dieses Bild wurde in Radiowellen mit einer Reihe von Radioteleskopen an acht verschiedenen Orten auf der Erde aufgenommen.Die Daten wurden auf folgende Weise kombiniert und dargestellt.

enter image description here

Ein Punkt, den ich vergessen habe zu erwähnen, auf den @thegreatemu in den Kommentaren unten hingewiesen hat, ist, dass die Bilddaten des Schwarzen Lochs alle bei nur einer Funkwellenlänge (von $ 1.3 $) gesammelt wurden span> mm).Die Farbe in diesem Bild zeigt die Intensität der Funkwelle an.Heller bedeutet helleres Signal.

Vielleicht macht eine Analogie zur Musik dies für einen Laien verständlicher: Ich bin kein Musiker, aber ich erinnere mich an einen Lehrer, der Lieder eine Oktave tiefer spielt als die, in denen die Lieder normalerweise gespielt wurden. Für eine Spezies, die nicht hören kannIn der höheren Oktave wäre dies eine Darstellung des ursprünglichen Liedes, ebenso wie das bereitgestellte Bild eine Darstellung der Originaldaten ist.Beide Darstellungen enthalten im Wesentlichen die gleichen Informationen.
Beachten Sie, dass Bild und Ton sehr unterschiedliche Sinne sind.Im Klang reagieren wir sehr empfindlich auf das Spektrum, können uns jedoch nur minimal räumlich auflösen.In Sichtweite sind wir sehr empfindlich gegenüber räumlichen Schwankungen, aber das Spektrum wird in trichromatische Farben zerlegt.
Während sie unterschiedliche Sinne sind, bleibt die Analogie erhalten.
Dies ist eine gute Information, aber in den meisten Fällen irreführend.Normalerweise bleiben die Frequenzinformationen NICHT erhalten, wie dies in der Beispielabbildung der Fall ist.Die dargestellten Farben sind eine sogenannte Wärmekarte, bei der die INTENSITÄT an diesem Pixel auf eine Farbe abgebildet wird."Heißere" Pixel (d. H. Weißer) erhielten mehr Funk, gemittelt über das gesamte Spektrum.Gelegentlich werden verschiedene Frequenzbänder separat auf RGB-Intensitäten abgebildet, dies ist jedoch selten.
In jedem Artikel, den ich zu diesem Thema las, schien der Journalist den Eindruck zu haben, dass es sich eher um eine Art optisches Foto als um eine Visualisierung handelte.Sie können sich viele Dinge als Pseudofotografie vorstellen: Mobilfunkempfang oder etwas, das überhaupt nicht elektromagnetisch ist, wie Lärm oder Verschmutzung.
@TheoreticalMinimum Im Fall von Licht würde Ultraviolett (genauer gesagt) eine Oktave höher spielen (da UV eine kürzere Wellenlänge und damit eine höhere Wellenfrequenz hat).
@thegreatemu Es wird eine Karte genannt, weil Geographen auf diese Weise Karten erstellen.Die Höhe ist beispielsweise eine Höhe über dem Meeresspiegel, wird jedoch häufig durch Farbe auf einer Karte dargestellt.In diesem Fall ist es die Intensität oder "Helligkeit" der Strahlung einer Frequenz, die wir nicht direkt mit dem Auge sehen können.
@nigel222 richtig.Mein Punkt war, dass die Karte "Intensität-> Farbe" NICHT "Frequenz-> Farbe" ist und dass in der Praxis "Frequenz-> Farbe" -Karten fast nicht existieren
niels nielsen
2020-02-02 02:18:49 UTC
view on stackexchange narkive permalink

Wenn Sie ein UV- oder IR-Foto betrachten, werden die Intensitäten dieser (unsichtbaren) Strahlen durch verschiedene (sichtbare) Farben und Helligkeiten auf dem Foto dargestellt.Diese Technik, Dinge, die unsere Augen nicht sehen können, in Bilder zu rendern, die wir sehen können, ist üblich, und die so vorbereiteten Bilder werden als Falschfarbenbilder bezeichnet.

TL; DR: jede Antwort: 'UV / IR-Kameras nehmen Graustufenbilder auf und die so vorbereiteten Bilder werden als * Falschfarbenbilder * bezeichnet.Die Frequenzen werden nach einem bestimmten Schema auf den sichtbaren Bereich abgebildet. '
@Mazura nicht erforderlich Graustufen, UV / IR-Sensoren können Lichtintensität bei mehreren Wellenlängen im UV- oder IR-Spektrum erfassen, die dann künstlich in das sichtbare Spektrum verschoben werden können.
@zakinster im Prinzip ja, aber in der Praxis wird dies so gut wie nie gemacht.Ihr Monitor hat nur drei Farben, sodass Sie die durchschnittliche Intensität bestenfalls über 3 verschiedene Bänder auf RGB abbilden können
Warum dort aufhören?Sie können jede Art von Wellenfrequenz Farben zuordnen, was bedeutet, dass Sie (eine Bilddarstellung von) Geräuschen, Luftdruck-WiFi-Wellen usw. sehen können.
@thegreatemu Tatsächlich erstellen wir häufig RGB-Bilder mit mehr als einer nicht sichtbaren Farbe.Ein Beispiel ist in [Hayes et al.(2013)] (https://arxiv.org/abs/1303.0006), wobei Hα, fernes UV und Lyα (das sich auch im UV befindet) auf R, G bzw. B abgebildet werden.
The_Sympathizer
2020-02-02 12:20:34 UTC
view on stackexchange narkive permalink

B Weil Sie eine Kamera bauen können, die dies kann.

Die Empfindlichkeit einer Kamera wird nicht durch menschliche Augen bestimmt, sondern durch die Konstruktion des Kamerasensors. Da die Kamera in den meisten gängigen Anwendungen etwas erfassen soll, das das nachahmt, was unsere Augen sehen, bauen wir sie im Allgemeinen so auf, dass sie ebenfalls für ungefähr die gleichen Lichtfrequenzen empfindlich sind, für die unsere Augen empfindlich sind.

Nichts hindert Sie jedoch daran, eine Kamera zu bauen, die für ein anderes Frequenzspektrum empfindlich ist, und das tun wir auch. Nicht nur Ultraviolett, sondern auch Infrarot, Röntgenstrahlen und mehr sind mögliche Ziele.

Wenn Sie sich fragen, warum die Bilder sichtbar sind, müssen wir sie mit unseren Augen sehen, also malen wir sie mit sichtbaren Pigmenten oder zeigen sie auf Displays an, die sichtbares Licht emittieren. Dies macht die Bilder jedoch nicht "falsch" - im Grunde sind sowohl sichtbares Licht als auch UV / IR-Bilder, die von modernen Kameras aufgenommen wurden, dasselbe: lange Zeichenfolgen von Binärbits, keine "Farben". Sie nehmen Interpretation, um sie für uns nützlich zu machen.

In der Regel nehmen UV / IR-Kameras Graustufenbilder auf, da es keine sinnvollen "Farben" gibt, um die verschiedenen Frequenzen zuzuweisen. Oder besser, "Farbe" ist nur eine erfundene Sache, die aus unserem Gehirn stammt und keine Eigenschaft ist des Lichts. Das Färben aller "unsichtbaren" Lichter grau ist also nicht mehr als alles andere "falsch" - und es ist einfacher, die Sensoren zu bauen (was "billiger" bedeutet), da die Art und Weise, wie Sie eine farbunterscheidende Kamera herstellen, praktisch die gleiche ist wie die Art und Weise, wie Ihre Augen hergestellt werden: Sie haben subpixelare Elemente, die für verschiedene Frequenzbereiche empfindlich sind.

Sie können sogar "Kameras" bauen, die überhaupt keine elektromagnetische Strahlung verwenden, zum Beispiel Ultraschall oder Elektronen-Miroskope.
Viele gewöhnliche Kameras können Infrarot erkennen und zeigen es normalerweise als rosa oder violette Farbe an.Richten Sie dazu Ihre Telefonkamera auf das Ende einer TV-Fernbedienung.
@Jeanne Pindar: Die meisten Digitalkameras (einschließlich der in Telefonen) verfügen jedoch über einen Filter, der einen Großteil des Infrarot blockiert.Es ist möglich, diese Filter zu entfernen und interessante Infrarotfotos aufzunehmen: Eine Websuche nach "digitaler Infrarotkonvertierung" liefert viele Treffer.Es kann auch für UV gemacht werden, obwohl es komplizierter ist.
@Jeanne Pindar: Ja, in der Tat.Sie können also Ihre Digitalkamera verwenden - obwohl Sie sie durch Entfernen und Ersetzen des Filters ändern müssen, da sie einen enthält, um zu verhindern, dass das sichtbare Bild "verunreinigt" wird -, um Filme von etwa 750 bis 1100 nm zu filmen (am empfindlichsten bei 750,mindestens um 1100), jedoch wird es (zumindest glaube ich) keine Farbunterscheidung nach Frequenz / Wellenlänge geben.
@jamesqf Der Trick "Telefonkamera" funktionierte gut mit frühen Telefonkameras.Die Idee blieb bestehen, obwohl sie nicht mehr wirklich funktioniert: D.
Es funktioniert mit jedem Telefon, mit dem ich es ausprobiert habe, einschließlich eines LG G7 ThinQ, das ich nicht als frühes Telefon bezeichnen würde. Ich glaube, es kam 2017 heraus.
@Luaan: Ich weiß wirklich nichts über Telefonkameras, da ich es nie für sinnvoll gehalten habe, ein funktionierendes Telefon zu zerlegen, um es zu versuchen.In der Tat habe ich es nur selbst mit einer 10-15 Jahre alten Digitalkamera gemacht.
@The_Sympathizer - Ich erinnere mich an den Fujifilm-Digitalkameraskandal, der für IR empfindlich war und Kleidung durchschauen konnte.Es stellt sich heraus, dass die meisten Stoffe für IR transparent sind
OK, die Kameras, über die ich spreche, sind nicht so empfindlich!Das IR, das ich fotografieren konnte, stammt von LEDs, Heizelementen, Flammen und reflektiertem oder gebrochenem Sonnenlicht.
Verdammt!Schade, dass meine alte Fujifilm-Kamera kaputt ist :(. Wie auch immer, erinnern Sie sich an den Massenselbstmord am Heavens Gate und an das "Saturn-ähnliche Objekt", das ihn ausgelöst hat? Ich erinnere mich vage, dass der Astrofotograf einen IR-Filter entfernt hatte (oder nicht hatte)Auf der Kamera verwendete und produzierte er ein im IR überbelichtetes Bild.
mmesser314
2020-02-02 02:42:12 UTC
view on stackexchange narkive permalink

Denken Sie daran, einen intensiven Infrarotstrahl auf Holz zu richten.Das Holz ist versengt.Sie können das Verbrennen mit sichtbarem Licht sehen, obwohl der Infrarotstrahl nicht sichtbar ist.Wiederholen Sie den Vorgang, aber stellen Sie etwas Metall in den Weg, um einen Teil des Balkens zu blockieren.Jetzt können Sie den Schatten des Metalls sehen.

Ähnlich wie der Röntgenfilm Knochen zeigt.

Kamera sind ähnlich.Wenn Sensoren in der Kamera durch UV / IR / Röntgenstrahlen stimuliert werden, erzeugen sie ein elektrisches Signal.Diese Signale werden als Pixel in einem Bild gespeichert.Sie können das Bild auf einem Monitor anzeigen und festlegen, dass die Pixel eine beliebige Farbe haben.

Führen Sie dieses Experiment nicht durch, falls Sie versehentlich den Infrarotstrahl mit dem Metall in Ihre Augen reflektieren.
user2723984
2020-02-02 19:41:37 UTC
view on stackexchange narkive permalink

Stellen Sie sich vor, Sie schreiben ein Programm, das über das Mikrofon Ihres Computers Töne abhört und den Bildschirm für jede Note (oder Frequenz) in einer anderen Farbe malt.Plötzlich kann man es auf jemanden richten, der singt und den Klang "sieht".Sie können es sogar einer gehörlosen Person zeigen, und sie können eine Vorstellung davon haben, welche Art von Lied sie durch die Farben sehen, die sie sehen.Keiner ihrer Sinne kann Ton aufnehmen, aber sie sehen ihn auf dem Bildschirm, denn das, was den Ton aufnimmt, ist das Mikrofon.

Eine UV-Kamera ist ziemlich gleich.Ein Sensor erfasst etwas Licht, das Ihre Augen nicht sehen können, und ein Programm malt den Bildschirm für jede UV-Frequenz, die Sie nicht sehen können, in einer anderen Farbe.

Peter Green
2020-02-03 08:51:43 UTC
view on stackexchange narkive permalink

Eine Kamera speichert kein Licht. Das Licht, das Sie sehen, wenn Sie ein Foto betrachten, ist nicht dasselbe wie das Licht, das beim Aufnehmen des Fotos aufgenommen wurde.

Wenn Licht in eine Digitalkamera eintritt, löst es elektrische Änderungen im Bildsensor aus, die von einem ADC in digitale Daten umgewandelt werden. In einer Filmkamera verursacht das Licht stattdessen chemische Veränderungen in der Filmemulsion, die bis zur Entwicklung des Films erhalten bleiben

Menschen sind im Grunde Trichromaten. Wir haben drei verschiedene Arten von "Zapfen" in unseren Augen mit unterschiedlichen Reaktionen auf Licht. So können wir es schaffen, Farben mit drei Zahlen pro Pixel in einem digitalen Bildgebungssystem oder drei Schichten in einem chemischen Film darzustellen.

Einige Zeit später rekonstruieren wir ein Bild, das eine Person sehen kann. In einer vereinfachten Digitalkamera würden wir die Rot-, Grün- und Blauwerte für jedes Pixel verwenden und sie verwenden, um die rotgrünen und blauen Pixel auf unserem Display zu beleuchten. In der Realität sind normalerweise einige Anpassungen erforderlich, da die Filter in der Kamera das menschliche Auge nicht genau darstellen und sich die Frequenzbänder überlappen, sodass keine "Primärfarben" gefunden werden können, die nur einen Kegel auslösen. P. >

Normale Digitalkameras sind so konzipiert, dass sie sich unseren Augen annähern, denn genau das wollen die meisten Menschen. Es gibt jedoch keinen grundsätzlichen Grund, warum Kameras so sein müssen. Solange wir eine Linse bauen können, um die Strahlen zu fokussieren, und einen Sensor, der darauf reagiert, können wir ein Bild aufnehmen.

Es ist möglich, eine Kamera so zu bauen, dass sie gleichzeitig mit mehreren Wellenbändern arbeitet. So funktionieren normale Kameras, aber aus mehreren Gründen ist sie keine gute Wahl für die wissenschaftliche Bildgebung. Zunächst muss der "Bayer-Filter" grundsätzlich auf den Sensor gedruckt werden, was bedeutet, dass er nicht geändert werden kann. Zweitens bedeutet dies, dass Ihre Pixel für verschiedene Wellenbereiche leicht unterschiedliche räumliche Positionen haben.

Für dunkle Wellenbänder besteht eine häufigere Lösung darin, jeweils ein Wellenband zu erfassen. Die Bilder können dann nach der Erfassung zu einem einzigen Mehrkanalbild kombiniert werden.Oder es kann nur ein monochromes Bild aufgenommen werden, alles hängt vom Ziel der Bildgebung ab.

Natürlich können wir Menschen immer noch nur sichtbares Licht sehen und wir können das nur trichromatisch sehen, daher muss der Schöpfer eines Bildes irgendwann eine Entscheidung darüber treffen, wie die wissenschaftlichen Bilddaten (die möglicherweise willkürlich sind) abgebildet werden sollenAnzahl der Kanäle) zu einem RGB-Bild (mit genau 3 Kanälen) zur Anzeige.Beachten Sie, dass Farbe im endgültigen Bild nicht unbedingt bedeutet, dass die ursprünglichen Bilddaten mehrere Kanäle enthielten. Es ist nicht ungewöhnlich, einen Zuordnungsprozess zu verwenden, der eine einzelne Kanaleingabe einer Farbausgabe zuordnet.

Außerdem ist bei Multiband-Bildgebungschips (z. B. RGB) die Empfindlichkeit geringer, weil die einzelnen Sensoren (der Triade an jedem Pixel) kleiner sind, und die Auflösung ist geringer, weil das Pixel über drei Subsensoren verteilt ist.Ein Graustufen-Imager (monochromatisch) ist empfindlicher gegenüber schlechten Lichtverhältnissen und hat eine bessere Auflösung. Wenn Sie jedoch Filter vorlegen, um jeweils nur eine Farbe durchzulassen, verpassen Sie Änderungen im Laufe der Zeit (nur ein Band bei)eine Zeit kann aufgezeichnet werden).
Bob Jarvis - Reinstate Monica
2020-02-04 05:52:30 UTC
view on stackexchange narkive permalink

Lassen Sie uns mit Ihrer Logik fortfahren.Sie setzen voraus, dass nichts passieren kann, was unser Körper nicht kann.OK:

  1. Wie kann ein Auto mehr als 200 Meilen pro Stunde fahren, wenn wir nicht so schnell fahren können?

  2. Wie kann ein Flugzeug fliegen, wenn wir nicht können?

  3. Wie kann ein U-Boot Wochen unter Wasser verbringen, wenn wir nicht so lange unter Wasser bleiben können (und am Leben :-)?

  4. ol>

    Die Antwort ist, dass die Maschinen, die wir bauen, Dinge tun können, die wir ohne ihre Hilfe nicht tun können.Wir bauen diese Maschinen, um unsere Fähigkeiten zu erweitern.

    Kameras sind Maschinen, die beispielsweise auf Strahlung im ultravioletten und infraroten Bereich des Spektrums reagieren können, was unsere Augen nicht können.

Während dies die Frage auf philosophischer Ebene beantwortet, bezweifle ich, dass es die Art von Antwort ist, die für die Person, die sie hier stellt, hilfreich wäre.
Goran Bojanic
2020-02-04 17:37:55 UTC
view on stackexchange narkive permalink

Antwort auf die Frage: Wie ist es möglich, dass es UV-Fotos gibt, während unsere Augen keine UV-Wellen erkennen können? Wir werden hauptsächlich aus Wasser hergestellt, und Wasser hat einen Absorptionskoeffizienten für das "optische Fenster", dh einen großen an den Enden des Fensters (Infrarot und Ultraviolett) und einen niedrigen Wert bei grüner Wellenlänge.Dies ist also ein Grund für unsere Sensibilität für Grün.

Es ist nicht klar, wie dies die Frage des OP beantwortet.


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 4.0-Lizenz, unter der er vertrieben wird.
Loading...