Frage:
Warum können wir verschiedene Tonhöhen in einem Akkord unterscheiden, aber nicht verschiedene Lichtfarben?
chharvey
2018-12-01 08:08:42 UTC
view on stackexchange narkive permalink

Wenn in der Musik zwei oder mehr Tonhöhen gleichzeitig gespielt werden, bilden sie einen Akkord. Wenn jede Tonhöhe eine entsprechende Wellenfrequenz hat (ein reiner oder grundlegender Ton), ergeben die zusammengespielten Tonhöhen eine Überlagerungswellenform, die durch einfache Addition erhalten wird. Diese Welle ist keine reine Sinuswelle mehr.

Wenn Sie beispielsweise eine tiefe und eine hohe Note auf einem Klavier spielen, hat der resultierende Klang eine Welle, die die mathematische Summe der Wellen jeder Note ist. Gleiches gilt für Licht: Wenn Sie eine Wellenlänge von 500 nm (grünes Licht) und eine Wellenlänge von 700 nm (rotes Licht) an derselben Stelle auf einer weißen Oberfläche leuchten, ist die Reflexion eine Überlagerungswellenform, die die Summe aus Grün und Rot ist.

Meine Frage bezieht sich auf unsere Wahrnehmung dieser Kombinationen. Wenn wir einen Akkord auf einem Klavier hören, können wir die Tonhöhen erkennen, aus denen dieser Akkord besteht. Wir können „herausfinden“, dass der Akkord zwei (oder drei usw.) Noten enthält, und einige von uns, die musikalisch veranlagt sind, können sogar jede Note zurücksingen und sogar benennen. Man könnte sagen, dass wir eine Fourier-Tonreihe zerlegen können.

Aber anscheinend können wir das nicht mit Licht machen. Wenn Sie grünes und rotes Licht zusammen leuchten, erscheint die Reflexion gelb, ein „reiner Farbton“ von 600 nm, anstatt einer Überlagerung von Rot und Grün. Wir können die einzelnen Farben, die kombiniert wurden, nicht „auswählen“. Warum ist das so?

WWarum können wir nicht zwei Lichtfarben so sehen, wie wir zwei Tonhöhen hören können? Ist dies ein Merkmal der menschlichen Psychologie? Tierphysiologie? Oder liegt dies an einer grundlegenden Eigenschaft des Elektromagnetismus?

Eng verwandte Fragen [hier] (https://physics.stackexchange.com/questions/270600/why-do-we-perceive-a-mixture-of-blue-and-yellow-paint-as-green/) und [hier] (https://physics.stackexchange.com/questions/122601/why-does-adding-red-light-with-blue-light-give-purple-light).
Eine kurze Antwort wäre: Unsere Augen nehmen so viel mehr Informationen pro Sekunde wahr.Das Hören von Geräuschen ist sporadisch, Sie können es sich leisten, sie gut zu interpretieren, da dies nützlich ist, um zu wissen, was kommt.Das Zerlegen von Pixeln mit jeweils 24 Bildern pro Sekunde würde jedoch so viele Ressourcen erfordern, dass es sich einfach nicht lohnt. Sie werden auch dafür keine wirklich nützlichen Informationen erhalten.
2 Strahlen unterschiedlicher Farblichter überlagern nicht wie der Klang eine einzelne Wellenform.Eine ist eine elektromagnetische Welle, die andere ist nur ein Druck, der sich durch Luft bewegt.
Säugetiere waren in der Zeit der Dinosaurier normalerweise nachtaktiv, deshalb brennen sie leicht und haben Schnurrhaare.Nur Primaten haben RGB-Sehvermögen, Delfine sehen nur grün und die meisten Säugetiere sehen kein Rot.Augen haben 3 Wellenlängenerfassungs-Photorezeptoren, Ohren haben Tausende von kontinuierlichen Wellenlängenerfassungsnerven in einer sich verjüngenden Spiralröhre.Photonen verschmelzen übrigens nicht, Schalldruck schon.
@MadHatter - Es ist bekannt, dass sich EM-Wellen überlagern und konstruktive / destruktive Interferenzen verursachen, wie im [Doppelspaltexperiment] (https://en.wikipedia.org/wiki/Double-slit_experiment) gezeigt wurde.
Stimmt, aber sie ändern nicht die Frequenz, um eine neue Energie zu erzeugen.Das heißt,Wir können Rot plus Blau als Gelb sehen, aber nicht, weil sich die Energie der Welle geändert hat, um ihre Frequenz zu haben.
Vergessen wir nicht die Bedürfnisse unserer Sinnesorgane durch die Kräfte der Evolution.Es ist eine Überlebensfähigkeit, eine sehr feine Richtungsauflösung für mindestens einen der Sinne zu haben.Das Sehen wurde das, weil dort eine niedrige Wellenlänge hilft.Im Auge ist kein Platz für Sensoren, um eine vollständige Fourier-Analyse mit der gewünschten hohen Auflösung durchzuführen.Ohr, OTOH hat Probleme beim Auflösen von Richtungsdaten (benötigt Stereo, um sich ein Bild zu machen), aber der verfügbare Platz für Sensoren kann sinnvoll (zumindest für die Kommunikation) ausgestattet werden, um die Frequenzen zu zerlegen.
Das Ohr enthält eine Harfe mit vielen Saiten, die jeweils für eine bestimmte Frequenz empfindlich sind.Das Auge enthält drei Arten von Rezeptoren - rot, grün und blau.Alle anderen Farben als diese werden "beurteilt", indem die relativen Intensitäten der drei Farben beurteilt werden.
Es gibt ein schönes Kapitel in Vol.1 der Feynman-Vorlesungen über [Mechanik des Sehens] (http://www.feynmanlectures.caltech.edu/I_36.html).Er geht auch auf die Wahrnehmung von Schall am Ende des Kapitels über Harmonische in einem Abschnitt mit dem Titel [nichtlineare Antworten] ein (http://www.feynmanlectures.caltech.edu/I_50.html#Ch50-S6).Ich habe gerade einige dieser Abschnitte noch einmal gelesen, um einen netten Leckerbissen zu finden, den ich hier teilen kann, aber wie immer ist seine Erklärung eine ziemlich vollständige Reise.Spring einfach rein.
FGSUZ, diese Antwort ist eindeutig falsch.Das auditorische System ist um mehrere Größenordnungen schneller als das visuelle System.Es gibt physiologische Fakten, auf die hingewiesen werden muss, aber es reicht aus zu sagen, dass die Video-Abtastraten ungefähr 24 bis 60 pro Sekunde betragen, während die Audio-Abtastraten typischerweise 44100 pro Sekunde betragen.
@Matt74 könnte man argumentieren, dass das Auge _massiv_ parallel ist (jeder Stab / Kegel ist ein separater Sensor - und das Auge als Ganzes hat keine _ "Bildrate" _), während das auditorische System ein Paar von einzelnen, individuell schneller istSensoren mit hoher Reichweite.Wenn Sie Daten vergleichen möchten, sehen Sie sich die relativen Größen von Video- und Audiodateien gleicher Länge an.Der Vergleich ist nicht besonders einfach.
Nitpick: Tatsächlich ergibt das grün + rote Licht ein Gelb, das nur ein kleines bisschen weniger gesättigt ist als das reine gelbe Licht.Während wir jeden Farbton mit der RGB-Farbkomposition abgleichen können, können wir nur die vollständige Sättigung der drei von uns verwendeten Grundfarben anpassen (vorausgesetzt, diese Grundfarben werden von Lasern emittiert).Alle anderen Farbtöne werden aufgrund einer Mischung von Frequenzen leicht ausgegraut angezeigt.
@Matt74 Nein, das ist nicht ganz richtig.Wir "probieren" keine schnellen Druckänderungen ... wir nehmen Frequenzen und ihre Beziehungen zueinander wahr.Es stellt sich heraus, dass wir dies auch nur etwa 40-60 Mal pro Sekunde tun können ... genau wie bei visuellen Änderungen.
@chharvey Eine Sache, die zu berücksichtigen ist, ist, dass beim Klang vieles, was wir hören, Harmonische sind, die außerhalb Oktaven sind.Wir haben nicht einmal eine volle Oktave mit sichtbarem Licht.Abgesehen von physiologischen Unterschieden vermute ich (weiß es aber nicht wirklich), dass dies einer der Gründe ist, warum es anders ist.
Brent Weeks 'Nachdenken über die gleiche Frage brachte die wunderbaren Lightbringer-Romane hervor.Sehr empfehlenswert.
Die Aussage "Wenn wir einen Akkord auf einem Klavier hören, können wir die Tonhöhen erkennen, aus denen dieser Akkord besteht."ist unvollständig.Wenn ein Akkord auf einem Klavier angeschlagen wird, beginnt jede Note im Akkord zu einer anderen Zeit, und diese Zeitunterschiede sagen dem Hörer, dass es sich um einen Akkord aus mehreren Noten handelt und nicht um einen einzelnen komplexen Ton.(Dies lässt sich leicht mit einem E-Piano und seiner Lautstärkeregelung demonstrieren.)
@Baldrickk - ja du hast recht - der Vergleich ist nicht einfach.Ich denke jedoch nicht, dass die Dateigröße in diesem Fall eine gute Vergleichsbasis ist.Für elektronische Medien müssen wir die Pixel parallel darstellen.Wenn wir das in Ton machen müssten, müssten die Dateien sicherlich größer sein.Aber das auditive System macht es für uns, also gibt es keine Notwendigkeit.Und es ist auch fair zu sagen, dass das auditorische System auch parallel läuft, da es mehr als 3500 innere Haarzellen gibt, die jeweils pseudounabhängig an entsprechende Spiralganglienzellen signalisieren.
@Brad - Der Hörnerv kann der akustischen Feinstruktur bis zu 4000 bis 5000 Mal pro Sekunde genau folgen (Rose et al. 1968, Hörmechanismen bei Wirbeltieren), was viel mehr als 40-60 Mal pro Sekunde entspricht.Aber vielleicht denken Sie speziell darüber nach, den Wechsel von einer Frequenz zur anderen wahrzunehmen?oder Darstellung im Kortex?Ich bin mir nicht sicher über das Tempolimit.
@Matt74 Ja genau!Ein Beispiel dafür in der Praxis ... komprimiertes Audio wie MP3 arbeitet im Frequenzbereich und hat eine minimale Bildgröße von etwa 2 Millisekunden.Musiker und aufmerksame Zuhörer können einen Unterschied zwischen diesem und unkomprimiertem Audio feststellen, insbesondere beim "Verschmieren" von Transienten mit höheren Frequenzen. Für die meisten Leute ist die Genauigkeit jedoch in Ordnung, solange die Frequenzkomponenten genau wiedergegeben werden.
Ich stimme dafür, diese Frage als nicht zum Thema gehörend zu schließen, da es um die physiologischen Reaktionen auf Reize und nicht um Physik geht.
@KyleKanos, bitte überdenken.Ich wusste das nicht, als ich die Frage stellte, und sie sollte nicht aufgrund der Art der richtigen Antwort bestraft werden.Und da es mehr als 70 Upvotes gibt, hat die Community zugestimmt, dass dies eine gute Frage ist.
@chharvey es ist nicht die "Natur der richtigen Antwort" hier, es ist die Natur der * Frage *.Sie fragen sich, warum Menschen X nicht können, aber das ist keine physikalische Frage, das ist eine biologische, daher ist es nicht zum Thema (und Antworten * stellen * keine Frage zum oder außerhalb des Themas, die Frage allein schonDas).Ich vermute, dass diese Hot Network-Frage getroffen wurde, und deshalb ist für eine solche (IMO) wertlose Frage eine lächerliche Menge an Vertretern angesammelt.
Fünf antworten:
niels nielsen
2018-12-01 08:33:22 UTC
view on stackexchange narkive permalink

Dies liegt an den physiologischen Unterschieden in der Funktion der Cochlea (für das Hören) und der Netzhaut (für die Farbwahrnehmung).

Die Cochlea trennt einen einzelnen Kanal komplexer Audiosignale in ihre Komponentenfrequenzen und erzeugt ein Ausgangssignal, das diese Zerlegung darstellt.

Die Netzhaut weist stattdessen eine sogenannte Metamerie auf, bei der nur drei Sensortypen (für R / G / B) verwendet werden, um ein Ausgangssignal zu codieren, das das gesamte Spektrum möglicher Farben als variable Kombinationen dieser RGB-Pegel darstellt.

Dies ist die einzige Antwort, die sich bisher richtig auf die Rolle der Cochlea konzentriert.Dies ist eine bessere Antwort als die akzeptierte Antwort.
Ich stimme zu, dass diese Antwort technisch korrekter ist, aber ich denke, es fehlt der entscheidende Punkt: Unsere Ohren können mechanische Wellenformen erfassen, während unsere Augen keine elektromagnetischen Wellenformen erfassen können.Es gibt Raum für Verbesserungen, die ich begrüße.
Kurz gesagt, der Grund "man könnte sagen, dass wir eine Fourier-Reihe von Klängen zerlegen können" ist, dass * genau das die Cochlea tut *.
Genau.ein ziemliches Gerät - bis es anfängt zu versagen, wie meins!
Ich denke, es ist erwähnenswert, dass wir genau wie beim Sehen letztendlich nicht mit unseren Ohren, sondern mit unserem Gehirn hören und das Ohr-Gehirn-System auch getäuscht werden kann. Https://en.wikipedia.org/wiki/Auditory_masking
@chharvey Nein, Sie können mit Ihrem Ohr keine "mechanischen Wellenformen" erfassen.Alles, was Sie spüren, ist eine Reihe von Frequenzen, und verschiedene Wellenformen haben zufällig unterschiedliche Mengen an Harmonischen in ihrer Fourier-Transformation.** Die Phasen der verschiedenen Schallfrequenzen werden von Ihren Ohren nicht erfasst ** und daher gibt es immer eine Vielzahl unterschiedlicher Wellenformen als genau der gleiche Klang.
[Versuchen Sie, Sound zu hören, der aus einer 220-Hz-Sinuswelle plus einer 222-Hz-Sinuswelle gleicher Amplitude besteht] (https://vocaroo.com/media_command.php?media=s0pgyHOTpKVN&command=download_mp3).Das Ohr erkennt nicht nur "220 Hz" plus "222 Hz".
Nur zu behaupten, dass das Ohr Fourier-Reihen oder eine Fourier-Transformation wahrnimmt, macht keinen Sinn.Das Ohr kann Klangänderungen in sehr kurzer Zeitskala erkennen, aber wörtlich genommen würde eine Fourier-Transformation bedeuten, dass das, was Sie hören, nicht von der Zeit abhängt.
@JiK: ist eine Vereinfachung.
@whatsisname Die Kommentare hier haben behauptet, dass dies * genau * das ist, was die Ohrmuschel tut, und jemanden korrigiert, indem sie sagten, dass wir keine Phasen unterscheiden können, nur Frequenzen.Eine Vereinfachung ist gut, solange sie nicht wörtlich genommen wird, was diese Kommentare zu haben scheinen.Schließlich sollte die Vereinfachung in einem Fourier-Transformationskurs mit großer Sorgfalt durchgeführt werden, da dies die Schüler möglicherweise mehr verwirrt als hilft, da es so klingt, als könne das Ohr "die Fourier-Transformation dieser Aufzeichnung f (t) bei t = 10s finden"was keine Sache ist.
Halbeard
2018-12-01 09:06:02 UTC
view on stackexchange narkive permalink

Unsere Sinnesorgane für Licht und Ton arbeiten auf physiologischer Ebene ganz anders. Das Trommelfell reagiert direkt auf Druckwellen, während die Fotorezeptoren auf der Netzhaut nur in einem engen Bereich um die mit Rot, Grün und Blau verbundenen Frequenzen empfindlich sind. Alle dazwischen liegenden Lichtfrequenzen regen diese Rezeptoren teilweise an, und der Eindruck, beispielsweise Gelb zu sehen, entsteht dadurch, dass die grünen und roten Rezeptoren mit bestimmten relativen Intensitäten austreten. Aus diesem Grund können Sie das Farbspektrum mit nur 3 verschiedenen Farben pro Pixel des Displays vortäuschen.

Das Sehen von Farbe in diesem Sinne ist auch eher eine nützliche Illusion als das direkte Erfassen physikalischer Eigenschaften. Das Mischen von Farben in der Mitte des sichtbaren Spektrums behält eine gute Annäherung an die durchschnittliche Frequenz der Lichtmischung bei. Wenn Farben von den Rändern des Spektrums gemischt werden, d. H. Rot und Blau, erfindet das Gehirn die Farbe Lila oder Rosa, um diese sensorische Eingabe zu verstehen. Dies entspricht jedoch weder dem Durchschnitt der Frequenzen (was zu einer grünlichen Farbe führen würde) noch einer physikalischen Lichtfrequenz. Gleiches gilt für Weiß oder einen beliebigen Grauton, da diese allen Rezeptoren entsprechen, die mit gleicher Intensität aktiviert werden.

Säugetieraugen haben sich auch so entwickelt, dass sie eher die Intensität als die Farbe unterscheiden, da die meisten Säugetiere nachtaktive Wesen sind. Ich bin mir jedoch nicht sicher, ob die Fähigkeit, in Farbe zu sehen, erst kürzlich hergestellt wurde. Dies wäre eine Frage für einen Biologen.

genial!Übrigens könnte dies helfen, Ihre biologische Frage zu beantworten: https://en.wikipedia.org/wiki/Diurnality#Evolution_of_diurnality
Beachten Sie, dass Sie nicht alle Farben mit nur drei Primärfarben fälschen können.Der vom Menschen sichtbare [Farbumfang] (https://en.wikipedia.org/wiki/Color_gamut) ist kein Dreieck, daher befinden sich einige Farben immer außerhalb des Ausgabeverhältnisses Ihres Anzeigegeräts.
Vielleicht ein Trottel, aber es ist nicht das Trommelfell, das Geräusche erkennt.Es ist eher ein Übertragungsgerät.Das eigentliche Sinnesorgan ist die Cochlea https://en.wikipedia.org/wiki/Cochlea Es ist eine spiralförmige Röhre mit Sinneshaaren.Töne einer bestimmten Frequenz vibrieren die Haare an der Stelle in der Cochlea, an der der Ton mitschwingt.Die Tonerkennung ist also effektiv kontinuierlich, während die Farberkennung von der Mischung der 3 Farbsensoren abhängt.
Ja, ich muss zugeben, dass dieser Teil der Antwort etwas zu handgewellt war.Ich war tatsächlich ein bisschen überrascht, dass dies die akzeptierte Antwort wurde, nachdem ich die beiden gesehen hatte, die vor mir gepostet wurden.Es wird aktualisiert, wenn dies so bleibt.
Tatsächlich sind die Fotorezeptoren empfindlich gegenüber ziemlich großen Banden (im Vergleich zum Abstand ihrer Peaks), sogar gegenüber überlappenden.
@HalberdRejoyceth, ja, bitte aktualisieren.Ich habe Ihre Antwort gewählt, weil sie den zugrunde liegenden Punkt erreicht hat - dass unsere Ohren echte Wellenformen wahrnehmen, während unsere Augen dies nicht tun.Ich fand das, um meine Frage ausreichend zu beantworten, auch wenn es nicht die vollständige Wahrheit ist.Ich denke jedoch, dass Sie der Gemeinschaft zugute kommen würden, wenn Sie die Unterschiede in der Funktionsweise der Cochlea und der Netzhaut genauer erläutern würden.
Haben Sie eine Quelle für Ihre Behauptung, dass die meisten Säugetiere nachtaktiv sind?Während wir annehmen, dass sie (wir) während der Hochzeit der Dinosaurier waren, ist dies immer noch der Fall?
@Ruslan wie https://en.wikipedia.org/wiki/File:CIExy1931_srgb_gamut.png?
@Baldrickk ja, aber selbst für bessere Monitor-Gamuts als sRGB, z.[Rec.2020] (https://en.wikipedia.org/wiki/File:CIExy1931_Rec_2020.svg) Wir haben immer noch viele Farben außerhalb des Farbumfangs.
@phresnel Es ist allgemein bekannt, siehe: [Nächtlicher Engpass] (https://en.wikipedia.org/wiki/Nocturnal_bottleneck).Säugetiere, die nicht richtig nachtaktiv sind (was etwa 70% aller Säugetiere ausmacht), sind im Allgemeinen entweder crepuscular oder kathemeral.Menschen gehören zur Minderheit der tagaktiven Säugetiere und haben neben den höheren Primaten auch ein ungewöhnlich überlegenes Farbsehen - die meisten anderen Säugetiere haben ein schlechtes Farbsehen und eine geringere Sehschärfe, die beide für ein viel besseres Nachtsichtopfer geopfert werden, was Menschen ziemlich schlecht tun.
@PaŭloEbermann, deshalb können wir andere Farben als RGB wahrnehmen.Wenn die Antworten sehr eng wären, wären Sekundärfarben (z. B. Orange, Gelb, Cyan) für uns praktisch unsichtbar oder würden sich nur als Farbe ihres "nächsten Nachbarn" registrieren lassen (Orange-> Rot, Gelb-> Grün, Cyan-> Grünoder blau usw.). Durch einen größeren Empfindlichkeitsbereich können wir nur mit diesen drei Zelltypen andere Farben aufnehmen (und dies gibt uns die Möglichkeit, uns selbst dazu zu verleiten, diese Sekundärfarben auf einem RGB-Display wahrzunehmen).
Ich dachte, der Grund, warum Purpur als eine Mischung aus Rot und Blau wahrgenommen wird, ist, dass seine Frequenz nahe genug ist, um die von rotem Licht zu verdoppeln, so dass es die "roten" Zapfen (wenn auch in geringerem Maße) zusammen mit den "blauen" Zapfen stimuliert.Eine Mischung aus Blau und etwas Rot tut unseren Augen dasselbe.
@J ...: Danke für die URL, aber ich kenne bereits den Engpass (_ "Während wir annehmen, dass sie (wir) während der Hochzeit der Dinosaurier waren" _).Die eigentliche Frage war _ "Ist das ** immer noch ** der Fall?" _.Ich fand jedoch [eine Quelle] (https://www.theguardian.com/science/2017/nov/06/mammals-switched-to-daytime-activity-after-dinosaurs-died-out-says-study):_ "" Die meisten Säugetiere sind heute nachtaktiv und besitzen Anpassungen, um in dunklen Umgebungen zu überleben ", sagte der Co-Autor der Studie, Roi Maor von der Universität Tel Aviv." _
@phresnel +1, um alles zu wissen, -1, um weniger zu wissen, als Sie denken.Der dritte Satz in dem von mir verlinkten Wiki-Artikel lautet: "Während sich einige Säugetiergruppen später entwickelt haben, um tagaktive Nischen zu füllen, haben die rund 160 Millionen Jahre, die als nachtaktive Tiere verbracht wurden, ein bleibendes Erbe der basalen Anatomie und Physiologie hinterlassen, und die meisten Säugetiere sind immer noch nachtaktiv.".`
@MontyHarder Ich denke, Hellebarde hat die Farbe falsch geschrieben / falsch beschriftet?Violett ist im Regenbogen, es ist eine echte Farbe und verhält sich so, wie Sie es beschreiben.Aber * Mangenta *, das "purpurrosa" aussieht, wird erfunden.Es existiert nicht im Regenbogen und wenn Sie den Regenbogen einwickeln, befindet es sich im "unsichtbaren Bereich" gegenüber von Grün.Ich glaube, Lila ist wie Violett definiert und liegt auch im "realen Bereich" gegenüber dem "imaginären Bereich".
Um fair zu sein, in der Highschool hatten wir eine Stunde lang eine ungelöste Debatte darüber, ob Magenta hauptsächlich Lila, Pink, Rot, Blau oder Weiß ist.Eine imaginäre Farbe zu haben, trübt das Wasser aller Farben, die ähnlich aussehen: d
Yly
2018-12-01 08:36:33 UTC
view on stackexchange narkive permalink

Dies ist hauptsächlich auf physiology zurückzuführen. Es gibt einen grundlegenden Unterschied in der Art und Weise, wie wir Schall gegenüber Licht wahrnehmen: Für Schall können wir die tatsächliche Wellenform erfassen, während wir für Licht nur die Intensität erfassen können. Um dies zu erläutern:

  • Schallwellen, die in Ihr Ohr eindringen, verursachen synchrone Vibrationen in Ihrer Cochlea. Verschiedene Regionen der Cochlea haben winzige Haare, die frequenzselektiv vibrieren. Die Schwingungen dieser Haare werden in elektrische Signale umgewandelt, die an das Gehirn weitergeleitet werden. Aufgrund der Frequenzselektivität der Haare führt die Cochlea im Wesentlichen eine Fourier-Transformation durch, weshalb wir Überlagerungen von Wellen wahrnehmen können.
  • Licht hat eine so hohe Frequenz, dass fast nichts die tatsächliche Wellenform auflösen kann (selbst moderne Elektronik kann dies heutzutage nicht). Alles, was wir effektiv messen können, ist die Intensität des Lichts, und das ist alles, was die Augen auch wahrnehmen können. Die Intensität eines Lichtstrahls zu kennen, reicht nicht aus, um seinen spektralen Inhalt zu bestimmen. Z.B. Eine Überlagerung von zwei monochromatischen Wellen kann die gleiche Intensität haben wie eine reine monochromatische Welle mit einer anderen Frequenz.

    Wir können Überlagerungen von Licht nur begrenzt unterscheiden, da die Augen drei separate Farbkanäle wahrnehmen (ungefähr RGB). Deshalb können wir gleiche Intensitäten von rotem und blauem Licht unterscheiden. Menschen mit Farbenblindheit haben einen defekten Rezeptor, so dass Farbkombinationen, die die meisten Menschen unterscheiden können, mit ihnen identisch erscheinen.

    Nicht alle Farben, die wir wahrnehmen, entsprechen einer Farbe einer monochromatischen Lichtwelle. Bekanntlich gibt es eine ganze " Linie von Purpur", die keine monochromatische Lichtwelle darstellen. Für Personen, die in der Unterscheidung von violetten Farben geschult sind, können sie Überlagerungen von Lichtwellen auf begrenzte Weise unterscheiden.

    enter image description here

  • * "... elektrische Signale, die die tatsächliche Wellenform des Klangs darstellen. Das Gehirn ... führt eine Fourier-Transformation durch ..." * Dieser Teil Ihrer Antwort ist leider falsch.Die Zerlegung in verschiedene Audiofrequenzen erfolgt mechanisch in der Cochlea, bevor Vibrationen in Nervensignale umgewandelt werden.Die eigentliche Wellenform wird also nicht an das Gehirn gesendet.
    @Emil Haben Sie eine Referenz dafür?Ich bin kein Experte, daher würde ich meine Antwort gerne mit besseren Informationen überarbeiten, aber ich verstehe, dass das Trommelfell Schallwellen in die Flüssigkeit der Cochlea leitet, wodurch Stereozilien im Corti-Organ vibrieren, was wiederum mechanisch istbestimmte Neurotransmitterkanäle aktivieren.Es ist auf der Wikipedia-Seite für Corti-Orgel beschrieben.Ich sehe keinen Hinweis auf Frequenzdiskriminierung in der Cochlea.
    @Yly Emil ist korrekt;Die Cochlea macht die Fourier-Transformation mechanisch.Siehe http://www.cochlea.eu/en/cochlea/function
    @zwol Danke.Ich habe die Antwort entsprechend korrigiert.
    Ich bin mir nicht sicher über deinen 2. Punkt.Sicherlich kann ein einfacher Spektrograph Lichtfrequenzen gut auflösen?Aber Augen sind in erster Linie für räumliche Diskriminierung und nicht für Frequenz wie das Ohr angeordnet.Wenn wir wollten, dass ein Organ beides kann, wären weitaus mehr Sensoren erforderlich: Jeder Stab / Kegel in einem Auge benötigt ein separates Neuron für jedes Frequenzband, das Sie unterscheiden möchten.
    Bei @jamesqf geht es nicht um das Auflösen von Frequenzen, sondern um das Auflösen von Wellenformen.Versuchen Sie, eine Wellenform mit einem Signal von ~ 550 THz aufzuzeichnen. Sie werden sehen, wie "einfach" das ist.
    Das Ohr erfasst nicht die tatsächliche Wellenform, sondern nur die Größen der Frequenzen.Die Phase wird nicht erkannt.Daher ist es unmöglich, eine Wellenform aus dem zu rekonstruieren, was dem Gehirn signalisiert wird.Alle Wellenformen mit den gleichen Obertonamplituden klingen genau gleich.
    bobuhito
    2018-12-01 16:56:29 UTC
    view on stackexchange narkive permalink

    Rod (1 Typ) plus Kegel (3 Typen) Neuronen im Auge geben Ihnen das Potenzial für eine 4-D-Empfindung. Da das Stabsignal für die Gesamtheit der Kegelsignale nahezu redundant ist, ist dies effektiv eine 3-D-Empfindung

    Cochlea-Neuronen (ungefähr 3500 "Typen", einfach aufgrund von 3500 verschiedenen Innenhaar -Positionen) Im Ohr haben Sie das Potenzial für eine 3500-D-Empfindung, sodass trainierte Ohren dies möglicherweise können Erkennen Sie die simulaten Amplituden von Tausenden von Frequenzen.

    Um Ihre Frage zu beantworten, haben sich die Augen einfach nicht zu vielen Kegeltypen entwickelt.Eine Verbesserung wird jedoch durch die Augen von Mantis-Garnelen (mit dem Potenzial für eine 16-D-Empfindung) gesehen.Beachten Sie den Kompromiss zwischen räumlicher Bildauflösung und Farbwahrnehmung (und dass die räumliche Audioauflösung in der Evolution weniger wichtig und aufgrund der längeren Wellenlänge schwieriger war).

    Das Stabsignal ist unter mesopischen Sichtbedingungen nicht redundant.Unter diesen Bedingungen erhalten Sie tetrachromatisches Sehen.Siehe z.[dieses Papier] (http://dx.doi.org/10.1002/col.20603) (leider kostenpflichtig).
    Endlich eine Antwort, die es kurz und richtig formuliert :-)
    MSalters
    2018-12-03 17:19:31 UTC
    view on stackexchange narkive permalink

    Die Haare bilden ein 1D-Array entlang der Frequenzachse, während Stäbe und Stäbe und Zapfen ein räumliches 2D-Array bilden.Darüber hinaus verfügt dieses 2D-Array über 4 Kanäle (Stäbe und 3 Arten von Kegeln).Die beiden Ohren haben also eine schlechte räumliche Auflösung, während die Augen eine schlechte Frequenzauflösung haben.

    Sie können sich ein Auge mit viel mehr Zapfentypen vorstellen, das Ihnen eine bessere Frequenzauflösung bietet.Dies würde jedoch bedeuten, dass die Kegel für eine einzelne Farbe weiter voneinander entfernt wären, was die räumliche Auflösung einschränkt.Am Ende ist das ein evolutionärer Kompromiss.Die Physik sagt uns, dass Sie nicht beide gleichzeitig haben können, aber die Biologie ist der Grund, warum wir dieses spezielle Ergebnis erzielen.



    Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 4.0-Lizenz, unter der er vertrieben wird.
    Loading...