Frage:
Könnte ein Computer das Bild von einem unscharfen Mikroskop unscharf machen?
user273872
2017-08-02 12:31:36 UTC
view on stackexchange narkive permalink

Grundsätzlich frage ich mich, wie ein unscharfes Bild aussieht.Handelt es sich um zufällige Informationen?Könnte die Unschärfe durch einen Algorithmus rückgängig gemacht werden?

Ich denke, dies sollte wahrscheinlich auf Kreuzvalidierung sein.Aber ich denke, die Antwort lautet "Nein, aber wenn Sie die Eigenschaften des Unschärfeprozesses kennen (das ist das physikalische Bit), können Sie einige clevere Tricks anwenden, um das Bild weniger schlecht erscheinen zu lassen".
Ich interessiere mich weniger für den Algorithmus-Teil und mehr für das Physik-Bit. Ich habe nur den Computer-Wortlaut verwendet, den ich verwendet habe, weil ich mir keine physikalischere Art vorstellen konnte, Dinge zu formulieren.Die Optik hat mich immer verwirrt und verwirrt.
Ich stimme dafür, diese Frage als nicht zum Thema gehörend zu schließen, da dies alles mit Bildprozess und Computergrafik zu tun hat.
Möglicherweise kann die Signalverarbeitung oder math.stackexchange hilfreich sein, wenn Sie weitere technische Details dazu wünschen.
Als das Hubble-Teleskop zum ersten Mal gestartet wurde und sie feststellten, dass der Spiegel fehlerhaft war, taten sie genau dies ein oder zwei Jahre lang, bis eine Korrekturoptik installiert werden konnte.
Wenn dies möglich wäre, wäre es für eine kurzsichtige Person auch möglich, das unscharfe Bild ohne Brille mental zu korrigieren?
Bedenken Sie, dass ein Bild, das aufgrund eines einfachen schlechten Fokus unscharf ist, wie ein elektronisches Signal ist, das durch ein "Tiefpass" -Filter gesendet wird.Es ist möglich, dies (bis zu einem gewissen Grad) umzukehren, indem das Signal durch das entsprechende "Hochpass" -Filter geleitet wird.Dies ist natürlich immer unvollkommen und hat den bösen Effekt, dass jegliches Rauschen im Signal verstärkt wird.
@HotLicks Es gibt "bessere" Algorithmen, aber ich denke, sie haben immer einige eingebaute Kriterien für "Güte", die sie optimieren, was zu Artefakten führt.
@HotLicks ist eigentlich kein Hochpassfilter, den Sie wollen, sondern ein Hochregalfilter, der als "ungefiltertes Signal plus etwas Hochpass-Boost" betrachtet werden kann.Die Niederfrequenzkomponenten sind schließlich von Unschärfe / Tiefpassfilterung nicht betroffen.
Ich bin überrascht, dass Leute Stats.SE oder Math.SE vorschlagen ... es ist ganz klar eine klassische Frage der Signalverarbeitung.Sollte auf DSP sein.
Die Tatsache, dass eine Frage auf einer anderen Site zum Thema gehört, macht sie hier nicht zum Thema.Nicht einmal, wenn es auf einer anderen Seite * besser * wäre.Die Frage kann in physikalische Begriffe umgewandelt werden, indem nach Lichtbeiträgen an anderen Orten als der Fokusebene gefragt wird.Es gibt auch eine gute Verbindung zur experimentellen Analyse von Daten in der Nähe der Grenzen einer begrenzten Akzeptanz, wenn Sie Effekte neu verteilen, die nur über den gesamten Phasenraum konservativ sind (was beispielsweise in meiner Dissertationsarbeit explizit erwähnt wurde).
Sechs antworten:
sammy gerbil
2017-08-02 13:40:56 UTC
view on stackexchange narkive permalink

Die Unschärfe ist nicht zufällig, sondern vorhersehbar. Eine grundlegende Erklärung finden Sie unter Kann jemand bitte erklären, was im mikroskopischen Maßstab passiert, wenn ein Bild von einem Projektorobjektiv auf einem Bildschirm unscharf wird?.

Jeder Punkt des fokussierten Bildes wird in ein Beugungsmuster von Ringen verteilt, das als Punktspreizfunktion (PSF) bezeichnet wird, und diese Ringmuster überlappen sich, um das unscharfe Bild zu bilden . Das unscharfe Bild ist die Faltung des Objekts und der PSF.

Faltung ist eine mathematische Transformation, die unter bestimmten Umständen umgekehrt werden kann (Entfaltung) - beispielsweise wenn das Bild mit kohärentem Licht (von einem Laser) aufgenommen wurde und die PSF bekannt ist. Wenn Fotos mit normalem inkohärentem Licht aufgenommen werden und die PSF unbekannt ist, kann die Unschärfe nicht vollständig rückgängig gemacht werden, es kann jedoch eine signifikante Verbesserung erzielt werden, z. B. mit dem Algorithmus Blind Deconvolution. Beispiele für Objekte und resultierende Bilder können verwendet werden, um die PSF ungefähr zu rekonstruieren, oder es kann eine Gaußsche Funktion verwendet werden.

Bewegungsunschärfe (der Kamera oder des Objekts) kann ebenfalls korrigiert werden. In beiden Fällen werden die Techniken und Probleme in Wiederherstellung von unscharfen und unscharfen Bildern erläutert und Beispiele dafür gegeben, was erreicht werden kann.

Software ist online verfügbar, um unscharfe Bilder zu korrigieren.

Ist die Unschärfe durch falschen Fokus tatsächlich eine planare PSF?Ich habe erwartet, dass es komplizierter wird.
@R nach meinem Verständnis, ja, das ist es.Tatsächlich handelt es sich um eine Reihe paralleler PSFs, um das gesamte 3D-Feld zu erklären.Sie können eine bestimmte Ebene unscharf machen, vorausgesetzt, Sie haben eine Tabelle der vorhersagbaren Strahlengänge * für diese Ebene *.
Toller Link.Ich wusste nicht, dass Sie einen Weiner-Filter verwenden können, um ein Bild unscharf zu machen.Ich benutze es, um Positionswerte von Bewegungssensoren auszugleichen.Ich denke, die beiden Anwendungen sind ähnlich: um den "echten" Wert aus einer verrauschten Eingabe herauszufinden.
Es würde den Unschärfeprozess viel einfacher machen, wenn Kamerabildsensoren Phaseninformationen erfassen könnten, aber ich denke, das ist mit inkohärentem Licht nicht so einfach.: D.
Wäre das resultierende Bild dennoch von wissenschaftlichem Wert?Ich habe das Gefühl, es wäre immer ein Sternchen auf der Arbeit.
Dies führt zu einer anderen Frage: Könnte man bei einem gut fokussierten Mikroskopbild eine Art Bildverbesserung anwenden, um mehr Details zu extrahieren?
@PM2Ring Wenn Sie Phaseninformationen erfassen können, können Sie genügend Informationen aufzeichnen, um die gesamte Szene in 3D zu erfassen.Sie können dies tun, wenn es Ihnen nichts ausmacht, Farbe zu verlieren, indem Sie mit kohärentem Licht fotografieren und einen ungestörten zweiten Strahl hinzufügen, um Interferenzen zu erzeugen, und dann denselben Strahl erneut verwenden, um die ursprüngliche Wellenform zu reproduzieren.Es heißt Holographie und ist überraschend einfach für das, was es tut.Jetzt ist es viel schwieriger, das mit drei verschiedenen Lasern gleichzeitig zu tun ...
Dann wäre das Unschärfen genauso einfach wie das Rendern des Hologramms mit der richtigen virtuellen Kamera.
@jamesqf: Ja, das kann man, obwohl der Prozess allgemein als "Bild-Upscaling ohne Unschärfe" bekannt ist.Siehe meine Frage [hier] (https://superuser.com/q/130988).Es kann nicht mehr Details "extrahieren", aber es kann das fehlende Detail abschätzen.
Octopus
2017-08-02 23:30:44 UTC
view on stackexchange narkive permalink

Ja, es heißt Entfaltung .Hier einige Beispiele für entfaltete Bilder von Mikroskopen:

enter image description here enter image description here enter image description here

Ich habe diese von Googling für "Beispiel eines entfalteten Bildes von einem Mikroskop" gefunden.

Es ist möglich, Laser durch die Linse zu schießen und eine Karte mit Strahlendaten zu erstellen, die im Entfaltungsalgorithmus verwendet werden können.Ich habe dies auch mit einem im Fokus -Bild gesehen und entfaltet, um eine völlig andere Ebene in den Fokus zu bringen.

Endlich ein Kopffüßer!Schöne Grüße!
stafusa
2017-08-02 13:38:56 UTC
view on stackexchange narkive permalink

Ja, es kann (teilweise) rückgängig gemacht werden, da der Prozess nicht zufällig ist und nur ein Teil der Informationen verloren geht.

Physics

Sie kommentieren, dass Sie sich für den physikalischen Aspekt der Frage interessieren. Lassen Sie uns dies zunächst klarstellen: Ein Bild ist focused, wenn jeder Punkt des Objekts einem Punkt des Bildes entspricht - alle Strahlen, die von einem bestimmten Punkt ausgehen Wenn das Objekt z. B. durch die Linse läuft, konvergiert es zu einem einzelnen Punkt (des Sensors, seien es Ihre Augen, ein CCD oder ein Film). Ein Bild ist out of focus, wenn dies nicht der Fall ist: Wenn diese Strahlen verteilt werden und jeder Punkt des Bildes Licht von verschiedenen Punkten des Objekts empfängt. Wenn Sie genau wissen, dass die Unschärfe aufgetreten ist, können Sie versuchen, sie umzukehren.

Das wird besser in dieser Antwort auf die Frage erklärt, warum das Bild mit konvexen Linsen verschwommen oder fokussiert ist?.

Algorithms

Algorithmen zur Entfernung von Unschärfe müssen mit Hypothesen arbeiten, wie genau die Unschärfe stattgefunden hat, d. h. welche Funktion sie besser beschreibt, oder das Modell des Unschärfeprozesses. Wiederherstellungsalgorithmen sind in vielen Bildverarbeitungs-Apps zu finden, aber das ist immer noch ein aktives Forschungsgebiet. Sie können darüber hier und hier unter vielen anderen Quellen lesen. Beachten Sie jedoch, dass die Wiederherstellung nur teilweise erfolgt. E-Artefakte scheinen in den wiederhergestellten Bildern immer vorhanden zu sein.

Purposeful obscuration

Wenn jedoch eine Pixelierung angewendet wird, wird das Bild grobkörnig, sodass Informationen irreversibel verloren gehen. Dies gilt auch für andere Formen der Unschärfe, z. B. Mittelwertbildung und Hinzufügen von Rauschen zum Bild: dann im Allgemeinen Ein Algorithmus kann keine Informationen aus dem Bild wiederherstellen, da die Informationen nicht mehr vorhanden sind.

But, kann ein Algorithmus erraten.Sie können ein künstliches neuronales Netzwerk trainieren, um zu erkennen, was Sie im Bild erwarten oder finden möchten, und es die Details ausfüllen lassen, wie hier und erläuterthier.

Nur um zu beachten, dass einige dieser Vermutungen offensichtlich falsch (Suche nach Google Deepmind-Bildern für absichtliche Änderungen wie diese) oder überraschend genau sein können.Oder beides.Es kann manchmal schwer zu sagen sein.
Eine der interessanteren Möglichkeiten zum "Erraten" ist die Verwendung der [komprimierten (auch komprimierten) Erfassung] (https://en.wikipedia.org/wiki/Compressed_sensing).Wenn die Annahmen erfüllt sind, dh die ursprüngliche Eingabe im relevanten Bereich spärlich ist, sind die Ergebnisse oft unglaublich.Der [erste Treffer] (https://arxiv.org/abs/1107.5790), den ich beim Googeln von "Compressive Sensing Deblur" erhalten habe, veranschaulicht dies in einem nicht blinden Fall.Es gibt auch blinde Entfaltungsansätze wie [this] (http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.307.6665&rep=rep1&type=pdf) mit einem vertrauten Bild.
Diese Antwort enthält einige besonders wichtige Punkte.Die physikalische Natur des Unschärfeprozesses kann es oft (im Wesentlichen) unmöglich machen, Informationen wiederherzustellen.Rauschen und Pixelierung sind zwei Beispiele. Dies würde zu einem Verlust der Beleuchtungskanten für die Bilder führen, was eine Entfaltung unmöglich macht.
Peter Green
2017-08-02 17:16:45 UTC
view on stackexchange narkive permalink

Das Ziel eines Kameraobjektivsystems (ob Mikroskop oder nicht) besteht darin, Licht von einem Punkt auf dem Objekt zu einem Punkt auf dem Sensor zu liefern. Dies kann jedoch aus mehreren Gründen nicht perfekt erreicht werden.

  1. Licht wird von der Apeture gebeugt. Je kleiner die Apeture, desto stärker die Beugung.
  2. Das System ist nur für eine unendlich dünne Ebene perfekt fokussiert. Je größer die Apetur, desto schneller fällt der Fokus mit der Entfernung von dieser Ebene ab.
  3. Die Linsen selbst sind nicht perfekt.
  4. ol>

    Alle diese Effekte dämpfen hochfrequente (räumliche) Frequenzkomponenten im Bild. Wir nennen das Unschärfe.

    Um die Unschärfe umzukehren, müssen wir zuerst die Unschärfe charakterisieren. Um die Unschärfe zu charakterisieren, müssen einige Annahmen darüber getroffen werden, was im Bild enthalten ist und / oder welche Eigenschaften die optischen Elemente haben, die die Unschärfe verursachen.

    Sobald wir eine mathematische Funktion haben, die den Unschärfeprozess beschreibt, können wir eine Umkehrung dieser Funktion berechnen und auf das Bild anwenden.

    Es gibt jedoch Grenzen, wie stark wir die Auswirkungen von Unschärfen abschwächen können. Erstens, weil unser mathematisches Modell der Unschärfe nur eine Annäherung ist, und zweitens, weil der Inversionsprozess zwangsläufig das Bildrauschen verstärkt.

Mikhail
2017-08-02 22:41:08 UTC
view on stackexchange narkive permalink

Ich habe genau an diesem Problem gearbeitet und die Antwort ist äußerst kontrovers!

Im Zentrum der Kontroverse steht eine Trennung zwischen Tomographie (3D-Bildgebung) und den Oberflächenkarten (2.5D, "wir leben alle in einem Hologramm") zur Bilderzeugung. Der Ansatz "Wir leben alle in einem Hologramm" hat in letzter Zeit viel kommerziellen / experimentellen Erfolg gehabt, sehr zum Leidwesen der Tomographie-Oldtimer.

Verschiedene optische Systeme haben drastisch unterschiedliche Fähigkeiten, das Bild neu zu fokussieren. Ferner arbeitet jedes System mit unterschiedlichen physikalischen Annahmen. Sprechen wir über einige:

Lichtfeldsysteme wie das Lytro können einen selektiven Fokus für makroskopische Objekte erzeugen, während ähnliche Effekte mit digitalen Filtern erzielt werden können.

Bei niedriger NA (> 0,3) stimmt die kohärente (Laser-) Beleuchtung gut mit dem linearen Systemansatz zur Wellenausbreitung in einem vom Fresnel-Propagator gegebenen Halbraum überein. Sie können den Fresnel-Propagator anwenden und das System fokussieren und de-fokussieren, obwohl Sie eine Art Maß für das komplexe Feld benötigen. Beliebte Ansätze sind Hartmann-Shack-Wellenfrontsensoren (ähnlich wie Lytro), traditionelle Interferometrie und Intensitäts-Transport (TIE). Die Bilder in diesen Systemen sehen ziemlich schrecklich aus, weil Müll irgendwo im Strahlengang (vielleicht einige cm entfernt) zur Bilderzeugung beiträgt.

Jetzt werden die Dinge verrückt, wenn Kohärenz-Effekte eingeführt werden. Andererseits sieht das Bild bei inkohärenter Beleuchtung besser aus. Das erste Problem besteht darin, dass selbst bei Systemen, die linear zum Streupotential des Objekts sind (nicht viele!), Die Kohärenz eine räumliche Bandgrenze einführt. Das heißt, Objekte außerhalb des räumlich-zeitlichen Kohärenzradius (Sie können diese nicht teilen) verschwinden. Jetzt reagiert Ihr System nur noch auf einen engen Bereich von Objektgrößen, und Sie erhalten optische Schnitte. Dies wird normalerweise als "Kohärenz-Gating" bezeichnet und wurde von OCT verwendet. In der Praxis können Sie das Feld nicht über das hinaus verbreiten, was die Kohärenz zulässt. In den meisten Breitband-Systemen bedeutet dies, dass Sie das Feld digital nicht um mehr als ein paar Mikrometer auf und ab bewegen können! (und es wird schlimmer bei hohen NAs)

Andererseits können Sie das Sample einfach verschieben (oder den Fokus anpassen). Wenn Sie dies tun, wird ein neuer Freiheitsgrad eingeführt, der der Ursprung der tomographischen Bildgebung (Beugungstomographie) ist. Für Menschen, die diese Art von Systemen verwenden, besteht ihre Welt aus 3D-Schnitten. Sie würden Ihnen sagen, dass man das Licht nicht einfach auf unbestimmte Zeit neu fokussieren kann.

Ein weiteres Problem besteht darin, dass viele Systeme nicht tatsächlich linear mit dem Objekt sind, beispielsweise der berüchtigte Lichthof in der Phasenkontrastmikroskopie. In diesen Fällen können Sie die Probe nicht sinnvoll digital fokussieren / neu fokussieren, da Ihr System das Feld aufgrund der Probe normalerweise nicht misst.

Auf der theoretischen Seite wird viel darüber diskutiert, ob Felder zufällig sind, aber die Positionen verschiedener Forschungsgruppen sind eng mit ihren Versuchsaufbauten verbunden.

Könnten Sie einige Referenzen hinzufügen?
Ich denke, diese Antwort führt zu viele technische Aspekte ein und ist hier nicht angemessen.Es sollte neu geschrieben werden, um einem allgemeinen Publikum zugänglich zu sein.
Count Iblis
2017-08-02 19:53:22 UTC
view on stackexchange narkive permalink

In diesem Artikel werden die Grenzen der Details abgeleitet, die mithilfe der Entfaltung wiederhergestellt werden können.Es wird erklärt, dass Rauschen zu Einschränkungen führt, wie effektiv Entfaltung sein kann, um Details wiederherzustellen.Im Idealfall tritt aufgrund der endlichen Anzahl detektierter Photonen nur Poisson-Rauschen auf.Die kleinsten wiederherstellbaren Details werden als $ N ^ {- \ dfrac {1} {8}} $ skaliert.Um zehnmal mehr Details zu erhalten, ist 100 Millionen Mal mehr Belichtungszeit erforderlich.Offensichtlich wird eine große Blende ohne Linse und der Versuch, mit Entfaltung zu fokussieren, in der Praxis nicht funktionieren.

Siehe https://academic.oup.com/mnrasl/article-lookup/doi/10.1093/mnrasl/slx008 Die Techniken des maschinellen Lernens haben die Entfaltungsgrenze verbessert
In Anlehnung an gokul_ufs Kommentar basieren diese Arten von "Grenzen" häufig auf Annahmen, dass jedes ursprüngliche (unverfälschte) Bild möglich und ebenso wahrscheinlich ist.Dies vermeidet einerseits die Tendenz, "zu sehen, was wir erwarten", andererseits ist dies völlig unvernünftig.Wenn ich ein astronomisches Bild in Ihr Familien-Picknick-Fotoalbum oder umgekehrt einfügen würde, wären Sie absolut nicht einmal kurz unsicher, ob es dazu gehört.


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...