Grundsätzlich frage ich mich, wie ein unscharfes Bild aussieht.Handelt es sich um zufällige Informationen?Könnte die Unschärfe durch einen Algorithmus rückgängig gemacht werden?
Grundsätzlich frage ich mich, wie ein unscharfes Bild aussieht.Handelt es sich um zufällige Informationen?Könnte die Unschärfe durch einen Algorithmus rückgängig gemacht werden?
Die Unschärfe ist nicht zufällig, sondern vorhersehbar. Eine grundlegende Erklärung finden Sie unter Kann jemand bitte erklären, was im mikroskopischen Maßstab passiert, wenn ein Bild von einem Projektorobjektiv auf einem Bildschirm unscharf wird?.
Jeder Punkt des fokussierten Bildes wird in ein Beugungsmuster von Ringen verteilt, das als Punktspreizfunktion (PSF) bezeichnet wird, und diese Ringmuster überlappen sich, um das unscharfe Bild zu bilden . Das unscharfe Bild ist die Faltung des Objekts und der PSF.
Faltung ist eine mathematische Transformation, die unter bestimmten Umständen umgekehrt werden kann (Entfaltung) - beispielsweise wenn das Bild mit kohärentem Licht (von einem Laser) aufgenommen wurde und die PSF bekannt ist. Wenn Fotos mit normalem inkohärentem Licht aufgenommen werden und die PSF unbekannt ist, kann die Unschärfe nicht vollständig rückgängig gemacht werden, es kann jedoch eine signifikante Verbesserung erzielt werden, z. B. mit dem Algorithmus Blind Deconvolution. Beispiele für Objekte und resultierende Bilder können verwendet werden, um die PSF ungefähr zu rekonstruieren, oder es kann eine Gaußsche Funktion verwendet werden.
Bewegungsunschärfe (der Kamera oder des Objekts) kann ebenfalls korrigiert werden. In beiden Fällen werden die Techniken und Probleme in Wiederherstellung von unscharfen und unscharfen Bildern erläutert und Beispiele dafür gegeben, was erreicht werden kann.
Software ist online verfügbar, um unscharfe Bilder zu korrigieren.
Ja, es heißt Entfaltung .Hier einige Beispiele für entfaltete Bilder von Mikroskopen:
Ich habe diese von Googling für "Beispiel eines entfalteten Bildes von einem Mikroskop" gefunden.
Es ist möglich, Laser durch die Linse zu schießen und eine Karte mit Strahlendaten zu erstellen, die im Entfaltungsalgorithmus verwendet werden können.Ich habe dies auch mit einem im Fokus -Bild gesehen und entfaltet, um eine völlig andere Ebene in den Fokus zu bringen.
Ja, es kann (teilweise) rückgängig gemacht werden, da der Prozess nicht zufällig ist und nur ein Teil der Informationen verloren geht.
Physics
Sie kommentieren, dass Sie sich für den physikalischen Aspekt der Frage interessieren. Lassen Sie uns dies zunächst klarstellen: Ein Bild ist focused, wenn jeder Punkt des Objekts einem Punkt des Bildes entspricht - alle Strahlen, die von einem bestimmten Punkt ausgehen Wenn das Objekt z. B. durch die Linse läuft, konvergiert es zu einem einzelnen Punkt (des Sensors, seien es Ihre Augen, ein CCD oder ein Film). Ein Bild ist out of focus, wenn dies nicht der Fall ist: Wenn diese Strahlen verteilt werden und jeder Punkt des Bildes Licht von verschiedenen Punkten des Objekts empfängt. Wenn Sie genau wissen, dass die Unschärfe aufgetreten ist, können Sie versuchen, sie umzukehren.
Das wird besser in dieser Antwort auf die Frage erklärt, warum das Bild mit konvexen Linsen verschwommen oder fokussiert ist?.
Algorithms
Algorithmen zur Entfernung von Unschärfe müssen mit Hypothesen arbeiten, wie genau die Unschärfe stattgefunden hat, d. h. welche Funktion sie besser beschreibt, oder das Modell des Unschärfeprozesses. Wiederherstellungsalgorithmen sind in vielen Bildverarbeitungs-Apps zu finden, aber das ist immer noch ein aktives Forschungsgebiet. Sie können darüber hier und hier unter vielen anderen Quellen lesen. Beachten Sie jedoch, dass die Wiederherstellung nur teilweise erfolgt. E-Artefakte scheinen in den wiederhergestellten Bildern immer vorhanden zu sein.
Purposeful obscuration
Wenn jedoch eine Pixelierung angewendet wird, wird das Bild grobkörnig, sodass Informationen irreversibel verloren gehen. Dies gilt auch für andere Formen der Unschärfe, z. B. Mittelwertbildung und Hinzufügen von Rauschen zum Bild: dann im Allgemeinen Ein Algorithmus kann keine Informationen aus dem Bild wiederherstellen, da die Informationen nicht mehr vorhanden sind.
But, kann ein Algorithmus erraten.Sie können ein künstliches neuronales Netzwerk trainieren, um zu erkennen, was Sie im Bild erwarten oder finden möchten, und es die Details ausfüllen lassen, wie hier und erläuterthier.
Das Ziel eines Kameraobjektivsystems (ob Mikroskop oder nicht) besteht darin, Licht von einem Punkt auf dem Objekt zu einem Punkt auf dem Sensor zu liefern. Dies kann jedoch aus mehreren Gründen nicht perfekt erreicht werden.
Alle diese Effekte dämpfen hochfrequente (räumliche) Frequenzkomponenten im Bild. Wir nennen das Unschärfe.
Um die Unschärfe umzukehren, müssen wir zuerst die Unschärfe charakterisieren. Um die Unschärfe zu charakterisieren, müssen einige Annahmen darüber getroffen werden, was im Bild enthalten ist und / oder welche Eigenschaften die optischen Elemente haben, die die Unschärfe verursachen.
Sobald wir eine mathematische Funktion haben, die den Unschärfeprozess beschreibt, können wir eine Umkehrung dieser Funktion berechnen und auf das Bild anwenden.
Es gibt jedoch Grenzen, wie stark wir die Auswirkungen von Unschärfen abschwächen können. Erstens, weil unser mathematisches Modell der Unschärfe nur eine Annäherung ist, und zweitens, weil der Inversionsprozess zwangsläufig das Bildrauschen verstärkt.
Ich habe genau an diesem Problem gearbeitet und die Antwort ist äußerst kontrovers!
Im Zentrum der Kontroverse steht eine Trennung zwischen Tomographie (3D-Bildgebung) und den Oberflächenkarten (2.5D, "wir leben alle in einem Hologramm") zur Bilderzeugung. Der Ansatz "Wir leben alle in einem Hologramm" hat in letzter Zeit viel kommerziellen / experimentellen Erfolg gehabt, sehr zum Leidwesen der Tomographie-Oldtimer.
Verschiedene optische Systeme haben drastisch unterschiedliche Fähigkeiten, das Bild neu zu fokussieren. Ferner arbeitet jedes System mit unterschiedlichen physikalischen Annahmen. Sprechen wir über einige:
Lichtfeldsysteme wie das Lytro können einen selektiven Fokus für makroskopische Objekte erzeugen, während ähnliche Effekte mit digitalen Filtern erzielt werden können.
Bei niedriger NA (> 0,3) stimmt die kohärente (Laser-) Beleuchtung gut mit dem linearen Systemansatz zur Wellenausbreitung in einem vom Fresnel-Propagator gegebenen Halbraum überein. Sie können den Fresnel-Propagator anwenden und das System fokussieren und de-fokussieren, obwohl Sie eine Art Maß für das komplexe Feld benötigen. Beliebte Ansätze sind Hartmann-Shack-Wellenfrontsensoren (ähnlich wie Lytro), traditionelle Interferometrie und Intensitäts-Transport (TIE). Die Bilder in diesen Systemen sehen ziemlich schrecklich aus, weil Müll irgendwo im Strahlengang (vielleicht einige cm entfernt) zur Bilderzeugung beiträgt.
Jetzt werden die Dinge verrückt, wenn Kohärenz-Effekte eingeführt werden. Andererseits sieht das Bild bei inkohärenter Beleuchtung besser aus. Das erste Problem besteht darin, dass selbst bei Systemen, die linear zum Streupotential des Objekts sind (nicht viele!), Die Kohärenz eine räumliche Bandgrenze einführt. Das heißt, Objekte außerhalb des räumlich-zeitlichen Kohärenzradius (Sie können diese nicht teilen) verschwinden. Jetzt reagiert Ihr System nur noch auf einen engen Bereich von Objektgrößen, und Sie erhalten optische Schnitte. Dies wird normalerweise als "Kohärenz-Gating" bezeichnet und wurde von OCT verwendet. In der Praxis können Sie das Feld nicht über das hinaus verbreiten, was die Kohärenz zulässt. In den meisten Breitband-Systemen bedeutet dies, dass Sie das Feld digital nicht um mehr als ein paar Mikrometer auf und ab bewegen können! (und es wird schlimmer bei hohen NAs)
Andererseits können Sie das Sample einfach verschieben (oder den Fokus anpassen). Wenn Sie dies tun, wird ein neuer Freiheitsgrad eingeführt, der der Ursprung der tomographischen Bildgebung (Beugungstomographie) ist. Für Menschen, die diese Art von Systemen verwenden, besteht ihre Welt aus 3D-Schnitten. Sie würden Ihnen sagen, dass man das Licht nicht einfach auf unbestimmte Zeit neu fokussieren kann.
Ein weiteres Problem besteht darin, dass viele Systeme nicht tatsächlich linear mit dem Objekt sind, beispielsweise der berüchtigte Lichthof in der Phasenkontrastmikroskopie. In diesen Fällen können Sie die Probe nicht sinnvoll digital fokussieren / neu fokussieren, da Ihr System das Feld aufgrund der Probe normalerweise nicht misst.
Auf der theoretischen Seite wird viel darüber diskutiert, ob Felder zufällig sind, aber die Positionen verschiedener Forschungsgruppen sind eng mit ihren Versuchsaufbauten verbunden.
In diesem Artikel werden die Grenzen der Details abgeleitet, die mithilfe der Entfaltung wiederhergestellt werden können.Es wird erklärt, dass Rauschen zu Einschränkungen führt, wie effektiv Entfaltung sein kann, um Details wiederherzustellen.Im Idealfall tritt aufgrund der endlichen Anzahl detektierter Photonen nur Poisson-Rauschen auf.Die kleinsten wiederherstellbaren Details werden als $ N ^ {- \ dfrac {1} {8}} $ skaliert.Um zehnmal mehr Details zu erhalten, ist 100 Millionen Mal mehr Belichtungszeit erforderlich.Offensichtlich wird eine große Blende ohne Linse und der Versuch, mit Entfaltung zu fokussieren, in der Praxis nicht funktionieren.