Einzelnen Beitrag anzeigen

Medium

Registriert seit: 23. Jan 2008
3.679 Beiträge
 
Delphi 2007 Enterprise
 
#3

AW: Bildrauschen ermitteln

  Alt 26. Okt 2013, 03:39
Bei Rauscherkennung ist die fast schon "natürliche" Antwort: Fourier-Transformation

Leider gehen bei dieser sämtliche Ortsinformationen verloren, so dass man - so man sie auf ein komplettes Bild los lässt - nur eine Gesamtaussage über dieses treffen kann. Ich könnte mir für deinen Zweck aber ganz gut vorstellen, dass es Sinn machen würde die Bilder zu diesem Zweck vorher in kleinere Quadrate zu unterteilen (ggf. sogar überlappend*), so dass man Maßzahlen immerhin für grobe Bildbereiche erhält. Das dürfte dem Zweck sogar geradezu zuträglich sein! (Und wenn man es mal genau überlegt, KANN man Rauschen garnicht 100%ig ortsgenau bestimmen, da Rauschen ja nur dann auftreten kann, wenn man einen Bereich betrachtet, der größer ist als ein einzelnes Sample (in diesem Fall Pixel). Ein einzelner Wert rauscht einfach nicht - also zumindest, wenn er über die Zeit konstant ist )

Noch ein Vorteil beim Unterteilen für eine FFT: Mehrere kleine Signalmengen sind schneller transformiert als eine große. Und wenn man dann die Kantenlängen noch zu Zweierpotenzen macht, wird es geradezu optimal

Allerdings ist es mit einer FFT sicher noch nicht getan. Man müsste anschließend noch daher gehen, und verschiedene Frequenzmuster klassifizieren, die als ähnlich gelten sollen. Da wird vermutlich ein Häufchen empirische Ermittlung mit hunderten von Testbildern nötig sein, und eine gute Portion Mathe. Allein schon die Festlegung, wo Bildinhalt weitestgehend aufhört und Rauschen anfängt ist nicht trivial, besonders bei Rauschen eher flächiger Charakteristik. Da könnte am Ende sogar fast schon ein neuronales Netz über das FFT Ergebnis sinnvoll erscheinen. So lange man es sinnvoll trainiert.

Summa summarum keine wirklich leichte Nummer. Sicherlich machbar, aber definitiv auch nur in Grenzen akkurat. Wirklich gesicherte Ergebnisse werden wohl schwer bis kaum zu machen sein, zumindest zwischen den extremen Rand-Fällen.

*) Überlappt man so extrem, dass man jeweils einen Bereich um jeden Pixel betrachtet, wird das ganze zwar sehr rechenintensiv, aber dafür auch sehr fein. Die Frage ist dann, ob sich das überhaupt lohnen würde, da die Charakteristika eines CCD Chips auch über weiter auseinander liegende Bereiche ähnlich sein sollten. Gerade die Wahl der Transformations-Fester in Größe und Abstand zueinander dürfte immense Unterschiede in der Brauchbarkeit machen. Ebenso die eingesetzte Fenster-Funktion. Da ein Optimum zu ermitteln allein ist schon ganz schön heikel, da nichtmal gesagt ist, dass es ein Optimum für den allgemeinen Fall gibt. Ich würde es gar bezweifeln, und so weit gehen mehrere Analysen mit einer größeren Range an Einstellungen zu machen, und diese wiederum nochmals zu klassifizieren...
"When one person suffers from a delusion, it is called insanity. When a million people suffer from a delusion, it is called religion." (Richard Dawkins)

Geändert von Medium (26. Okt 2013 um 03:46 Uhr)
  Mit Zitat antworten Zitat