Extraktion
Farbkanäle aufteilen
Diese Funktion erzeugt drei monochrome Bilder aus einem 3-Kanal-Farbbild, je nach konfiguriertem Farbraum. Bei RGB wird die Datei einfach in drei Teile zerlegt. Für die anderen wird der entsprechende Farbraum berechnet, entweder HSL (Farbton-Sättigungs-Helligkeit), HSV (Farbton-Sättigungs-Wert) oder CIELAB.

Dialogbox Kanal Extraktion.
Tipp
Wird kein Name für einen Kanal angegeben, wird der Kanal nicht extrahiert.
Siril Kommandozeile
split file1 file2 file3 [-hsl | -hsv | -lab]
CFA aufteilen
CFA bedeutet Farbfilteranordnung. Dieser Begriff wird häufig verwendet, um den einkanaligen Bildinhalt eines Farbbildes zu beschreiben, wobei jedes Pixel den Werten entspricht, die hinter einem sensoreigenen Farbfilter erfasst wurden. Dies steht im Gegensatz zu debayerten Bildern (oder Debayered oder Demosaic).
Das Öffnen eines CFA-Bildes in Siril ist für die Vorverarbeitung/Kalibrierung erforderlich, z. B. das Entfernen des Dunkelstroms vor der Interpolation des Bildes in ein 3-Kanal-Farbbild. Wir können die Funktion "CFA aufteilen" verwenden, um diese Daten zu extrahieren:
CFA (Color Filter Array) Kanäle aufteilen: Aus dem CFA-Bild werden vier Bilder erstellt, die jeweils einen Filter der Bayer-Matrix darstellen, also im Allgemeinen R.fit, G1.fit, G2.fit und B.fit. Dies ist nützlich, wenn das Ziel darin besteht, die verschiedenen Farben des Bildes getrennt zu verarbeiten.
Ha Extrahieren: Die Verwendung eines H-Alpha-Filters mit einem Farbkamerabild (OSC: on-sensor color, oder one-shot color camera) bedeutet, dass nur die Pixel mit Rotfilter nützlich sind, also im Allgemeinen nur ein Viertel davon. Diese Funktion erzeugt ein neues Bild, das nur die Pixel enthält, die mit dem Rotfilter verbunden sind, der in der Bayer-Matrix des Bildes dokumentiert ist.
Ha/OIII extrahieren: Für OSC-Kameras gibt es Filter, die (fast) nur Photonen der Wellenlängen H-alpha und O-III durchlassen. Bei dieser Extraktion werden zwei Bilder erzeugt: ein Bild aus den roten Pixeln wie bei Extract Ha und ein Bild, das die grünen und blauen Pixel zu einem Bild für O-III kombiniert. Beide Bilder entsprechen der halben Auflösung des Eingabebildes.
Bemerkung
Es gibt eine häufig gestellte Frage dazu, warum Ha- und OIII-Bilder unterschiedliche Größen haben und wie sie aufgeteilt werden. Dieser Hinweis versucht, eine Antwort auf diese Frage zu geben.
In einem Farbbildsensor sind die Pixel mit einer sehr feinen Filtermatrix bedeckt, die als Farbfilterarray (CFA) oder Bayer-Matrix bezeichnet wird. Die Anordnung der gefilterten Pixel ist eines von mehreren Mustern: RGGB, GBGR usw.
Originalbild by Cburnett, licensed as CC BY-SA 3.0.
Von diesen Pixeln reagieren nur die R-Pixel auf Ha. Daher teilen wir zunächst alle roten Pixel in ein Ha-Bild auf. Da nur 1 von 4 CFA-Elementen rot ist, sind die Bildabmessungen des Ha-Bilds halb so groß wie die des ursprünglichen Einzelbildes.
Die übrigen Pixel G und B sind alle empfindlich gegenüber OIII. Die Empfindlichkeit der grünen Pixel gegenüber OIII unterscheidet sich von der Empfindlichkeit der blauen Pixel gegenüber OIII, sie bilden jedoch dieselbe Szene ab und sind gleichmäßig verteilt, sodass die durchschnittliche Intensität dieselbe sein muss.
\[ \begin{align}\begin{aligned}\text{G}_\text{i} = \text{G}_\text{io} \times \frac{3 \times \overline{\text{G}_\text{o}}}{2 \times \overline{\text{G}_\text{o}} + \overline{\text{B}_\text{o}}}\\\text{B}_\text{i} = \text{B}_\text{io} \times \frac{3 \times \overline{\text{B}_\text{o}}}{2 \times \overline{\text{G}_\text{o}} + \overline{\text{B}_\text{o}}}\end{aligned}\end{align} \]Wobei \(\text{B}_\text{i}\) ist: \(i^{\text{th}}\) blue pixel, \(\text{B}_\text{io}\) ist: \(i^{\text{th}}\) Original-Blau und \(\overline{\text{B}_\text{o}}\) ist der Durchschnitt aller blauen Pixel (und analog für grüne Pixel).
Bisher haben wir einen ausgeglichenen Satz von G- und B-Pixeln mit Lücken, wo die R-Pixel entfernt wurden. Abschließend verwenden wir eine bilineare Interpolation, um die R-Pixelwerte abzuschätzen und erhalten ein OIII-Bild in voller Größe.
Bemerkung
Die Ha/OIII-Resampling-Option bestimmt, wie die Ausgabe von Extract Ha/OIII behandelt wird. Keine Neuabtastung erzeugt ein OIII-Bild mit voller Auflösung und ein Ha-Bild mit halber Auflösung; Upsample Ha vergrößert das Ha-Bild um den Faktor 2, um es dem OIII-Bild anzupassen; Downsample OIII verkleinert das OIII-Bild um den Faktor 2, um es dem Ha-Bild anzupassen.
Möglicherweise möchten Sie Drizzling verwenden, um die Ha-Daten statt des Hochskalierens hochzurechnen. Da Drizzling eine Stackingmethode ist, müssen Sie in diesem Fall seqextract_HaOiii verwenden, um Ha und OIII aus jedem Frame der Sequenz zu extrahieren und dann die OIII-Bilder auf die übliche Weise und die Ha-Bilder mit einem 2x Drizzling stacken.
Grün extrahieren: Für die Fotometrie ist es oft nützlich, nur den grünen Teil des CFA-Bildes zu verarbeiten, da dieser empfindlicher ist und zwei Pixel zum Mitteln hat, was das Rauschen noch weiter reduziert. Natürlich wird auch die Schärfe des erzeugten Bildes um die Hälfte reduziert.

Dialogbox CFA aufteilen.
Bemerkung
Diese Funktionen funktionieren nur, wenn die Bayer-Matrix von der Aufnahmesoftware ordnungsgemäß dokumentiert wurde und wenn das Bildformat sie unterstützt, also im Allgemeinen FITS oder SER.
Warnung
Dies funktioniert nicht mit anderen Filtermatrizen als den Bayer-Matrizen, wie dem Fujifilm X-TRANS.
Wavelet Layer
Dieses Tool extrahiert die verschiedenen Ebenen des Bildes durch Anwendung des Wavelet-Verfahrens. Jede Ebene wird in einem Bild gespeichert und der Satz von Bildern kann als Sequenz gelesen werden. Sie können bis zu 9 Ebenen für die Wavelet-Berechnung wählen, und der Algorithmus ist entweder linear oder BSpline. Letzteres ist in der Regel die bevorzugte Methode.

Dialogfeld zur Extraktion von Wavelet-Ebenen.
Die Zerlegung erfolgt durch eine Reihe von Detailschichten, die mit zunehmenden charakteristischen Maßstäben definiert werden, und eine abschließende Restschicht, die die verbleibenden unaufgelösten Strukturen enthält.

Originalbild von M45 (courtesy of V. Cohas).

6 extrahierte Ebenen.