top of page
  • AutorenbildAndreas

Bild- und Kameratechnik 101


Häufig wird behauptet, das Bearbeiten von Astrobildern wäre die Königsdisziplin der Bildentwicklung und ich stimme dem absolut zu. Um darzustellen, warum dieser auf den ersten Blick arrogante Standpunkt trotzdem wahr ist, müssen wir uns etwas mit der Technik der Bildaufnahme und den Grundlagen der Entwicklung beschäftigen. Hier gibt es einiges zu entdecken, dass selbst erfahrenen Tageslichtfotografen, bis Weilen nicht bekannt ist.

Das Folgende gilt uneingeschränkt für jede Form der digitalen Farbfotografie, egal ob mit Spiegelreflex, spiegelloser Kamera, Handy oder dedizierter Astrokamera. Die Prinzipien sind immer die gleichen wenn sich auch die Technik unterscheiden mag.



Farbtiefe und Dateiformat


Wer sich mit der Astrofotografie beschäftigt, wird schnell auf den Begriff RAW-Format stoßen, aber auch in der Tageslichtfotografie gibt es Grabenkämpfe zwischen RAW-Predigern und jene die Formate wie jpg anpreisen. Also was hat es damit auf sich?

Grundsätzlich muss man hier erst einmal Begriffe geraderücken. Im Grunde reden wir einerseits über unkomprimierte Bilddaten (RAW oder roh), die als Datei alle Sensorinformation mit höchster Genauigkeit enthalten. Solche Formate gibt es viele z.B. *.tiff; *.fits und jeder Kamerahersteller nutzt seine eigene Endung wie z.B. bei Canon das CR2 und CR3 Format. Alle diese Formate können RAW Daten darstellen.

Auf der anderen Seite gibt es komprimierte Bilddaten, diese enthalten dann eben nicht mehr die exakten Sensordaten sondern eine komprimierte Näherung. Dies spart Speicherplatz und Auslesezeiten aber geht auch mit dem Verlust von Information ein her. Jpg ist eine der wohl bekanntesten komprimierten Bildformat.



Sensor einer Canon 600D

Was wird da jetzt also komprimiert oder eben nicht? Dazu müssen wir uns kurz veranschaulichen, was so ein Kamerasensor genau macht. Im Grunde bestehen gängige Kamerasensor aus vielen kleinen Einzelsensoren und jeder davon ist in der Lage hell/dunkel wahrzunehmen. Je nach Helligkeit gibt der Einzelsensor einen Wert zwischen 0 und dem möglichen Maximum ab.

Der Wertebereich für den Sensor wird durch seine Bittiefe oder auch Farbtiefe bestimmt. Ein 12 Bit Sensor kann 2 hoch 12 Werte annehmen also 0 bis 4095 und somit insgesamt 4096 Grauwerte. Bei 14 Bit sind es entsprechend 16384 Werte und bei 16 Bit 65536. Also je höher die Bittiefe um so feiner sind die Grauabstufungen.

Ja und was macht nun eine komprimiertes Dateiformat wie Jpg daraus? Hier werden Daten nur in 8 Bit Tiefe gespeichert und damit in nur 2 hoch 8 oder 256 möglichen Werten.

Grauverlauf bei unterschiedlichen Bit-Tiefen

Die beiden Grauverläufe oben veranschaulichen das Ganze ein wenig. Aus dem fein abgestuften Verlauf links wird durch das komprimierte Format rechts ein wesentlich gröberer Verlauf. Schattierungen und feine Details gehen dabei verloren, etwas das bei Astrofotos einen massiven Qualitätsverlust ausmacht. Warum genau wird später deutlich, wenn wir über die eigentliche Bildentwicklung sprechen. Mein Kater hat sich dazu bereit erklärt, mich an dieser Stelle etwas zu unterstützen, denn graue Skalen sind nett, aber ein echtes Bild sagt doch viel mehr.

Schwarz-Weiß-Bild mit voller Bit-Tiefe

Schwarz-Weiß-Bild mit reduzierter Bit-Tiefe

Für die Astrofotografie gilt also, nutze die höchste Bit Tiefe, die deine Kamera biete und speichere die Daten auch immer in einem Raw Format. Etwas das ich auch für die Tageslichtfotografie empfehle, aber das ist eine andere Geschichte.



Bayermatrix oder wie die Farbe ins Spiel kommt


Nun schreibe ich die ganze Zeit von schwarz/weiß und Grauwerten, aber all unsere Handy-Schnappschüsse und Bilder vom Familienrotweiler sind doch bunt. Also wo kommt die Farbe her?

Dazu bedienen sich die Kameras eines Tricks, der bereits bei der ersten Farbfotografie aus dem Jahre 1861 zum Einsatz kam. Der schottische Physiker James Clerk Maxwell fotografierte ein Tartan Band mit dem Muster eines schottischen Clans. Damals gab es nur schwarzweiß empfindliche Fotoplatten, aber Maxwell fotografiert das Band jeweils durch einen Filter (Rot, Grün, Blau). Dadurch erhielt er 3 Abbildungen, der jeweiligen Farbintensität auf dem Stoff. Als farbiges „Dia“ in der jeweiligen Farbe exakt übereinander projiziert, ergab sich so das erste Farbfoto der Welt, welches am 17. Mai 1861 an der Royal Institution gezeigt wurde.

James Clerk Maxwell (original photographic slides) ; scan by User:Janke., Tartan Ribbon, als gemeinfrei gekennzeichnet, Details auf Wikimedia Commons



150 Jahre später macht es die digitale Fotografie sehr ähnlich. Im Kamerasensor gehören jeweils 2x2 Pixel zusammen und über jedem der Pixel befindet sich eine Filtereinheit. Einer der 4 Pixel ist dabei von einem blauen, ein anderer von einem roten und die zwei verbliebenen Pixel von einem grünen Filter verdeckt. Jeder Pixel nimmt nun also die Farbintensität seiner Filterfarbe auf und aus den Daten aller 4 Sensoren wird dann die Farbe fürs eigentliche Bild ermittelt. Dies geschieht über alle Pixel hinweg und die Filtereinheit mit all ihren kleinen Farbfiltern wird als Bayermatrix bezeichnet.




Im Raw-Format ist die Anordnung der Matrix gespeichert, so dass der Prozess des sogenannten Debayerns also dem Umrechnen der Schwarzweißdaten in ein Farbbild erfolgen kann. In der Tageslichtfotografie übernimmt die Kamera das Debayern um ein Bild auf dem Display zu erzeugen und auch alle gängigen Bildbearbeitungsprogramm debayern automatisch. Software für die Entwicklung von Astrofotografien öffnen Raw Bilder allerdings ohne diesen Prozess, dieser wird später separat durchgeführt, so dass man dort sogar das Gittermuster der Matrix betrachten kann.



Bayermatrix sichtbar im Rohbild einer Astroaufnahme


Das Histogramm und die RAW-Lüge


Bevor wir zu Lüge kommen, muss ich ein wenig über das Histogramm und seine Bedeutung reden. Im Histogramm wird die Helligkeitsverteilung aller Pixel im Bild von links (dunkel) nach rechts (hell) dargestellt. Dabei entspricht der Helligkeitsumfang der Bit Tiefe des Bildes, also bei 16 Bit eben jenen Werten von 0 bis 65535. Im Bild meines Katers unten seht ihr das Histogramm unten rechts. Gut zu erkennen ist der relative hohe Berg im linken Viertel, der die vielen Pixel im dunklen Bereich der Hecke darstellt. Weitere rechts ist dann die deutlich geringere Anzahl heller Pixel im Schnee und Fell zu erkennen. Mit entsprechenden Methoden der Bildentwicklung kann man nun hingehen und die Bereiche unterschiedlich stark betonen, um Kontraste zu steigern oder andere Bildwirkungen zu erzielen. Diese Prozesse sind einem Equalizer in der Tontechnik nicht ganz unähnlich.


Tageslichtaufnahme mit Histogramm

Aber das, was dort als Bild zu sehen ist, entspricht überhaupt nicht den Daten in der Datei! Das Farbe nicht wirklich Bestandteil der Bilddaten ist, haben wir oben schon geklärt, aber auch die Helligkeitsverteilung ist völlig anders als das, was uns Photoshop anzeigt. Aber warum ist das so? Die Sensoren haben natürlich eine völlig andere Empfindlichkeit und auch einen anderen Umfang als unsere Augen. Da ist es nur logisch, dass Software helfen muss, um die Daten der Sensoren für unsere Sehgewohnheiten zu interpretieren und dies tut jede Kamera, jede Software, jedes Handy. Für die Tageslichtfotografie ist dies auch alles sinnvoll und nützlich. Für Astrofotos wollen wir aber die volle Kontrolle über die gesamten Bilddaten, von den hellsten Bereichen, den Sternen, bis hin zu den aller dunkelsten Bereichen. Deshalb bieten uns die entsprechenden Softwares, die Möglichkeit an den echten Rohdaten zu arbeiten. Im Falle des Bildes meines Katers sehe diese dann so aus:

Darstellung der Bildrohdaten

Dies ist nun ein echtes RAW, also Bilddaten so nah an dem, was der Sensor aufnimmt wie möglich. Es fällt auf, dass sich nahezu alle Bilddaten im linken, dunklen Bereich des Histogramms drängen. Und neben vielen anderen Schritten, besteht die Kunst nun daraus, dieses Histogramm auseinander zu ziehen oder zu strecken um die Bilddaten in den sichtbaren Bereich zu verschieben. Nur so können wir sicher sein, den relevanten Bildanteilen das nötige Gewicht zu verleihen und andere Bereiche nicht zu stark zu betonen. Ein Prozess der so bei keinem anderen Genre der Fotografie notwendig ist. Warum nun also RAW-Lüge? Ganz offensichtlich ist eben ein RAW, wie es von vielen Tageslichtfotografen verstanden wird eben nicht die roheste Form der Bilddaten. Unter diesem Gesichtspunkt erscheint auch der Schrei nach echter Fotografie „out of camera“ als absolut sinnfrei, jedes Bild ist auch ohne handeln des Fotografen entwickelt und bearbeitet.


Damit endet der heutige Ausflug in die Bild- und Kameratechnik und wir sind gewappnet, um uns mit den Besonderheiten bei der Aufnahme von Astrobildern zu befassen.


CS

Andreas

116 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen
bottom of page