Kwerfeldein
02. Juli 2009 Lesezeit: ~5 Minuten

Über die Farbtiefe

Über die FarbtiefeDies ist ein Gastartikel von Hannes Trapp. Wer mag, kann gerne auf seiner Seite hannestrapp.de vorbeischauen.

8-Bit, True Color, 12 oder 14 Bit beim RAW – all das sind Angaben die man in den Datenblättern der Kameras lesen kann, die aber vielen Leuten, die sich noch nicht genauer mit dem Thema auseinandergesetzt haben, nicht besonders viel sagen. Das Thema um das es geht heißt Farbtiefe, und die Farbtiefe ist ein Begriff aus der Digitaltechnik, und ist gemeinsam mit der Auflösung ein Maß für die (technische) Qualität eines Bildes.

Dass eine digitale Kamera oder ein Monitor keine „echten“, kontinuierlichen Linien abbilden kann, wie sie in der Natur vorkommen, und das Bild statt dessen durch eine Vielzahl kleiner Punkte aufgebaut wird, dürfte für niemanden etwas neues sein. Je mehr Bildpunkte (Pixel) es gibt, desto mehr Information enthält das Bild, desto Höher die Anzahl der Pixel pro Fläche ist, desto schärfer scheint das Bild dem menschlichen Auge. Technisch spricht man hierbei von einer „Quantisierung“ – die kontinuierlichen Helligkeitswerte der Umgebung werden durch diskrete Werte im digitalen Gerät angenähert.

Bei der Farbtiefe geht es im Prinzip um genau das gleiche – nur dass hier nicht die ortsbezogenen Daten quantisiert werden, sondern die Farben. Am leichtesten kann man sich das mit einer Farbtabelle (wie beim GIF-Format) vorstellen – als Modell kann man dazu kleine Fliesen benutzen, aus denen ein Mosaik gelegt werden soll.

Ein Modell

Stellt Euch also vor, Ihr habt quadratische Fliesen in vier Farben (rot, gelb, hellblau und dunkelblau) zur Verfügung, außerdem eine große Fläche auf der diese Fliesen angeordnet werden können. Das Ziel ist es, das Bild eines Sonnenuntergangs zu legen. Die Größe der Fläche und der Fliesen legt hierbei die Auflösung fest, und Eure Farbpalette besteht aus den vier genannten Farben.

Über die Farbtiefe

Um Euer Bild verbessern zu können, könnt Ihr nun entweder kleinere Steine bzw. eine größere Fläche verwenden, oder Eure Farbpalette erweitern. Beides führt zu mehr Arbeitsaufwand und mehr Platzbedarf – womit wir bei von der Farbtabelle zu den Bits kommen.


Von Modell zu den Zahlen

In einem Computer (also auch in einer digitalen Kamera) werden Informationen in Bits gespeichert. Ein Bit kann genau zwei Zustände haben – beispielsweise 1 und 0, oder in unserem z.B. Fall rot und blau. Möchte man mehr als rot und blau darstellen, muss man sich mehrerer Bits bedienen – und in unserem Fall die Farbpalette erweitern. Die Anzahl der darstellbaren Farben ergibt sich dann, indem man die Bit-Zahl als Exponent der 2 benutzt. 1 Bit entspricht also 21 = 2 Farben, 2 Bit entspricht 22 = 4 Farben, 3 Bit entspricht 23 = 8 Farben, und so weiter. Als Beispiel möchte ich hier die Anwendung verschiedener GIF-Farbtabellen auf ein Bild zeigen.

Über die Farbtiefe

Nun bezieht sich die Bitzahl beim GIF aber auf die gesamte Farbtabelle – in der Farbtabelle können bei 8 Bit also insgesamt 28 = 256 Farben verwendet werden (siehe Wikipedia). Dies unterscheidet eine Farbtabelle, wie sie beim GIF verwendet wird, von der Farbtiefe, wie sie bei anderen Bildformaten und auch Kameras angegeben wird. Hierbei bezieht sich die Bitzahl der Farbtiefe nämlich auf die einzelnen Farbkanäle, und nicht auf die gesamte Palette.

Von der Farbtabelle zum Farbraum

Bei einem bei Kameras üblichen RGB-Farbraum (mit allen Unter-Farbräumen wie sRGB oder AdobeRGB) gibt es beispielsweise drei Kanäle (rot, grün, blau), was bei 8 Bit wiederum zu (28)3 = 2563 = 16.777.216, also knapp 17 Mio Farben führt.

Ist die Kamera in der Lage, höhere Bitzahlen aufzunehmen, erhöht sich diese Zahl. Die Canon EOS 400D (Digic II Prozessor) kann beispielsweise 12 Bit RAW aufnehmen, was (212)3 = 68.719.476.736 (≈ 69 Mrd) Farben entspricht. Bei der Canon EOS 450D wurde die Farbtiefe mit dem Digic III Prozessor auf 14 Bit RAW angehoben, was wiederum (214)3 = 4.398.046.511.104 (≈ 4 Billionen) Farben entspricht.

Ob man diese 4 Billionen Farben braucht oder nicht, steht auf einem anderen Blatt und ist Ansichtssache. Für meine Augen ist die Grenze, an der ich keine Verbesserung der Bildqualität mehr feststellen kann, meist schon sehr viel früher erreicht. Allerdings hat eine hohe Farbtiefe – gerade bei aufwändiger Nachbearbeitung – sicherlich sehr große Vorteile.

Weitere Informationen

Wer eine ausführlichere Erklärung zum Thema Farbtiefe sucht, die unter anderem auch auf den CMYK-Farbraum eingeht, dem möchte ich diese Seite empfehlen.

Der Begriff der Farbtiefe ist neben der Digitaltechnik übrigens auch in der Farbenlehre definiert, und hat in beiden Gebieten eine verschiedene Bedeutung. In der Farbenlehre bezieht sich die Farbtiefe nämlich auf die scheinbare Farbstärke von Farbmitteln und Konzentrationen verschiedener Pigmente – mehr dazu findet man auf Wikipedia.

Ähnliche Artikel

Unterstütze kwerfeldein

Wenn Dir dieser Artikel oder das ganze Magazin gefällt, kannst Du die weitere Arbeit von kwerfeldein gern via Paypal, Überweisung oder Dauerauftrag mit dem, was es Dir wert ist, unterstützen. Vielen Dank!

kwerfeldein finanziert sich neben Werbeeinnahmen auch durch Provision von Verkäufen auf Amazon und freiwillige Beiträge der Leser*innen, um unabhängig zu bleiben.

Paypal


Überweisung

kwerfeldein
IBAN: DE0837050198 1933436766
BIC: COLSDE33XXX

Amazon

kwerfeldein @ Photocircle


16 Kommentare

Schreib’ einen Kommentar

Netiquette: Bleib freundlich, konstruktiv und beim Thema des Artikels. Mehr dazu.

  1. Lehrreicher Artikel.

    Ich glaube allerdings, daß diese 12 und 14 bit Sachen eigentlich nur Marketing.Gags sind, denn das menschliche Auge ist weder in der Lage 68.719.476.736 noch 4.398.046.511.104 zu unterscheiden.
    Weiß jemand ob es einen technischen Nutzen hat, beispielsweise bei der Nachbearbeitung oder beim Druck?

  2. Seht gut erklärt. Kleiner Hinweis vielleicht noch: Bei diesem kleinen Foto sind 6Bit und dem Originalfoto kaum noch Unterschiede zu erkennen, aber wer das Foto auf eine Doppelseite in einer Zeitschrift drucken würde, würde diese Unterschiede schon erkennen… :-)

    Lg, Robert

  3. Hi,

    ich glaub du hast das was falsch verstanden. Bei RGB hat man 3 Kanäle, das stimmt. Allerdings brauchst du alle 3, um eine Farbinformation zu speichern. Das ist ja der Witz bei RGB, jede Farbe setzt sich aus ihrem Rot-, Grün- und Blauwert zusammen.

    8 Bit RGB hat also genau 2^8 = 256 Farben und nicht 2^24 wie du schreibst.

  4. Interessanter Artikel! Ich werde ihn als Einstieg für den Medientechnikunterricht verwenden.
    Was mir etwas fehlt, ist die Darstellung des tatsächlichen Nutzens bei der Bearbeitung von 14Bit-RAW gegenüber einem Bild mit einer Farbtiefe mit 8Bit pro Farbe.

  5. Soweit guter, weil leicht nachvollziehbarer, Beitrag, aber ich hätte mich gefreut, wenn du noch darauf eingegangen wärst, was das denn für die Praxis bedeutet. So kratzt der Artikel mE nur an der Oberfläche des an sich interessanten Themas.

  6. John da hast du nicht recht. Mit 8Bit kannst pro Farbkanal 256 Abstufungen darstellen. Es war also alles richtig beschrieben im Artikel.
    Und pixelboogie hat vollkommen recht. Das menschliche Auge kann nur ca 5000 Farb- und Helligkeitsabstufungen wahrnehmen. Es gibt auch keinen Drucktechnik die mehr darstellen könnte. Warum auch? Warum sollte man in einen Drucker investieren der mit 12, 14 oder 16 Bit drucken kann wenn es ein Mensch dann eh nicht erkennen kann?
    Durch die hohen Bitzahlen hat man nur einen winzigen Vorteil. Man hat in der Bearbeitung ein bisschen mehr Spielraum. Den braucht man aber eigentlich nicht. Denn wir können nicht mal den komplette Umfang von 8 Bit erkennen.
    Aber auf nem Werbeprospekt sehen 16 Bit eben doppelt so toll aus wie 8 Bit…

  7. Ein sehr schöner Einstiegsartikel, und gut erklärt. Allerdings habe ich zu Deinem Fazit noch etwas anzumerken:

    „Durch die hohen Bitzahlen hat man nur einen winzigen Vorteil. Man hat in der Bearbeitung ein bisschen mehr Spielraum. Den braucht man aber eigentlich nicht.“

    Hast Du schon mal dunkle Bildteile (z.B. Dämmerungs/Nachtfotografie) per Tonwertkorrektur aufgehellt, oder intensiv nachbearbeitet? Dabei vielleicht noch versucht Details auch in dunklen Bildteilen sichtbar zu machen?

    Spätestens da siehst Du den Unterschied und die Nachteile des 8 Bit Bildes sehr deutlich! Durch das Stauchen der Tonwerte bleibt im 14 Bit Raw eine viel feinere Abstufung der Tonwerte erhalten. Dadurch auch das Histogramm nicht so schnell ausfranzt, und sich nicht so schnell Treppchen/Farbsprünge bilden.
    Das sieht man natürlich nicht unbedingt in Bildern die unter sehr guten Lichtverhältnissen aufgenommen und nicht, bzw. nur wenig nachbearbeitet sind.

  8. Na ja, „ein bißchen Spielraum“ ist da doch schon fast untertrieben. 8-Bit Dateien quittieren wiederholte Spielereien an den Gradiationskurven bzw. im Histogrammmenü schon unter Umständen mit ordentlichem Banding. Nicht umsonst warten die Fotografen unter den GIMP-Nutzern ja nun schon einige Jahre sehnsüchtig auf die 16-Bit Einführung (die auch kommen wird). Und auch nicht umsonst weißt GIMP fett darauf hin, wenn eine 16-Bit Datei geladen wird, dass nun eine Runterkonvertierung auf 8-Bit stattfindet..

  9. @ R. Kneschke: Das stimmt natürlich. Was man auch noch dazu sagen sollte: Dieses kleine Bild hat eine sehr geringe Farbvielfalt – es wird nur ein kleiner Teil des Farbraums abgedeckt. Daher sieht man schon ab 128 Farben kaum noch einen Unterschied. Wäre dies ein farbenfroheres Bild, würde man zwischen 128 und 256 Farben auch noch einen deutlich stärkeren Unterschied sehen. (@all: Wer das noch nicht kennt, kann es ja einfach mal selbst testen.) Größe des Bildes, Auflösung, etc. pp sind natürlich auch wichtige Argumente – wie Du bereits sagtest. Die Farbtiefe ist nur ein Faktor für die Bildqualität, wie in der Einleitung erwähnt. Auflösung, Größe, Kontraste etc. spielen da natürlich auch mit. An dieser Stelle kann ich nur jedem empfehlen: selber ausprobieren!

    @ Philipp: Danke fürs klarstellen! Ich hätte da bestimmt wieder mehr Worte gebraucht!

    @ Helmut & metallissimus: Praktischen Nutzen? Hm, zunächst ist es einfach nur eine Kennzahl, die die Abstufungen der Farben feiner macht, da im gleichen Farbraum mehr – und somit feinere – Stufen existieren. Man hat also statt hellblau und dunkelblau (wie im Filzmalkasten) deutlich mehr verschiedene Blautöne.

    Was bringt das? Ein Beispiel aus der Nachbearbeitung, der Einfachheit halber jetzt nicht mit Farbstufen, sondern mit Graustufen:

    Ich habe ein Bild, das ich fürchterlich falsch belichtet habe (Unterbelichtung), und möchte dies nun retten.

    http://twitpic.com/935ey

    Das Original ist kein RAW, sondern ein 8-bit jpg, damit man schön die Fehler sieht. Im Histogramm und im Original-Bild (oben) sieht man: es gibt große dunkle Bereiche. Zu Demonstrationszwecken und ohne Rücksicht auf Ausbrennen der Lichter, nutze ich NUR den Lichter-Regler der Tonwertkorrektur, und stelle ihn von 255 auf 32. Der Tiefenregler bleibt bei 0 und das Mittenverhältnis bei 1.

    Das Bild (unten) ist jetzt zu hell, aber man sieht gut, worauf ich hinaus wollte: an der untersten Treppenstufe gibt es viele hässliche Abstufungen. Das liegt daran, dass im Kontrastbereich „sehr dunkel“ bis „ganz schrecklich dunkel“ des Originalbildes kaum Abstufungen vorhanden waren – da ja durch das jpg das gesamte Histogramm auf 3x 8 bit beschränkt war. Da ich diesen kleinen Kontrastbereich (mit wenigen Abstufungen) nun auf „dunkel“ bis „hell“ ausgeweitet habe, sehe ich diese Abstufungen nun deutlich. Hätte ich mehr Abstufungen gehabt (z.B bei 14-bit RAW), wäre der Effekt nicht so krass.

    Das Bild ist zu kein? Ja, ist es! Und jpg-komprimiert ist es auch, also hat es auch noch Kompressionsfehler. Wer wirklich den Unterschied zwischen 8-bit-jpg und 14-bit-RAW sehen will, wird nicht drumrum kommen, selbst zwei gleiche, stark unterbelichtete Bilder, ein mal in RAW und ein mal in jpg zu machen, und jeweils die gleiche Tonwertkorrektur anzuwenden. So kann man einen Vorteil einer hohen Farbtiefe am besten sehen.

    Natürlich gibt es noch viele weitere Möglichkeiten zur Demonstration. Dies ist nur ein Beispiel.

    Ob man das braucht? Das ist Ansichtssache. Die meisten sagen ja. Ich sage nein, wie schon im Interview vor ein paar Wochen gesagt. Ich fotografiere in jpg (immer). Natürlich ist RAW besser. Ja. Aber ich brauche es nicht. Für mich lebt ein Bild nicht von makellosen Verläufen und rausch- und kantenfreien Tiefen und Lichtern, sondern von der Wirkung. Aber das ist ein anderes Thema ;-)

  10. @Dogwatcher & DanielS: Sorry, jetzt habe ich Eure Kommentare erst gelesen, nachdem ich meinen (11) geschrieben hatte. Ihr sprecht ja genau die Einsatzzwecke an, die ich auch gerade als Beispiel genannt habe.

    „Ein bisschen mehr Spielraum“, wie Philipp sagte, ist natürlich relativ. Aber ob man diesen Spielraum braucht, ist eben Ansichtssache. Ich nutze ihn auch bewusst nicht – denke aber oft drüber nach – man kann damit halt leichter „cheaten“ ;-)

    Ich finde, man sollte die verschiedenen Möglichkeiten unbedingt kennen, sich dann aber selbst entscheiden, was man nutzen mag, und was nicht.

  11. Hallo,
    also meiner Meinung nach wurde hier der Dynamikumfang völlig unterschlagen. Dieser wird eben auch mit der Erhöhung der Bittiefe (von Dir genannt Farbtiefe) verbessert. Immerhin geht es doch um Helligkeitsabstufungen.

    Lässt man z.B. die Helligkeitsschritte (von dir angesprochenes Quntisierungsintervall) gleich groß kann man mit 8-bit 2^8=256 (8 Blendenstufen = 8 Lichtverdopplungen) Helligkeitsabstufungen pro Kanal darstellen. Mit der gleichen Schrittweite kann man mit 14-bit 2^14=16384 (14 Blendenstufen = 14 Lichtverdopplungen) Helligkeitsabstufungen darstellen. Rechnerisch entspricht Fall 1 mit 8 bit rechnerisch einer Dynamik von 20log(256)=48dB. Fall 2 würden dann rechnerisch 20log(16384)=84dB kommen. Meiner Meinung nach ist das der eigentliche Vorteil. Ob man mit 20log oder 10log rechnet kann evtl. noch diskutiert werden.
    Zugegeben trifft die Annahme einer linearen Kennlinie (lineare Quantisierung) nicht immer ganz die Realität. So weit weg ist es aber auch nicht. Außerdem liefern aktuelle Bildaufnehmer (CCDs/CMOS-Chips) eh keine 14-Bit/14 Blendenstufen. Dies würde wiederum die Möglichkeit geben, die von dir angesprochene Quantisierung/Helligkeitsschritte/Farbtiefe zu erhöhen. Da bin ich aber Deiner Meinung, dass das nicht soooooo viel bringt.

    Viele Grüße,
    widescreen

  12. „Rechnerisch entspricht Fall 1 mit 8 bit rechnerisch einer Dynamik von 20log(256)=48dB. Fall 2 würden dann rechnerisch 20log(16384)=84dB kommen.“
    …es kommt ja irgendwann auch noch das Rauschen ins Spiel. Ich denke der Hauptvorteil liegt im größeren „Headroom“. Einen guten (englischen) Artikel der etwas tiefer in die Materie einsteigt habe ich hier noch ausgegraben:
    http://theory.uchicago.edu/~ejm/pix/20d/tests/noise/noise-p3.html