Qual der Wahl: 10-bit oder 8-bit+FCK Workflow

  • Hallo zusammen,
    ich versuche hoffnungslos im Internet eine Antwort zu finden, ob für Hobby Photographie und Bildbearbeitung (Lightroom & Photoshop) ein 10-bit Monitor + 10-bit Grafikkarte gegenüber einem gutem 8-bit + FCK Monitor im Sinne des Bildqualität viel Unterschied ausmacht. Vorausgesetzt natürlich, dass die beide 1064 Mio. Farben liefern.


    Natürlich ist die Frage nicht ganz technisch formuliert, aber genau so ist die :) - Ein 10-bit Monitor + einigermaßen gute 10-bit Grafikkarte (z.B. neue NVIDIA Quadro K1200) Kombination kostet ca. 1500 Euro. Ein guter 8-bit Monitor, der auch 1064 Mio Farben mit FCK kann + eine GeForce Karte kann man locker für ca. 800-900 Euro holen. Der Unterschied in Preis ist gewaltig - fast doppelt!


    Die Frage Nummer 1 ist – macht sich dieser fast doppelte Unterschied im Preis auch in der Bildqualität genauso bemerkbar?
    2) Gibt es irgendwelche sinnvolle Vergleiche/Analyse, die man sich anschauen/lesen kann oder hat vielleicht jemand schon praktische Erfahrung damit?
    3) Hat es irgendwelche Auswirkung auf Bildqualität, wenn man einen 8-bit Panel Monitor (der 10-bit am Eingang kann) mit einer 10-bit Videokarte fährt?


    Vielen Dank!

  • Uff, sehr technisch.


    Generell müsste man den 10bit Workflow erstmal hinterfragen, denn der alleine lohnt sich meist nicht. Wie schrieb die c't sinngemäß: selbst mit Oberklassenkamera ist der Unterschied auch im Vergleich nur zu erahnen.


    Dann gibt es aber die Frage: 10bit Monitor oder 8bit+FRC. Ersteres sorgt für saubere Abstufungen, aber ob diese nun sichtbar schlechter sind vermag ich nicht zu sagen. Ich würde mein Augenmerkt auf die allgemeine Darstellung legen, möglichst wenig Glow, guter Kontrast und eine hohe Farbraumabdeckung, damit ist man für 99% gut gerüstet. Alles darüber hinaus ist etwas für die NASA oder für den zu dicken Geldbeutel. ;)
    Natürlich gibt es Spezialanwendungen, aber man sollte immer das schwächste Glied der Kette als Maß nehmen und das dürfte die Kamera sein. Sobald diese nicht absolut Farbtreu arbeitet (und diese Aufnahmen ebenso behandelt werden) braucht man sich um absolute Farbverbindlichkeit auch keine Gedanken machen. Wenn die Quelle schon spekuliert ist ...


    Ich sehe keinen Anwendungsfall, wo der Aufpreis gerechtfertigt wäre. Nur wenn die Hardware es eh kann, würde ich es nutzen. Unterschiede wird es geben, aber ob sich diese im Alltag zeigen halte ich für fraglich.


    Dieser Beitrag ist mit einer persönlichen Ansicht gespickt ;)

  • Du profitierst in beiden Varianten von einer Zuspielung in 10bit pro Farbkanal, sofern unterstützt. Die Unterschiede musst du schon mit der Lupe suchen, zumal Dithering i.d.R. in beiden Fällen zum Einsatz kommt (das Signal wird bei hochwertigen Geräten ja ohnehin noch einmal mit höherer Präzision verarbeitet).

    Gruß


    Denis

  • Du profitierst in beiden Varianten von einer Zuspielung in 10bit pro Farbkanal, sofern unterstützt. Die Unterschiede musst du schon mit der Lupe suchen, zumal Dithering i.d.R. in beiden Fällen zum Einsatz kommt

    Sorry, Denis - habe nicht genau verstanden von welchen "beiden Varianten" du redest. Ist das die Antwort auf 1. oder 3. Frage? Danke!

  • Echtes 10bit Panel vs. 8bit Panel und damit die dritte Frage. Auch bei 8bit + FRC wird bei einer Zuspielung in 10bit pro Farbkanal - das muss natürlich sauber unterstützt werden - nicht einfach "abgeschnitten". Viel entscheidender als die Panelfrage ist die Qualität des Scalers, der alle Transformationen möglichst präzise und verlustfrei umsetzen sollte - egal ob bei einer Zuspielung in 10bit oder 8bit pro Farbkanal.

    Gruß


    Denis

  • Ok, 3. ist klar.
    Meinst du den LUT? Sagen wir mal so, wenn man ein Monitor mit einem 14 bit LUT Tabelle, 8 bit + FCK und 1073 Mio Farben nimmt, kann er mit einem 10bit Monitor im Sinne Farbraum und Genauigkeit mithalten? Oder sind das "zwei Welten", die man nicht mit einander vergleichen darf?