Grafikkarte ausreichend für Wide-Gamut-Monitor?

  • Hallo,


    ich möchte eventuell, sollte sich der Dell U2413 doch noch als PWM-frei herausstellen, denselbigen kaufen, damit ich dann auch endlich einen neuen Monitor habe. ;)


    Jetzt habe ich aber zum ersten Mal irgendwie am Rand mitbekommen, dass es da gewisse Erfordernisse an die Grafikkarte gibt, um den erweiterten Farbraum auch nutzen zu können.


    Aktuell habe ich in meinem Rechner eine nVidia GeForce 9500 GT mit 1GB RAM-Speicher verbaut. Ausgänge sind einmal VGA und einmal DVI-D, und noch irgendein TV-Ausgang. Displayport hat sie nicht.


    Reicht das aus? Falls nein, was brauche ich bzw. auf was sollte ich bei der Anschaffung einer neuen Karte achten?


    Vielen Dank im Voraus für jede Antwort!


    Gruß, Diophant

  • Was du da gehört hast, war wohl die Anforderungen bei höherer Farbtiefe. Unabhängig davon, in welchem Farbraum du Arbeitest, also auch im Wide Gamut Bereich, werden meist 8bit pro Kanal verwendet, was jede Karte der vergangenen 10 Jahre packen sollte. Anschkluss über DVI wäre wohl empfehlenswert, deine Karte reicht also für die Farbe aus. Leistung musst du selbst beurteilen, wird aber durch den Farbraum nicht langsamer.
    Selbst wenn du Bilder nach der RAW-Konvertierung zwischenzeitlich mit 16bit bearbeitest, wird es vom Farbmanagement zur Anzeige wieder runtergerechnet, sind nur Reserven, damit bei späterer Konvertierung nichts verloren geht.
    Wieder ein anderes Thema ist die LUT innerhalb des Monitors, die oft auch größer ist, als die Fähigkeiten des Panels. Braucht den Anwender an dieser Stelle auch nicht unbedingt zu kümmern, die Kiste kommt trotzdem mit 8bit Signal klar.


    Kritisch wäre es im Punkt Farbtiefe 10bit pro Kanal (oder gar mehr), was zum einen sehr wenige Monitore haben wollen, zum anderen nur Profikarten unterstützen, als da wären nVidia Quadro oder AMD FirePro, und dann meist auch nur via Displayport. Normal braucht man's nicht. bringt auch Nachteile mit sich, z.B. inkompatibel mit verschiedener Software (inkl. Aero-Oberfläche unter Win 7/8 )


    [ Nur am Rande: Linux ist die Ausnahme, hier sind die Treiber nicht gesperrt, sodass es auch mit GeForce Hardware ginge (z.B. GTS450 wäre hardwareseitig dazu fähig und kostet nichtmal ein Zehntel der entsprechenden Quadro), aber es gibt dort leider auch kaum wirklich gute Software für Grafik-Profis, schade eigentlich... ]

    Einmal editiert, zuletzt von nexo ()

  • Hallo,


    erstmal vielen Dank für die Rückmeldung.


    Zitat

    Kritisch wäre es im Punkt Farbtiefe 10bit pro Kanal (oder gar mehr), was zum einen sehr wenige Monitore haben wollen, zum anderen nur Profikarten unterstützen, als da wären nVidia Quadro oder AMD FirePro, und dann meist auch nur via Displayport. Normal braucht man's nicht. bringt auch Nachteile mit sich, z.B. inkompatibel mit verschiedener Software (inkl. Aero-Oberfläche unter Win 7/8 )


    Aber genau das hat der neue Dell doch (auch wenn es 8bit + 2bit FRC ist), oder sehe ich da etwas falsch? Heißt das dann, ich kann den Monitor nur im sRGB-Modus betreiben?


    Ich dachte immer, ich wäre der PC-Experte (man sagt es mir zumindest nach), aber an dieser Stelle sind einige weiße Flecken auf meiner Landkarte, so wie es ausschaut...



    Gruß, Diophant

  • Zitat

    auch wenn es 8bit + 2bit FRC ist


    Das ist die interne Verarbeitung im Monitor für die Einstellung Weißwert, Gamma. (Monitor-LUT)
    Angesteuert wird er von der GraKa auch nur mit 8 Bit.
    Diese 256 Stufen werden bei wite -gammut auf einen größeren Farbraum aufgeteilt, d.h. die Abstufungen werden größer.
    Es soll Experten geben, die dies sehen. ?(

    MfG

  • Hallo,


    Zitat

    Angesteuert wird er von der GraKa auch nur mit 8 Bit.


    Könntest du das näher erläuteren? Ich verstehe nicht ganz, wie dann die Information für den 30bit-Farbraum von der Software zum Monitor kommt, bzw. welchen Sinn dieser erweiterte Farbraum dann eigentlich hat?



    Gruß, Diophant

  • Eine hochbittige interne Verarbeitung, d.h. Zuweisungen über eine LUT mit mehr als 8bit pro Kanal (bei den Prosumer Geräten i.d.R. 12-16bit; ggf. Einsatz einer 3D-LUT), steigern die Präzision der Tonwerttransformationen und vermeiden Tonwertverluste. Das ist erstmal völlig losgelöst von der nativen Farbtiefe des Panels (es geht aber auch nicht um eine künstliche Erhöhung der Farbtiefe durch Interpolation*). Stell dir vor, das zugespielte 8bit Signal würde nur mit einer Genauigkeit von 8bit verarbeitet. Am Ende der Verarbeitungskette setzt dann ein FRC-Dithering-Algorithmus auf, um die Farbtiefe visuell verlustfrei zu reduzieren. Heutzutage findet das FRC-Dithering meist panelintern statt (erkennbar in diesem Fall an den von dir erwähnten 8bit + 2bit FRC), man kann es aber auch vorverlagern.



    Zitat

    welchen Sinn dieser erweiterte Farbraum dann eigentlich hat?


    Der Farbumfang des Gerätes steht in keinem Zusammenhang mit der Farbtiefe der Zuspielung oder der internen Präzision.


    *
    Hier müsstest du schon mit 10bit pro Farbkanal zuspielen, sofern von Bildschirm, Software und Grafikkarte unterstützt. Das ist derzeit aber noch recht "wakelig". Erste Voraussetzung ist, wie von nexo erwähnt, eine FirePro oder Quadro Grafikkarte.

    Gruß


    Denis

  • Hallo Denis,


    auch dir vielen Dank für deine Antwort. Was mir aber immer noch nicht so ganz klar wird, woher dann die 1,07*10^9 angegebenen Farben bspw. beim U2413 kommen. Denn das ist ja genau 2^30. Und wenn das Signal mit 8bit reinkommt, dann ergibt das für mich halt 'nur' 2^24~=16,7*10^6.


    Und um zurück auf meine Augangsfrage zu kommen: kann ich dann (wenn ich ihn wirklich kaufe ;) ) den U2413 mit einer ollen GeForce 9500 GT ohne irgendwelche Einbußen betreiben?



    Gruß, Diophant

  • Zitat

    Und wenn das Signal mit 8bit reinkommt, dann ergibt das für mich halt 'nur' 2^24~=16,7*10^6.


    Das Signal wird ja nicht 1:1 durchgeleitet, sondern transformiert. Und hier macht es viel Sinn, die Zuweisungen mit höherer Präzision zu treffen, beim DELL mit einer Genauigkeit von 14bit. Sonst würden, je nach Situation, viele Eingangswerte auf den gleichen Ausgangswert abgebildet. Farbabrisse und ein Verlust an Präzision wären die Folge.


    Ein kleines Gedankenexperiment: Du veränderst über die RGB-Gain-Regler den Weißpunkt durch Reduktion der Intensität eines Kanals. Der Bildschirm verfügt nur über eine 8bit LUT:


    Vorher (idealisiert; native Tonwertkurve, ohne Berücksichtigung weiterer Faktoren):


    255 => 255
    254 => 254
    253 => 253
    252 => 252
    ...


    Nachher (wieder rein hypothetisch):


    255 => 220
    254 => 220 => Aua
    253 => 220 => Aua - Mit höherer Präzision könnte man aber Zwischenstufen auflösen
    252 => 219
    ... (im weiteren Verlauf würden noch einige Tonwerte zwangsläufig zusammenfallen)


    Es geht, wie gesagt, nicht darum, bei einem Eingangssignal von 8bit pro Kanal am Ende ein mehr an Farbtiefe herauszuholen. Nur möchte man eben auch nichts verlieren.


    Zitat

    kann ich dann (wenn ich ihn wirklich kaufe ;) ) den U2413 mit einer ollen GeForce 9500 GT ohne irgendwelche Einbußen betreiben?


    Selbstverständlich.

    Gruß


    Denis