Dell U3014: Gelungene Weiterentwicklung des U3011 für semiprofessionelle Benutzer (Prad.de)

    • Offizieller Beitrag

    Der Test des 30 Zoll Monitors Dell U3014 ist als Preview ab sofort verfügbar. Die Veröffentlichung ist für den 22.07.2013 vorgesehen. Alle Fragen zum Test und Dell U3014 selbst, können innerhalb dieses Themas gestellt werden. Der Testredakteur versucht alle Fragen schnellstmöglich zu beantworten.



    Im Test: Dell U3014 (Bild: Dell)



    Weiterführende Links zum Thema


    Test Dell U3014


    Datenblatt


    Dell U3014 bei Amazon kaufen

  • Hallo und Danke für die Bereitstellung dieser sehr informativen Seite. :thumbup:
    Ich freue mich seit über 3 Jahren über den großen Farbraum meines W2420 und darüber, dass meine Erfahrungen mit dem Monitor sehr gut mit euerm diesbezüglichen Test übereinstimmen, den ich erst nach dem Kauf meines Monitors gelesen habe und mich von der Qualität eurer Tests überzeugen konnte... :thumbup:
    ...nun, da ich quasi immer unter chronischem Platzmangel auf dem Desktop leide, eine neue Kamera mit größerer Auflösung und die bereits erwähnte Neigung zu großen Farbräumen habe,
    reifte in mir der Wunsch einen größeren Bildschirm mit größerer Auflösung und mindestens AdobeRGB Abdeckung - als Ergänzung - zu haben. :whistling:
    Kurz:
    Der Dell U3014 scheint geeignet, aber hat er auch (wirklich) ein 10 Bit Panel (passend zu meiner 10 Bit fähigen GraKa) und konntet Ihr Probleme, wie hier:
    http://en.community.dell.com/s…earchresults.aspx?q=U3014
    http://en.community.dell.com/s…19502072.aspx?PageIndex=2
    oder hier:
    http://hardforum.com/showthread.php?p=1039789635
    beschrieben feststellen?
    ...und kennt Ihr den Unterschied zwischen der Revision A00 und A01 des Monitors...
    ...und welche Revision(en) habt ihr getestet?
    Habt ihr auch Hardware- Kalibrierungsversuche mit "i1 Display Pro", welches ja vergleichsweise genau sein soll:
    http://www.drycreekphoto.com/L…rCalibrationHardware.html
    vornehmen können und eventuell auch mit "i1 photo Pro 2" Ergebnissen verglichen?
    Vielen Dank für's Beantworten!
    LG Ulrich

  • Zitat

    Der Dell U3014 scheint geeignet, aber hat er auch (wirklich) ein 10 Bit Panel (passend zu meiner 10 Bit fähigen GraKa)


    Wie im Testbericht vermerkt: Ob da ein echtes 10bit Panel oder natives 8bit Panel mit 10bit LVDS-Link verbaut wird, ist für dich als Benutzer unerheblich. Wichtig ist im Gesamtzusammenhang vor allem die Präzision der LUT. Den DELL kannst du mit 10bit pro Farbkanal ansteuern, sofern geeignete Grafikkarte (FirePro, Quadro) und Software vorliegen.


    Zitat


    Das Streifenproblem trat bei unserem Modell nicht auf, man hört hier aber inzwischen einige Klagen.


    Zitat

    ...und welche Revision(en) habt ihr getestet?


    Ich vermute die A00.


    Zitat

    Habt ihr auch Hardware- Kalibrierungsversuche mit "i1 Display Pro", welches ja vergleichsweise genau sein soll:

    vornehmen können



    (Bitte auch die Kommentare lesen, da trat beim U3014 im Zusammenhang mit der Hardwarekalibration ein recht spezielles Phänomen zu Tage)


    Zitat

    und eventuell auch mit "i1 photo Pro 2" Ergebnissen verglichen?


    In unserer eigenen Validierungssoftware verwenden wir das i1 Pro. Macht hinsichtlich spektralradiometrischer Messungen keinen siginifkanten Unterschied.

    Gruß


    Denis

  • Danke für die schnelle Rückantwort!


    -


    Klar, wenn man mit 16 Bit Genauigkeit die Werte für ein 8 Bit Panel aufbereitet, kann man die ansich geringere Genauigkeit zu einem 10 Bit Panel etwas ausgleichen...
    ...ich wäre halt froh, wenn man sich endlich von den lausigen, antiquierten, 256 Stufen verabschieden würde.
    Meine FireGL V7700 hat netter Weise 10 Bit Unterstützung - zugegebener Maßen aber nicht jede Software...


    Habt ihr den Testmonitor auch mit 10 Bit (GraKa und DisplayPort) getestet?


    Zitat

    In unserer eigenen Validierungssoftware verwenden wir das i1 Pro. Macht hinsichtlich spektralradiometrischer Messungen keinen siginifkanten Unterschied.


    Konntet ihr ein "i1 Pro" und das neue "i1 Pro 2" mal vergleichen?
    Das i1 Display Pro scheint laut Drycreekphoto genauer als das (alte) i1 Pro zu sein...
    ...Drycreekphoto hat anscheinend Abweichungen von bis zu 3,5 DeltaE zwischen den 10 von ihnen getesteten i1 Pro Geräten gemessen:



    Das i1 Pro gab es ja auch anscheinend in 4 Revisionen, die (zumindest teilweise) in ihrer Genauigkeit wohl unterschiedlich waren...


    ..."Focus Numerique" hat zwischen einem "i1 Pro" und dem neuen "i1 Pro 2" DeltaE Unterschiede von im Extremfall über 2,5 gemessen:


    ...die Validierungssoftware spielt natürlich auch eine Rolle.


    Die Ermittlung von Absoluten Werten ist bedeutend schwieriger, als die von Relativen - weswegen ich mich da bisher auch lediglich auf ein i1 Pro und eine Spyder 3 Elite (mit angepasster Korrekturdatei für den TrueColorFinder meines Monitors) verlassen habe. :whistling:


    -


    Naja, ich werde wohl noch etwas mit dem Monitorkauf warten, bis Klarheit v.A. bezüglich des Streifenproblems des Dells besteht...
    ...vielleicht kommt ja LG demnächst mit einem vergleichbaren (und weniger seltsam reagierenden) 30 Zöller raus? 8)

    Einmal editiert, zuletzt von Usee ()

  • Zitat

    ...ich wäre halt froh, wenn man sich endlich von den lausigen, antiquierten, 256 Stufen verabschieden würde.
    Meine FireGL V7700 hat netter Weise 10 Bit Unterstützung - zugegebener Maßen aber nicht jede Software...


    Wie gesagt, das ist u.a. auch in der heute weit verbreiteten Kombination aus 8bit Panel mit internem 10bit LVDS-Link grundsätzlich erstmal kein Problem und letztlich ohne visuelle Abstriche möglich.


    Zitat

    Habt ihr den Testmonitor auch mit 10 Bit (GraKa und DisplayPort) getestet?


    Nein.


    Zitat

    Das i1 Display Pro scheint laut Drycreekphoto genauer als das (alte) i1 Pro zu sein...


    Wir müssen hier Inter-Instrument-Agreement und absolute Genauigkeit trennen. Wobei letztere beim i1 Display Pro mit der passenden spektralen Charakterisierung ebenfalls völlig hinreichend ist (siehe Bericht). Gleichzeitig haben natürlich auch i1 Pro und i1 Pro 2 Einschränkungen (vgl. u.a. ISO 3664 oder Signal-Rausch-Abstand), sind aber für uns die bestmögliche Lösung.


    Zitat

    ...Drycreekphoto hat anscheinend Abweichungen von bis zu 3,5 DeltaE zwischen den 10 von ihnen getesteten i1 Pro Geräten gemessen:


    i1 Pro und i1 Pro 2 sind im (gehobenen) Consumer-Bereich angesiedelt und in erster Linie für spektralfotometrische (= reflektive) Messungen von Körperfarben entwickelt worden. Die Verbesserungen des i1 Pro 2 sind denn auch in erster Linie hier zu finden (zeigen sich z.B. bei der Vermessung von Papieren mit optischen Aufhellern), wobei der deutlich höhere Leuchtdichten-Messbereich durchaus interessant sein kann.

    Gruß


    Denis

  • Zitat


    Wie gesagt, das ist u.a. auch in der heute weit verbreiteten Kombination aus 8bit Panel mit internem 10bit LVDS-Link grundsätzlich erstmal kein Problem und letztlich ohne visuelle Abstriche möglich.


    Ja, solange man letztlich nur 256 Stufen gleichzeitig anzeigen kann und will.
    Kann und will man 1024 Stufen (für sanftere Übergänge) gleichzeitig anzeigen, braucht man halt echte 10 Bit und kann diese nicht durch präziser (mit 10, 12, 14, 16 bit) berechnete 8 bit Stufen ersetzen.


    Zitat


    Wir müssen hier Inter-Instrument-Agreement und absolute Genauigkeit trennen. Wobei letztere beim i1 Display Pro mit der passenden spektralen Charakterisierung ebenfalls völlig hinreichend ist (siehe Bericht). Gleichzeitig haben natürlich auch i1 Pro und i1 Pro 2 Einschränkungen (vgl. u.a. ISO 3664 oder Signal-Rausch-Abstand), sind aber für uns die bestmögliche Lösung.


    Richtig, die Trennung und die höhere Genauigkeit des i1 Display Pro erwähnte ich bereits.
    Das i1 Pro 2 scheint im Gegensatz zum i1 Pro einen besseren Rauschabstand zu besitzen (längere Integrationszeiten und entsprechend abgestimmte Signalauswertung),
    was gerade den bisherigen Schwachpunkt dieses Gerätedesigns (dunkler Bereich unter 0,5 cd) etwas entschärft und möglicher Weise auch für die verbesserte Mess- Genauigkeit (zusammen mit der wohl geringeren Temperaturdriftempfindlichkeit) gegenüber dem i1 Pro verantwortlich ist.


    -


    Letztlich führen die besseren Anzeige und Messgeräte zusammen mit der dafür optimierten Software zur besseren Übereinstimmung zwischen dem, was der Photograph, Grafiker und / oder Künstler sich vorstellt und dem, was er über seine Ausgabegeräte und / oder Druckdienste und Druckereien erhält...
    ...was nicht nur dem Kunden, sondern auch dem Lieferanten eine Menge graue Haare und Ärger ersparen kann...


    ...weswegen ich es sehr zu schätzen weiß, wenn sich die Präzision und die Verbreitung von sachdienlicher Hard- und Software (auch durch Ihr Internetangebot) verbessert.


    -


    Beste Grüße,
    Ulrich

  • Zitat

    Ja, solange man letztlich nur 256 Stufen gleichzeitig anzeigen kann und will.
    Kann und will man 1024 Stufen (für sanftere Übergänge) gleichzeitig anzeigen, braucht man halt echte 10 Bit und kann diese nicht durch präziser (mit 10, 12, 14, 16 bit) berechnete 8 bit Stufen ersetzen.


    Nein. Hinter dem LVDS-Link sitzt natürlich eine FRC-Stufe für die Farbtiefenkonvertierung. Das ist übrigens selbst beim präzise transformierten 8bit Eingangssignal wichtig, da man ja nicht einfach die lsb abschneiden will. Für dich ergibt sich aber tatsächlich auch in einem 10bit Workflow kein signifikanter Unterschied (zwischen 10bit Panel + 10bit LVDS und 8bit Panel + 10bit LVDS). Das ist jetzt kein theoretischer Exkurs: Auch wenn für den U3014 nicht explizit getestet, habe ich entsprechende Kombination alle schon im Einsatz (auch mit 10bit Zuspielung) gesehen.


    Zitat

    was gerade den bisherigen Schwachpunkt dieses Gerätedesigns (dunkler Bereich unter 0,5 cd) etwas entschärft und möglicher Weise auch für die verbesserte Mess- Genauigkeit (zusammen mit der wohl geringeren Temperaturdriftempfindlichkeit) gegenüber dem i1 Pro verantwortlich ist.


    Wie gesagt, die Vorteile im Bereich emissiver Messungen sind überschaubar und brächten für unsere Testberichte keinen entscheidenden Vorteil. Deswegen gibt es für die betroffenen Redakteure auch keine generelle Umstiegsempfehlung (übliche Messgerätekombination bei uns: i1 Pro und i1 Display Pro). An dieser Stelle muss man fairerweise anmerken, dass für X-Rite weitere Verbesserungen auf diesem Gebiet extrem aufwändig und im Ergebnis preislich für den Consumer-Bereich völlig uninteressant wären. Ein ISO 3664 konformes Gerät (optischer Bandpass <= 5nm) wird es hier auf absehbare Zeit nicht geben. Ich selbst werde demnächst auf das i1 Pro 2 umsteigen, aber das hat in erster Linie mit der Druckerprofilierung zu tun.


    Geht es nur um Bildschirmkalibration und -profilierung rate ich zum i1 Display Pro oder BasICColor Discus. Beides sehr ideale Colorimeter, die gegenüber früheren Lösungen erhebliche Zugewinne erzielen. Für den DELL kommt in Verbindung mit DCCS ja eh nur ersteres in Frage.

    Gruß


    Denis

  • Zitat


    Zitat


    Nein. Hinter dem LVDS-Link sitzt natürlich eine FRC-Stufe für die Farbtiefenkonvertierung. Das ist übrigens selbst beim präzise transformierten 8bit Eingangssignal wichtig, da man ja nicht einfach die lsb abschneiden will. Für dich ergibt sich aber tatsächlich auch in einem 10bit Workflow kein signifikanter Unterschied (zwischen 10bit Panel + 10bit LVDS und 8bit Panel + 10bit LVDS). Das ist jetzt kein theoretischer Exkurs: Auch wenn für den U3014 nicht explizit getestet, habe ich entsprechende Kombination alle schon im Einsatz (auch mit 10bit Zuspielung) gesehen.


    Doch "Ja", da der kleine aber feine Unterschied das erwähnte gleichzeitig ist...


    ...das ist eben mehr als nur aus einer großen Farb, oder Helligkeitspalette wählen zu können...
    ...eine Milliarde Farben werden ja auch nicht gleichzeitig dargestellt, sondern die gleichzeitig dargestellte Auswahl kann aus dieser Palette gewählt werden.
    Genauso, wie bei der Farbtiefenkonvertierung (und auch z.B. der Farbraumkonvertierung) eben nur ausgewählt werden kann und die Konvertierungsqualität von der zur Verfügung stehenden Bittiefe abhängt...


    ...ansonsten wären ja auch 14 Bit Rechengenauigkeit für eine 12 Bit Lut und erst recht 16 Bit Genauigkeit uninteressant, oder?


    Wenn dem nicht so wäre, könnte man auch gleich 6 Bit Panels und Softwarekalibrierung anstatt 10 Bit Panels und Hardwarekalibrierung verwenden...
    ...aber vielleicht liegt ja nur ein Missverständnis vor.


    -


    Jedenfalls könnte ich mir bezüglich des seltsamen, sporadisch auftretenden Streifenproblems des U3014 durchaus auch anfällige Bauteile in der Konvertierungspipline als Ursache vorstellen. :whistling:

  • Zitat

    ...ansonsten wären ja auch 14 Bit Rechengenauigkeit für eine 12 Bit Lut und erst recht 16 Bit Genauigkeit uninteressant, oder?


    Nein. Wobei im Prosumer- und High-End-Segment heute durchaus auch 14bit und 16bit Tabellen verwendet werden.


    Zitat

    Doch "Ja", da der kleine aber feine Unterschied das erwähnte gleichzeitig ist...


    Liegen visuell bei einem 10bit Eingangssignal in beiden Fällen tatsächlich vor. In einem Blindtest wirst du das nicht auseinanderhalten (ggf. nur mit der Nase vor dem Panel hinsichtlich des FRC-Rauschens). Schon aus diesem Grund ist es statthaft, dass die Bezeichnungen da bei den Herstellern verschwimmen und sich die 10bit Panel-Angabe meist nur auf den LVDS-Link bezieht.


    Zitat

    Wenn dem nicht so wäre, könnte man auch gleich 6 Bit Panels und Softwarekalibrierung anstatt 10 Bit Panels und Hardwarekalibrierung verwenden...


    Nein. Allerdings wird die Kopplung aus 6bit Panel (8bit LVDS) und 10bit LUT durchaus implementiert (vgl. einige Eizo-Modelle im Entry-Level Bereich) – und birgt visuell in einem 8bit Workflow keine signifikanten Nachteile (weiterhin präzise und neutrale Reproduktionscharakteristik, ohne "vcgt Profil" keine Tonwertverluste gegenüber dem Ausgangssignal).


    Zitat

    und auch z.B. der Farbraumkonvertierung


    Ein CMM arbeitet intern natürlich ebenfalls mit hoher Präzision. Spatiales Dithering kommt hier dann zumindest optional bei Ausgangsmaterial mit geringer Farbtiefe zum Einsatz, um sichtbare Tonwertverluste zu vermeiden (gegen die mit farbmetrischem Intent auftretenden Farbabrisse in Verläufen mit out of gamut Tonwerten hilft das freilich nicht).

    Gruß


    Denis

  • Zitat


    Ein CMM arbeitet intern natürlich ebenfalls mit hoher Präzision. Spatiales Dithering kommt hier dann zumindest optional bei Ausgangsmaterial mit geringer Farbtiefe zum Einsatz, um sichtbare Tonwertverluste zu vermeiden (gegen die mit farbmetrischem Intent auftretenden Farbabrisse in Verläufen mit out of gamut Tonwerten hilft das freilich nicht).


    Schön, dass wir uns zumindest diesbezüglich einig sind...
    ...allerdings sollte man auch hier daran denken, dass es bezüglich der Farbabrisse einen Unterschied macht, ob ein absolut-, oder ein relativ- farbmetrischer Intent vorliegt. ;)

  • Zitat

    ..allerdings sollte man auch hier daran denken, dass es bezüglich der Farbabrisse einen Unterschied macht, ob ein absolut-, oder ein relativ- farbmetrischer Intent vorliegt


    Das grundsätzliche Mapping auf den beschreibenden GBD ändert sich ja nicht (abgesehen von der Weißanpassung) – größeren Einfluß im Zusammenhang mit der Separation in einem CMYK-Profil hat da eine mögliche Tiefenkompensation bei relativ farbmetrischen Intent, auf die du wahrscheinlich abzielst. Sollte man, sofern angeboten, natürlich nutzen, um unnötige Farbabrisse gerade bei RGB-Quelldateien in den Tiefen zu vermeiden.


    Zitat

    Schön, dass wir uns zumindest diesbezüglich einig sind...


    Ich will dich ja gar nicht ärgern, aber tatsächlich gibt es da keinen siginifikanten Unterschied. Schau dir die 10bit Zuspielung einfach mal im Zusammenhang mit zwei entsprechenden Schirmen an. Die FRC-Schaltungen sind heute durchweg sehr sauber implementiert.

    Gruß


    Denis

  • Zitat


    Das grundsätzliche Mapping auf den beschreibenden GBD ändert sich ja nicht (abgesehen von der Weißanpassung) – größeren Einfluß im Zusammenhang mit der Separation in einem CMYK-Profil hat da eine mögliche Tiefenkompensation bei relativ farbmetrischen Intent, auf die du wahrscheinlich abzielst. Sollte man, sofern angeboten, natürlich nutzen, um unnötige Farbabrisse gerade bei RGB-Quelldateien in den Tiefen zu vermeiden.


    Stell dir einfach mal das notwendige Mapping von sRGB auf AdobeRGB im roten Bereich im Vergleich zum grünen Bereich vor...
    ...Das würde ich als signifikant unterschiedlich bezeichnen...
    ...genauso, wie das von AdobeRGB auf sRGB je nach Intent.


    Zitat


    Ich will dich ja gar nicht ärgern, aber tatsächlich gibt es da keinen siginifikanten Unterschied. Schau dir die 10bit Zuspielung einfach mal im Zusammenhang mit zwei entsprechenden Schirmen an. Die FRC-Schaltungen sind heute durchweg sehr sauber implementiert.


    Signifikanz ist bei wahrnehmungsbezogenen Dingen ziemlich subjektiv - deswegen habe ich bisher auch darauf verzichtet auf den m.E. visuell deutlich wahrnehmbaren Messfehler von i1 Pro Messgeräten, von mehr als 2 dE-2000 abzuheben - schon allein, da man ja praxisbezogen mit irgendetwas messen muss und diese Geräte sicher nicht die schlechteste Wahl, aber eben auch nicht wirklich das Gelbe vom Ei, sind.
    Ob die Schaltungen beider U3014 er Revisionen sauber implementiert sind, weiss ich nicht, habe allerdings angesichts der "unerwarteten Besonderheiten" des Monitors so meine Zweifel. ;)

  • Zitat

    Stell dir einfach mal das notwendige Mapping von sRGB auf AdobeRGB im roten Bereich im Vergleich zum grünen Bereich vor...


    Ich stelle es mir vor – und sehe eine ideale Abbildung, da der Zielfarbaum den Quellfarbraum einschließt.


    Zitat

    ...genauso, wie das von AdobeRGB auf sRGB


    Hier sehe ich eine Abbildung auf die durch den GBD definierte Farbraumgrenze für out-of-gamut Tonwerte und eine ideale Transformation für in-gamut Tonwerte.


    Habe ja auch selbst schon CMMs umgesetzt, u.a. für unsere Validierungslösung. Relativ und absolut farbmetrischer Intent unterscheiden sich nur bezüglich des Media-Whitepoint-Handlings (der absolut farbmetrische Intent kommt fast ausschließlich Rahmen des Proofings zur Simulation des Auflagenpapiers zum Einsatz) – abgesehen von einer möglichen (und wichtigen) Tiefenkompensation, wie sie z.B. Adobes ACE anbietet. Bildschirmprofile unterstellen aber ohnehin vollständige Adaption auf den konkreten Weißpunkt und wurden auch entsprechend erzeugt (d.h. die farbmetrischen Daten sind chromatisch nach D50 adaptiert).


    Zitat

    je nach Intent.


    Einfache Matrixprofile geben nur einen farbmetrischen Intent her.


    Zitat

    deswegen habe ich bisher auch darauf verzichtet auf den m.E. visuell deutlich wahrnehmbaren Messfehler von i1 Pro Messgeräten, von mehr als 2 dE-2000 abzuheben


    Ich verweise in diesem Zusammenhang u.a. auf Effekte der Beobachtermetamerie, die besonders für Selbstleuchter um Größenordnungen mehr Einfluß haben – aber das bringt uns nicht weiter (bei Interesse: Hier hatte ich das einmal ausgeführt). Für die maximale absolute Genauigkeit im Rahmen spektralradiometrischer Messungen müsstest du schon auf Kaliber wie das CS-2000 oder zumindest die SpectraScans zurückgreifen. Am ehesten wären dabei noch letztere bei zentralen Labormessungen (mit der 5 nm Option und damit ISO 3664 konform) sinnvoll. Schon aufgrund der dezentralen Struktur ist die Kombination aus i1 Pro/ i1 Pro 2 und i1 Display Pro aber die bestmögliche und gleichzeitig absolut hinreichende Lösung für uns.


    Zitat

    Signifikanz ist bei wahrnehmungsbezogenen Dingen ziemlich subjektiv


    Probiere es bitte selbst mit zwei geeigneten Geräten aus, dann wirst du es sehen – bzw. nicht sehen ;-).

    Gruß


    Denis

  • Zitat


    Ich stelle es mir vor uns sehe eine ideale Abbildung, da der Zielfarbaum den Quellfarbraum einschließt.


    Das passt solange man nicht skaliert - Teil 2 des Gedankenspiels:


    Jetzt tun wir mal so, als ob sRGB den tatsächlich weitergereichten 8 Bit entspricht und AdobeRGB der eigentlich gewünschten 10 Bit Darstellung...


    ...im rein roten Bereich kein Problem, da Beide hier die gleiche Farbraumgrenze haben und weder inter- noch extra-poliert werden muss.


    Im rein grünen Bereich ist aber AdobeRGB wesentlich größer, als sRGB.
    Hier bräuchte man für die gleiche Abstufungsqualität mehr Werte, so man sich nicht auf den kleineren Bereich von sRGB beschränken möchte.


    Zitat


    Hier sehe ich eine Abbildung auf die durch den GBD definierte Farbraumgrenze für out-of-gamut Tonwerte und eine ideale Transformation für in-gamut Tonwerte.


    Genau das Gleiche:


    Im rein roten Bereich kein Problem, da Deckungsgleich, aber sobald man in Richtung Grün tendiert braucht man zusätzliche Werte - am Meisten in Richtung reines Grün -
    um nicht "merklich" daneben zu liegen...


    ...also lieber 10 Bit, als 8 Bit! :D


    "merklich" darfst Du gleichsetzen mit einer erkennbaren Farbstufe, oder Farbabriss, Linienbildung, oder "erforderlichem" Flimmern / Rauschen.


    Sicher ist das meist eher subtiler Natur, wie möglicher Weise die exemplarabhängigen, oder zumindest bildinhaltsabhängen Störeffekte beim U3014.

    Einmal editiert, zuletzt von Usee ()

  • Zitat

    Das passt solange man nicht skaliert - Teil 2 des Gedankenspiels:


    Moment - bis vorhin ging es um einen relativ vs. absolut farbmetrischen Rendering-Intent! Und genau auf diesen Intent-Unterschied (nämlich der Angleichung bzw. nicht Angleichung in Bezug auf den Medienweißpunkt) bezog ich mich. Wir haben doch überhaupt nicht über die Quantisierung gesprochen.


    Zitat

    Hier bräuchte man für die gleiche Abstufungsqualität mehr Werte, so man sich nicht auf den kleineren Bereich von sRGB beschränken möchte.


    Wie gesagt, das CMM arbeitet natürlich mit entsprechender Präzision (float, double). Für 8bit Ausgangsmaterial sollte ein (allerdings rein spatiales) Dithering zur Farbtiefenkonvertierung in gammakorrigiertes RGB angeboten werden, siehe z.B. eben wieder mein Standardbeispiel: Adobes ACE (für die Wandlung in Bildschirm-RGB zur Anzeige immer aktiv; bei benutzerseitig ausgelösten Farbraumkonvertierungen optional).


    Zitat

    ...also lieber 10 Bit, als 8 Bit!


    Ja, absolut. Ich habe nichts gegen einen 10bit Workflow zur Anzeige noch bestreite ich die fundamentalen Vorteile – ganz im Gegenteil.


    Zitat

    "merklich" darfst Du gleichsetzen mit einer erkennbaren Farbstufe, oder Farbabriss, Linienbildung, oder "erforderlichem" Flimmern / Rauschen.


    Wie gesagt, schaue es dir in Natura an. Solange die "Verarbeitungspipeline" vernünftig implementiert wurde, ist das Ergebnis visuell gleichwertig. Du profitierst umfänglich von der erhöhten Farbtiefe des Eingangssignals. Ich bin da nur verhalten, weil das System der 10bit Zuspielung selbst derzeit leider noch sehr wakelig ist.

    Gruß


    Denis

  • Zitat

    Wie gesagt, schaue es dir in Natura an. Solange die "Verarbeitungspipeline" vernünftig implementiert wurde, ist das Ergebnis visuell gleichwertig. Du profitierst umfänglich von der erhöhten Farbtiefe des Eingangssignals. Ich bin da nur verhalten, weil das System der 10bit Zuspielung selbst derzeit leider noch sehr wakelig ist.


    Den prinzipiellen Unterschied zwischen 8 bit (256 Stufen) und 10 bit (1024 Stufen) Jedem zu zeigen ist leider nicht trivial,
    aber ich möchte trotzdem hier einen Versuch machen:


    Beides sind 8 bit (256 Stufen) Graukeile:


    Grauskala-256.bmp


    Der Erste hat eine Breite von genau 256 Pixeln, so dass sich die Helligkeit von Pixel zu Pixel um jeweils eine Stufe ändert.
    Ich denke hier ist klar, dass das visuelle Auflösungsvermögen des Auges in der Regel nicht ausreichen dürfte zwischen den einzelnen Bildpunkten (klar) zu unterscheiden und somit verschwimmt die Grauskala zu scheinbar weichen Übergängen.


    -


    Der zweite Graukeil hat ebenfalls 256 Stufen, nur hat er eine Breite von 1792 Pixeln, so dass erst nach jeweils 7 Pixeln sich die Helligkeit um eine Stufe ändert...
    ...ich denke, dass bereits hier die durchschnittliche Sehfähigkeit ausreicht, um an durchschnittlichen Desktopmonitoren die einzelnen, 7 Pixel breiten Stufen zu erkennen:


    Grauskala-1792.bmp


    -


    Stellen wir uns nun in einer 8 bit Umgebung einen kleinen, gleichmäßigen Gradienten von 10 Stufen innerhalb eines tiefblauen Himmelsabschnitts mit 80 Pixeln Breite vor...
    (das heißt alle 8 Pixel eine Helligkeitsstufe)
    ...das dürfte man an einem durchschnittlich auflösenden Monitor besser sehen, als die 7 Pixel breiten Stufen in obigem Beispiel.


    Hätte man in der selben Situation 10 bit zur Verfügung, hätte man alle 2 Pixel sanftere Helligkeitsstufen, die man wahrscheinlich nicht mehr so einfach erkennen könnte.


    -


    Daran kann man meines Erachtens sehen, dass die Notwendigkeit von 10 bit abhängig ist von:


    - der individuellen Sehfähigkeit


    - dem Betrachtungsabstand


    - der Pixeldichte des Bildschirms


    - der Größe des betrachteten Bildabschnitts


    - dem Bildinhalt


    -


    Jemand mit Sehschwäche, der an einem hochauflösenden Monitor kleine kontrastreiche Strukturen anschaut, braucht wohl nicht unbedingt 10 bit.
    Jemand mit normaler Sehstärke an einem durchnittlich auflösenden Monitor, der feine, großflächigere Strukturen anschaut, freut sich meines Erachtens sicher über 10 bit...
    ...erst recht wenn er verbindliche Diagnosen, oder Reproduktionen erstellen muss.


    -


    Ich hoffe ich konnte hiermit die Problematik (für die meisten Leser und Betrachter) etwas verdeutlichen.

  • Zitat

    Den prinzipiellen Unterschied zwischen 8 bit (256 Stufen) und 10 bit (1024 Stufen) Jedem zu zeigen ist leider nicht trivial,
    aber ich möchte trotzdem hier einen Versuch machen:


    Wir reden wirklich völlig aneinander vorbei. Ich versuche es aber noch eimal: Auch bei dem System aus 8bit Panel + 10bit LVDS werden die 10bit des Eingangssignals visuell vollständig reproduziert. Die 10bit/8bit Konvertierung ist über eine FRC-Schaltung realisiert. Somit werden die lsb nicht einfach abgeschnitten – das wäre selbst bei Zuspielung eines 8bit Signals fatal, weil die Transformationen ja aus guten Gründen mit hoher Präzision durchgeführt wurden.


    Zitat

    Hätte man in der selben Situation 10 bit zur Verfügung, hätte man alle 2 Pixel sanftere Helligkeitsstufen, die man wahrscheinlich nicht mehr so einfach erkennen könnte.


    Zweifellos. Das hast du aber auch unter o.g. Umständen. Ausnahme wären Implementierungen, in denen das 10bit Signal eingangsseitig zunächst beschnitten wird. Für die Monitore von denen wir hier reden gilt das nicht.


    Zitat

    Ich hoffe ich konnte hiermit die Problematik (für die meisten Leser und Betrachter) etwas verdeutlichen.


    Nein, weil Fragestellung und Antwort ja schon völlig trivial sind: Natürlich ist eine Zuspielung in 10bit besser. Das ist hier zu wirklich keinem Zeitpunkt bestritten worden. Weitere Diskussionen machen aber erst Sinn, wenn du dir das mal live angesehen hast.


    Vorschlag:


    Du kaufst dir eines der wenigen Geräte mit echtem 10bit Panel (Vorsicht: In der Nomenklatur der Hersteller ist 10bit LVDS + 10bit Panel = 10bit LVDS + 8bit Panel + FRC; Aufschluss geben hier nur die Paneldatenblätter), zum Beispiel eben den U3014, und bringst ihn mit. Ich stelle das Vergleichsgerät mit "pseudo 10bit Panel" und 10bit DisplayPort Unterstützung (weit verbreitet, selbst im High-End-Bereich). Beiden Bildschirmen wird mit 10bit pro Farbkanal in geeigneter Anwendung und mit geeignetem Testmaterial zugespielt. Du wirst dann sehen, dass der hohe Tonwertumfang jeweils reproduziert werden kann.


    Alternativ kann man das aber auch im Rahmen eines 8bit Workflows testen: Der zweite Bildschirm wäre hier dann ein hochwertiges Entry-Level Gerät mit nativem 6bit Panel, z.B. der FS2331 von Eizo (10bit LUT). Er gibt visuell den vollen Tonwertumfang des 8bit Eingangssignals wieder.

    Gruß


    Denis

  • Es geht letztlich auch um Gleichzeitigkeit...


    (siehe mein Beispiel und teste auch mal hiermit: )


    ...mit 10 bit kannst Du zwar die höhere Genauigkeit auf die 8 bit anwenden, aber trotzdem nicht mehr als 8 bit davon gleichzeitig darstellen.
    Du hast damit lediglich in einem ausgewählten Bereich (vergleichbar mit dem Beispiel) die scheinbare Darstellungsgenauigkeit von 10 bit aber eben nicht überall gleichzeitig.


    Zitat

    Vorschlag:


    Du kaufst dir eines der wenigen Geräte mit echtem 10bit Panel


    Im Übrigen steht in meinem Profil, und in meinem ersten Beitrag hier, dass ich einen W2420 habe, welcher das gleiche 10 bit Panel besitzt, wie der HP LP2480zx Dreamcolor:



    ...welchen ich auch erfolgreich mit 10 bit an meiner FireGL 7700:



    ansteuern kann.


    -


    Was man sehen kann - oder nicht - ist halt individuell verschieden und lässt sich nicht wirklich diskutieren.


    Das banding Problem einiger U3014 steht auch nicht auf dem Datenblatt,
    kommt aber vielleicht davon, dass er eventuell kein echtes 10 bit Panel hat, oder sonst wo her...


    ...ich hoffe man findet's noch raus, da der Monitor ansich sehr gut sein müsste.

  • Hallo Prad,


    ich habe mich für einen U3014 und ein x-rite i1 Pro entschieden und beide Geräte nach Veröffentlichung des Tests bestellt.


    Vorab:
    - Ich habe Rev. A01
    - Ich habe kein Streifenproblem.
    - Ich bin bisher mit der Bildqualität und der gigantischen Bildschirmfläche und Auflösung mehr als zufrieden und bereue es nicht, mir dieses "Monster" gekauft zu haben!


    Nun zur Kalibrierung. Ich arbeite zum ersten Mal mit einem kalibrierbaren Monitor und Farbprofilen, mag sein dass "dumme" Fragen dabei sind:


    (1) Kalibrierreport:
    - Der beiliegende Kalibrierreport zeigt für sRGB und AdobeRGB Farbabweichungen DeltaE im Mittel < 2, das deckt sich ungefähr mit euren Messungen.
    - "Brightness Uniformity" weicht lt. Report bei 25 Feldern um max. 1% ab, lt. Kalibriervorschrift sind 97%-102% zulässig. Das wäre ja deutlich besser als in euren Tests und kommt mir "zu gut" vor.
    - "Color Uniformity Delta E" liegt größtenteils < 1, Maximum 1,1, auch das erscheint mir "zu gut".
    -> Habt ihr dafür eine Erklärung? Wo ist mein Denkfehler?


    (2) Kalibrierung allgemein:
    Ich habe jetzt 2 Kalibriertools: "i1Profiler" von x-rite und "Dell UltraSharp Color Calibration Solution" von Dell. Die xRite Software bietet deutlich mehr Optionen inkl. Umgebungslichtmessung und einer Überprüfung der Kalibrierung.
    Ich habe das so verstanden, dass die Dell SW eine HW Kalibrierung erlaubt (in der LUT des Monitors) und die x-rite SW eine SW Kalibrierung (in der LUT des PCs).
    -> sehe ich das richtig? Sollte deshalb grundsätzlich nur die Dell SW verwendet werden?


    (3) Kalibrier-Ablauf:
    Nach dem Testbericht und den darin erwähnten Problemen habe ich folgenden Weg gewählt, ich hoffe ich habe das richtig verstanden:
    - Monitor im OSD auf "CAL1" eingestellt
    - Kalibrierung in der Dell-SW mit Ziel AdobeRGB / 140 lm/m²
    - Speicherung und Verwendung des erzeugten ICC Profils als WIndows-Standard
    - Kontrolle in der x-rite SW (Die Abweichungen sind z.T. größer als erwartet - Delta E im Mittel zwischen 2 und 3)
    -> Ist das der empfohlene Weg, habe ich das richtig verstanden?


    (4) Verwendung unter Windows:
    Der Dell Display Manager bietet die Option, je nach Anwendung eine andere Einstellung zu wählen. Das habe ich abgeschaltet, da ich annehme dass damit nur der Monitor und nicht das ICC Profil umgeschaltet wird macht das m.E. keinen Sinn. Ich habe deshalb am Monitor fest "CAL1" eingestellt, im Windows das frisch erzeugte Profil als Standard.
    Meine Anwendungen:
    - Adobe Lightroom 4: arbeitet standartmäßig in AdobeRGB, den Unterschied zu sRGB kann man im Softproof sehen, d.h. das funktioniert ;)
    -> Aber was machen andere Anwendungen, die sRGB brauchen (z.B. Videoverarbeitung Pinnacle Studio, Windows Media Player, Internet Explorer usw.): verwenden die jetzt korrekte Farben, oder werden hier die sRGB Inhalte auf AdobeRGB "gedehnt" und die Farben damit "zu bunt" angezeigt?


    Danke für Tipps und viele Grüße,


    Michael