Posts by Class A

    Hallo Denis,


    tausend Dank für Deine äußerst fachkundigen Informationen!

    Ich bin sehr dankbar dafür, dass Du Dir die Zeit genommen hast so ausführlich zu antworten. Obwohl ich einen Weile gesucht habe, bin ich zuvor nie auf ein solch fundierte Erklärung gestoßen.


    Monitore, die eine 3D-LUT in ihrer Scaler-Pipeline einsetzen, nutzen diese nicht unbedingt für die Farbraumemulation. Hier werden tatsächlich eher letzte Nichtlinearitäten beseitigt - wirklich notwendig für ein gutes Ergebnis ist das i.d.R. nicht. Monitore verhalten sich meist sehr gutmütig, kein Vergleich zu Ausgabeprozessen im Druck, wo wir mit CMYK dann noch zusätzlich eine überbestimmte Primärfarbenkonstellation vorfinden.

    Das leuchtet mir ein. Ich denke es kann auch u.U. besser sein nicht überall 100% absolut referenzwürdige dafür aber stetige Korrekturen anzustreben. Lokale Unstetigkeiten können störender sein als kleine absolute Abweichungen vom Ideal.


    Über die LUT => Matrix => LUT Konfiguration wird, wie bei Matrix Shaper Profilen, nur ein einfacher farbmetrischer Intent umgesetzt. Sollen keine Out-of-Gamut Tonwerte abgeschnitten werden, erfolgt eine Anpassung des Emulationsziels. Hier böte eine 3D-LUT (die aber nie alleine steht) mehr Möglichkeiten, wie sie auch mit entsprechenden ICC-Profilen zur Verfügung stehen (auch hier ist eine 3D-LUT insbesondere in vor- und nachgeschaltete 1D-LUTs eingebunden). Das hat aber für die meisten Benutzer nur eine untergeordnete Bedeutung, genauso wie das Hochladen bereits vorberechneter Tabellen.

    Auch dies leuchtet mir ein. Ich denke nicht, dass ich jemals Out-of-Gamut Tonwerte durch Anpassung beibehalten werden will. Solange eine "Profiling"-Funktionalität der Bildbearbeitungssoftware Out-of-Gamut Tonwerte anzeigt, kann man ja nach Belieben reagieren. Meinem Verständnis nach würde hier ein 3D-LUT Monitor nur mehr Bequemlichkeit bringen und ggf. mangelnde Funktionalität der Bildverarbeitungssoftware kompensieren.


    Auf Basis einer guten Hardwarekalibration, bei der die LUT der Grafikkarte unangetastet bleibt, sind die Farbraumtransformationen eines CMM meist ziemlich harmlos. Der CG2420 ist hier schon eine sehr gute Basis.

    Prima!

    Ich strebe an, dass auch Applikationen, die kein Farbmanagement beherrschen (wie z.B., schnelle und handliche JPG Viewer) die Bilder möglichst korrekt anzeigen. Da jedoch bereits schon ein 1D-LUT Monitor wie der CG2420 eine Tonwertkorrektur im ganzen Bereich durchführen kann (inkl. Gammakorrektur), sollten nur recht geringe Farbabweichungen entstehen falls das CMM-Profil nicht zum Einsatz kommt.

    Grundsätzlich kann man schon einmal festhalten, dass eine fehlende 3D-LUT in der Scaler-Pipeline weder eine präzise Farbraumemulation noch entsprechend gute Kalibrationsergebnisse ausschließt.

    Das klingt ja schon sehr vielversprechend! Ich bin schon sehr gespannt auf die ausführliche Antwort!


    Besten Dank auch an Andi für das Einschalten des Experten!

    Ich würde gerne einen Testbericht zum EIZO CG247X sehen.


    Dieser Monitor ist dem EIZO CG2420 recht ähnlich und wird auch im CG2420 Testbericht erwähnt. Trotz der Ähnlichkeiten (z.B., identisches Panel) gibt es Unterschiede wie z.B., die 3D LUT Unterstützung und HDR Emulation des CG247X und ich interessiere mich dafür welche praktischen Auswirkungen diese Unterschiede haben auch wenn man kein Videoanwender ist.


    Ich habe soeben den Titel dieses Threads geändert um hervorzuheben welche Fragestellung mich tatsächlich beschäftigt. Die Nützlichkeit von "3D-LUT"s im Allgemeinen möchte ich nicht in Frage stellen. Mir geht es vielmehr darum, welche Vorteile darin bestehen die 3D-LUT hardwareseitig (im Monitor) zu unterstützen.

    Gibt es mehr Vorteile als nur Rechengenauigkeit und die Möglichkeit den Monitor an Quellen anzuschließen, die kein Farbmanagement beherrschen?

    Tonwertverluste sollten doch auch schon bei einem 1D-LUT Gerät wie dem CG2420 nicht mehr auftreten.

    Das sagt Wikipedia zum Thema

    Und hier ist eine Erklärung, die keine Frage offen lässt.

    Allerbesten Dank für die Referenzen.


    Leider muss ich aber sagen, dass ich nicht wirklich schlauer als vorher bin.


    Das Funktionsprinzip einer 3D LUT hatte ich mir schon vorher zurechtgereimt.

    Keiner der beiden Informationsquellen liefert eine echte Entscheidungshilfe, da nicht explizit geklärt wird warum ständig der Videobereich herangezogen wird. Nach wie vor vermute ich, dass im Videobereich softwarebasierte LUTs fast nicht üblich sind und deshalb 3D Hardware LUTs recht wichtig sind.

    Es ist mir auch weiterhin unklar wie ein CG2420 -- der keine 3D Hardware LUT besitzt -- auf gute Ergebnisse kommt, wenn man der zweiten Informationsquelle Glauben schenkt, gemäß derer eine LUT angeblich unabdingbar sei. Mir scheint, die zweite Informationsquelle ist in Teilen mit Vorsicht zu genießen, da hier offensichtlich ein Produkt beworben wird.


    Ich habe mit reinen Matrixprofilen gute Erfahrungen gemacht, ja sogar teilweise bessere als mit LUT-basierten Profilen (ggf. einer schwierig zu messenden Hintergrundbeleuchtung geschuldet). Daher vermute ich, dass im CG2420 keine "festverdrahtenden" LUTs + kalibrierbare 1D LUT zur Anwendung kommen, sondern 3D LUTs im Allgemeinen nicht notwendig sind. Schließlich ist der CG2420 auch ohne interne 3D LUT schon ein hochwertiges Gerät. Dies bedeutet entweder dass 3D LUTs ggf. entbehrlich sind, oder dass Geräte wie der CG2420 auf eine softwareseitige LUT angewiesen sind und nur einen Teil der Korrektur per (1D) Hardware LUT bewerkstelligen.

    Vielleicht sollte ich einfach fragen unter welchen Umständen sich die Anschaffung eines CG247X gegenüber dem CG2420 lohnt (aber darum bitten, dass die Antwort keinen Bezug auf Videoanwendungen nimmt:) )?

    Ich bin mir darüber bewusst, dass der CG247X gerade für Videoanwender interessant ist, nicht nur wegen der unterstützten Videofarbraumstandards. Die Antwort auf die Frage "3D LUT oder 1D LUT" kann aber nicht vom Anwendungsbereich abhängen, da eine Kalibrations-LUT in beiden Bereichen Sinn macht.

    Ich würde es bevorzugen jegliche softwarebasierten Berechnungen zu vermeiden, da es auf diese Weise nicht mehr darauf ankommen sollte ob eine Applikation Farbmanagement unterstützt oder nicht (sofern die verwendeten Bilder mit dem gewählten Farbraum kompatibel sind). Unter Umständen könnte dies aber bedeuten dass ich eine relative kleine hardwarebasierte, monitorinterne LUT verwenden würde, während eine softwarebasierte LUT viel größer und damit genauer sein könnte.


    Ich ziehe den Erwerb eines EIZO CG2420 oder CG247X in Betracht.


    Einer der Unterschiede zwischen diesen Modellen ist das der CG247X eine "3D LUT" anbietet, ich frage mich allerdings ob dieses Merkmal den Aufpreis rechtfertigt.


    In vielen Kontexten, z.B. auch in PRAD Testberichten, wird eine 3D LUT hauptsächlich für den Videobereich als vorteilhaft angesehen. Dies leuchtet mir allerdings nicht ein, da sich meines Wissens der Unterschied zwischen einer regulären monitorinternen LUT und einer 3D monitorinternen LUT nur eine etwas gesteigerte Präzision für letztere ist. In beiden Fällen benötigt das Quellgerät kein Farbmanagement, also sollten auch Videoanwendungen ohne 3D LUT möglich sein.

    Ich vermute, das 3D LUTs dann hilfreich sind wenn es darum geht nicht-lineare Farbraumemulationen bereit zustellen. Wenn z.B., ein Film oder Druckerpapier Farben in diversen Farbraumabschnitten so "mischt" dass sie nicht der Linearkombination der Primärfarben entspricht, dann wird eine 3D LUT notwendig. Ansonsten sollte es doch immer möglich sein auch bei einer herkömmlichen LUT die Primärfarben so einzustellen, dass sich die gewünschte Emulation ergibt.

    Ist das soweit korrekt?

    Ich werde hauptsächlich fotografische Bildverabeitung betreiben würde mir aber ungerne Möglichkeiten verbauen. Ich möchte vor allem jegliche PC-basierten Farbprofile vermeiden. Dies sollte meiner Meinung nach schon mit dem CG2420 möglich sein, aber ggf. gibt es Kalibrationssoftware usw., die eine 3D Monitor-LUT verlangt?


    Über Beiträge zu dieser Fragestellung (gerne auch zu anderen Unterschieden zwischen CG2420 und CG247X) würde ich mich sehr freuen.


    Zunächst mal Glückwunsch zur Entscheidung.


    Für diejenigen, die noch den DELL U2410 auf der Liste haben, wollte ich hinzufügen, dass der Asus PA246Q dem U2410 zwar sehr ähnlich ist, es aber doch Unterschiede gibt:
    1. Ich habe keine Probleme die Helligkeit deutlich unter 120 zu regeln. Ggf. liegt das daran, dass ich die RGB Werte im Servicemenü für einen guten Weißpunkt gesenkt habe.
    2. Mit der Gleichmäßigkeit der Ausleuchtung hatte ich mit keinem der U2410 Exemplare, die ich untersucht habe, ein Problem. Verfärbungen, ja in unterschiedlicher Stärke und Ausprägung, aber keine eklaktanten Gleichmäßigkeitsprobleme.
    3. Der U2410 schafft den UGRA Test, wenn man das Servicemenü zum Weißpunktabgleich benutzt.

    Das mehr an Farben bei einem Verlauf, sollte doch erst ab wirklich großen Bildern und kleinen Abständen einen Unterschied ausmachen oder liege ich da falsch ?


    Du verwechselst "erweiterten Farbraum" mit "höherer Bittiefe". Bei einem erweiterten Farbraum geht es nicht um feinere Abstufungen zwischen Farben, sondern um die Darstellungen von grundsätzlich anderen Farben.


    Monitore mit erweiterten Farbräumen benutzen andere Primärfarben und können daher Farben anzeigen, die sRGB Monitore nicht darstellen können.


    Je nach Bild, ist der Unterschied alles andere als subtil. Das Rot im sRGB Farbraum, z.B., ist eher eine Art Orange und das Grün eher ein Gelbgrün. Das fällt erst richtig auf, wenn man das richtige Tiefrot oder das richtige Giftgrün im Vergleich sieht, dann aber richtig.


    Wenn Du Bilder nur für das Web bearbeitest, dann wäre ein sRGB Modell die bessere Wahl, weil Du Dir dann alle Probleme mit erweiterten Farbräumen ersparst. Für die ernsthafte Bildbearbeitung für eigene Ausdrucke oder zur Vorbereitung für einen Labordruck, denke ich dass es an einem Monitor mit erweitertem Farbraum keinen Weg vorbei gibt.


    Übrigens, ja der DELL U2410 lässt sich sehr hell einstellen. Die aufwendige Hintergrundbeleuchtung macht sich hier bezahlt. Lichthöfe sind mir keine aufgefallen. Ich vermute Du meinst damit ein leichtes Durchscheinen der Hintergrundbeleuchtung an den Bildrändern. Ich will nicht behaupten, dass alle U2410 in dieser Disziplin vorbildlich sind (ich weiß es nicht), kann aber sagen, dass mir so etwas an meinem Exemplar nie störend aufgefallen ist.

    Ich habe mich für einen DELL U2410 entschieden und bin mit dem Gerät sehr zufrieden.


    Einschränkungen:
    - Ich musste 3x tauschen bis ich ein Gerät ohne anstössige Farbstiche erhalten habe.
    - Das Gerät brummt je nach Helligkeitseinstellung gar nicht bis etwas störend. Leider ist dies wohl bei dieser Beleuchtungstechnik fast nicht zu vermeiden.
    - Kalibrierung mit einem ColorMunki erzeugt einen Grünstich. Dies liegt aber höchstwahrscheinlich am ColorMunki. Dieses Modell hat bekanntermaßen eine hohe Exemplarstreuung. Ich konnte den Fehler leicht per manueller Weißpunkteinstellung (Servicemenü) korrigieren.


    Das Bild ist ausgezeichnet und ich bin mit meiner Entscheidung sehr zufrieden.

    Nein. Der Grund liegt darin, dass die Spektralwertkurven des 2 Grad CIE-Normbetrachters kein 1:1 Matching gegenüber der Empfindlichkeit deines Sehsystems aufweisen (die Basis war seinerzeit auch nur eine geringe Anzahl an Probanden, vom eingeschränkten Sehfeld mal ganz abgesehen).


    Damit wirst Du wohl recht haben.


    Meine Aussage war auf der Annahme gegründet, dass ein Spektralfotometer grundsätzlich die Grundlage dafür bietet (möglichst) identische Spektren zu gewährleisten, statt einfach nur identische Tristimulus Werte (die auf einem Durchschnittsbeobachter basieren). Es leuchtet mir ein, dass in der Praxis auch Spektralfotometer auf der Basis von normierten Tristimuluswerten arbeiten und damit wieder eine Beobachterabhängigkeit eingeführt wird. Es ist ja auch unrealistisch zu erwarten, dass verschiedene Monitore (möglichst) identische Spektren erzeugen können.


    Damit unterscheidet sich "deine" Farbvalenz gegenüber der des Messgerätes.


    Akzeptiert, aber dies stellt m.E. die ganze Kalibrierungs- Profilierungsthematik in Frage. Solange nicht versucht wird möglichst identische Spektren zu erzielen, sondern nur relativ beliebige (der 2 Grad CIE-Normbetrachter, ist zwar besser als nichts, aber leider nicht ideal) Tristimulus-Zielwerte, die aber je nach Beobachter zu unterschiedlichen Eindrücken führen, bleibt der Wunsch nach standardisierten Betrachtungsbedingungen eine Illusion. Auch wenn der Wunsch nach identischen Spektren nicht praktikabel ist, so müsste man dennoch mehr Beobachterunabhängigkeit gewährleisten (z.B., durch mehr als nur drei Stützstellen).


    Hier wird aus meiner Sicht von den Herstellern i.d.R. zuviel versprochen.


    Es wäre ja verschmerzbar wenn ein paar Farbfelder im GretagMacbeth ColorChecker sich um Nuancen vom Zielzustand unterscheiden würden. Leider scheint der Stand der Technik davon jedoch weit entfernt zu sein und Kalibrierungshard- und Software produzieren fröhlich deutlich sichtbare, globale Farbstiche.



    Eizo bietet in Color Navigator als Comfortfeature für den Mehrbildschirmabgleich optional an, die spektralen Daten mit dem 10 Grad CIE-Normbetrachter auszuwerten. Das ergibt schon bessere, aber nicht zwangsweise ideale Ergebnisse.


    Dies bestätigt meine obigen Aussagen. Es ist doch befremdlich, dass "Mehrbildschirmabgleich" eine besondere Anwendungssituation darstellt. Es ist doch der Hauptzweck eines Monitorabgleichs vergleichbare Betrachtungsbedingungen bzgl. anderer Monitore herzustellen. Sicher gibt es auch den Anwendungsfall, dass man Ausdrucke richtig "voraussagen" möchte, aber letztendlich beruht auch dieser Anwendungsfall auf das Herstellen von standardisierten Betrachtungsbedingungen (plus Softproofing).


    Meine bisherigen Abgleichversuche haben ergeben, dass der Versuch mit dem ColorMunki auf D65 zu kalibrieren zu Farbstichen führt. Der ColorMunki produziert hier je nach Monitor / Projektor unterschiedliche Farbstiche. Deshalb sehe ich die Option "nativer Weißpunkt" als einzig gangbare Alternative an. Bleibt die Frage wie ich letzteren vernünftig voreinstelle. Sicher kann ich alle Betrachtungsgeräte visuell auf den gleichen Weißpunkt einstellen -- wie gesagt, dem ColorMunki kann ich nicht trauen -- aber woher weiß ich ob nun der gemeinsame Weißpunkt für den Rest der Menschheit zu warm, zu kalt, oder zuweit von der BB-Kurve entfernt ist?


    Ist es sinvoll einen Gretag Macbeth ColorChecker Passport unter Tageslicht (wolkenlos?!) zu betrachten und den Monitorweißpunkt so zu setzen, dass er dem Weiß des ColorCheckers entspricht?

    Werde daher gleich im richtigen Modus starten!


    Denke daran, dass der Adobe RGB Modus ggf. der bessere Ausgangspunkt zur Kalibrierung sein kann (da das native Gamma näher am Zielgamma von 2.2 liegt). Du kannst ja "Adobe RGB" und "Standard" probieren und sehen welcher Ausgangspunkt die besseren Ergebnisse (inkl. geringste Tonwertverluste) bringt.


    Ich bin übrigens mit meinem ColorMunki nicht 100% zufrieden. Der Munki hat mir immer wieder einen Grünstich einkalibriert. Ähnliches habe ich auch mit anderen Monitoren erlebt, nur waren es dann Rotstiche oder ähnlich. Pro Gerät ist der Farbstich ziemlich konsistent, aber ein farbstichfreien Weispunkt oder gar Vergleichbarkeit unter Geräten bekommt man so nicht hin.


    Meine bisherige Lösung: Nicht auf 65K kalibrieren, sondern auf einen nativen Weispunkt. Den letzteren am Gerät voreinstellen (beim U2410 geht das über das Servicemenü).


    Ggf. solltest Du auch die Nutzung der dispCal Software in Erwägung ziehen. Sie kann die Munki Hardware nutzen und erlaubt viel mehr Einstellungen. Mit ihr kannst Du auch den Weißpunkt vermessen. Diese Software zeigt auch die Tonwertverluste an, die beim Einsatz von Profilen entsteht (das gilt auch für Profile, die von der ColorMunki Software erzeugt werden).


    Es scheint allerdings so, dass wenn man konsistente Darstellungen von mehreren Monitoren erzielen möchte, dass dann eine Weißpunkteinstellung per Auge unumgänglich ist. Ein Grund hierfür ist Beobachtermetamerismus. Die Verwendung eines Spektralfotometers wie dem Munki sollte Metarismus eigentlich ausschliessen, aber ggf. hat diese Hardware wieder andere Probleme (z.B. zu schmalbandige Spektren von der Hintergrundbeleuchtung, die an die Auflösungsgrenze des Munki heranreichen?).


    Ursprünglich hatte ich mit einem höherwertigen IPS panel (U2410) und einem recht teurem Spektralfotometer wie dem ColorMunki annähernde Perfektion auf Knopfdruck erwartet. Das war wohl eine Illusion. Richte Dich auf etwas Handarbeit und "gut genug" statt "perfekt" ein. Mehr ist möglich, aber der Aufpreis für entsprechende NEC oder Eizo Geräte ist recht saftig.


    P.S.: Der U2410 hat seine Schwächen aber auch unbestreitbare Stärken. Ich hoffe Du wirst am Ende genauso froh mit Deiner Kaufentscheidung sein, wie ich es jetzt bin.

    Die Beschreibung von deltaC leuchtet mir nicht ein.


    Quote

    Das DeltaC gibt die Buntheitsdifferenz an und entspricht, bei unbunten Farben als Referenz, dem DeltaE ohne Helligkeitsanteil.


    DeltaE ist definiert als sqrt(delta-L^2 + delta-a^2 + delta-b^2).


    Bei unbunten Farben ist damit DeltaE = delta-L.
    Fiele jetzt noch der Helligkeitsanteil (L) weg, dann bliebe gar nichts mehr übrig.


    Ich vermute, dass die Formulierung der Beschreibung nur etwas unglücklich ist und die Intention ist, dass


    DeltaC = sqrt(delta-a^2 + delta-b^2).



    Kann ich dann ein Bild einer Digitalkamera in den Lab Farbraum konvertieren (z.B. mit GIMP) und über das Ermitteln von delta-a und delta-b, DeltaE selbst ausrechnen?
    Da es sich um deltas handelt, könnte sich eine Normalisierung der Kamera in erster Näherung erübrigen, oder?


    Oder ist die einfachste Methode zur Ermittlung von DeltaC Werten (so wie sie von euch angegeben werden) eine Sonde zu nehmen und entsprechende Software laufen zu lassen? Gibt es freie Sofware (z.B., Argyll), die deltaC Werte auspucken kann?


    Sollte ich mir einen Monitor zulegen, würde ich liebend gerne objektiv überprüfen können ob er im Rahmen der von euch ermittelten deltaC Werte liegt. Sicher muss man mit Serienstreuung rechnen und mit größeren Abweichungen rechnen, aber so könnte ich zumindest sehen ob ich subjektiv zu empfindlich bin (sehe Farbstiche bei einer Homogenität, die von euch als "gut" klassifiziert wird) oder ob das Gerät ein Ausreißer ist (deltaC Werte >5).


    Über Informationen zum Reproduzieren der ermittelten deltaC Werte würde ich mich sehr freuen.

    Mein vorheriger Beitrag hätte so aussehen sollen (der Versuch ein Mobilgerät zu benutzen ging schief :)):


    Eine Angabe der Farbtemperatur hilft nicht weiter, weil zwei Farbproben mit gleicher CCT völlig unterschiedlich sein können.


    Deshalb sprach ich auch von Farbtemperatur und Tint Paaren. Solche Paare sollten "a" und "b" aus dem Lab Farbraum recht ähnlich sein. Ich akzeptiere die Angemessenheit von DeltaC Angaben sofort, aber sie geben nicht die Driftrichtung an und ich könnte mir vorstellen dass noch viele andere die Signifikanz der Werte nicht einordnen können. Vielleicht bedeutet der "gut" Bereich für mich schon "unakzeptabel"? Eine Ligtroom basierte Farbdifferenzangabe könnte ich selbst überprüfen.


    Herzlichen Dank für die sehr hilfreichen Kommentare zu TV Geräten.

    [quote]Eine Angabe der Farbtemperatur hilft nicht weiter, weil zwei Farbproben mit gleicher CCT völlig unterschiedlich sein können.


    Deshalb sprach ich auch von Farbtemperatur und Tint Paaren. Solche Paare sollten "a" und "b" aus dem Lab Farbraum recht ähnlich sein. Ich akzeptiere die Angemessenheit von DeltaC Angaben sofort, aber sie geben nicht die Driftrichtung an und ich könnte mir vorstellen dass noch viele andere die Signifikanz der Werte nicht einordnen können. Vielleicht bedeutet der "gut" Bereich für mich schon "unakzeptabel"? Eine Ligtroom basierte Farbdifferenzangabe könnte ich selbst überprüfen.


    Herzlichen Dank für die sehr hilfreichen Kommentare zu TV Geräten.

    Man ist heutzutage nur sehr verwöhnt, weil es große Diagonalen zu extrem niedrigen Preisen gibt.


    Richtig. Was ist eigentlich mit der Idee einen Full-HD Fernseher als Monitor zu benutzen? Einige Modelle sollten doch 1:1 (d.h., kein Overscan) und PC Anschlüsse unterstützen. Ist die Panelqualität bei den Fernsehern noch schlechter?



    Die ersten beiden Geräte haben zwar einen erweiterten Farbraum, leisten sich aber elektronikseitig den ein oder anderen Fauxpas (z.B. den nichtlinearen Custom Color Modus).


    Den "Custom" Modus kann ich doch einfach ignorieren. Einen Monitor in dieser Preisklasse würde ich immer kalibrieren und dazu kann man doch "Standard" oder "AdobeRBG" nutzen. Auch letzterer Modus (wegen Gamma ~2.2 dem "Standard" Modus vorzuziehen) sollte (fast?) alle(?) Farben verfügbar machen, bzw. die Farbraumtransformation sollte wegen der internen 12-bit Verarbeitung kaum Tonwerte kosten. (Ich habe im Dell U2410 Testthread eine entsprechende Frage gestellt).



    Gleichzeitig sind sie OSD seitig recht eingeschränkt, was besonders im Rahmen der Kalibration für den ambitionierteren Benutzer schon ein gewisses Problem darstellt.


    Eigentlich fehlt doch nur eine vernünftige Gamma Einstellmöglichkeit, oder?
    Der Weißpunkt kann auch bei den fixen Presets per service menu eingestellt werden.
    Die Wahl von AdobeRGB bringt sogar fast Gamma 2.2 und selbst beim Gamma 1.8 des "Standard" Modus liefert die Kalibrierung annehmbare Ergebnisse. Natürlich geht es besser, aber leider halt nur gegen deutlich mehr Geld.


    Wenn die partielle Farbstichproblematik nicht wäre, hätte ich gegen die günstigeren 24" H-IPS Modelle nichts einzuwenden.



    Funktionen zum Flächenhomogenitätsabgleich sind sinnvoll. Die Ergebnisse siehst du ja in den Berichten.


    Leider finde ich es nicht einfach deltaC Werte zu deuten. Es wäre aus meiner Sicht sehr nützlich wenn die Abweichungen als "Farbtemperatur/Tint" Differenzpaare angegeben werden würden. Dann könnte man auch sehen in welche Richtung die Farbverschiebung stattfindet (Gelb/Blau ist nicht so schnell anstößig wie Grün/Magenta). Statt L(*)a(*)b(*) Werten wäre ein Angabe in den Einheiten, die von z.B., Lightroom benutzt werden sehr bequem. So könnte man eigene Messungen (per Digitalkamera und WB-Pipette) leicht mit den PRADA Messungen vergleichen.



    Natürlich gibt es da eine gewisse Serienstreuung, aber generell kann man schon sagen, dass die aktuellen LG IPS-Panels da out of the box nicht unbedingt eine große Stärke haben. Das muss nicht jeden Nutzer stören und ist, wie angedeutet, auch nicht immer in gleichem Umfang ausgeprägt.


    Heisst "nicht unbedingt große Stärke" dass Farbstiche bei Office Anwendungen (Große Weiß- und Grauflächen über den ganzen Bildschirm verteilt) negativ auffallen? Ich habe hierzu einen entsprechenden Thread gestartet.



    In diesem Fall würde ich mir stark überlegen, in Richtung 16:9 zu gehen. Der Eizo EV2333 (FS2331) böte sich an. Sehr neutral ab Werk, umfangreiches OSD, Farbumfang ziemlich passgenau in Bezug auf sRGB. Oder der NEC P241W. Hat viele Eigenschaften des PA241W, allerdings auch keinen erweiterten Farbraum. Eine weitere Alternative wäre der Eizo SX2262. Zwar 2 Zoll kleiner, dafür aber in guter Tradition bisheriger SX-Modelle und mit erweitertem Farbraum.


    Herzlichen Dank für diese Tips und auch die anderen Informationen!
    Ich werde mir die empfohlenen Monitore gleich mal näher anschauen.

    Der getestete U2410 hatte übrigens eine sehr vernünftige Bildhomogenität, besonders unter Berücksichtigung des Umstandes, dass kein Flächenhomogenitätsabgleich implementiert war.


    Heisst "sehr vernünftig", dass man auch bei realistischer Helligkeitseinstellung (z.B., 130 cd/m^2) und dunkleren Grauwerten (z.B., 25%) keine großflächigen Farbstiche erkennen kann?


    Meinen ersten Eindrücken nach können die Farbstiche bei größerer Helligkeit und vollweißem Bildinhalt visuell etwas maskiert werden. Wenn man weiß wo man wie hinzusehen hat, sind sie immer noch leicht da, aber meiner Erfahrung nach bei dunkleren Grautönen leichter auszumachen.


    Ich frage mich ob man bei einem Gerät ohne Flächenhomogenitätsabgleich die Abwesenheit von störenden (großflächigen, partiellen) Farbstichen einfach nicht erwarten darf.


    Allerdings kommst du hier in einen recht breiten Bereich der Serienstreuung, gerade bei den aktuellen LG IPS-Panels.


    Ja, leider. Schade, dass man sich geringere Toleranzen nicht gegen Aufpreis erkaufen kann. Damit meine ich einen Aufpreis, der nicht gleich zum Preis eines NEC PA241W führt.


    Für die Flächenhomogenität muss man schon ein paar Abstriche hinnehmen.




    Besten Dank für die Info und den Link. Leider kann ich die deltaC Werte immer noch noch nicht einordnen. Wenn ich z.B., in Lightroom eine Farbtemperaturdifferenz (Gelb/Blau) von 150 sehe und eine Tintdifferenz (Grün/Magenta) von 10, welchem deltaC entspricht dies? Mit einem Verweis auf die entsprechenden Grundlagen kann ich mir die exakten Formeln gerne selbst erarbeiten (wobei die Lightroom Werte wahrscheinlich schwierig zu interpretieren sind. Ggf. basieren sie auf "MelissaRGB").

    Ich habe den Asus P246Q und kann das Teil nicht empfehlen , er geht heute wieder zurück und ich muss wieder überlegen was ich mache.


    Was war denn das Problem?
    Partielle Farbstiche?



    Es kann doch einfach nicht sein , das es keinen Monitor 24" bis 600 Euro gibt , der 16:10 1900x1200 darstellt und einen sehr guten sRGB Modus hat , gut einstellbar ist und einem nicht die Hornhaut wegpruzellt wegen schlechten Weißpunkt .


    Nun ja, könnte im Prinzip schon sein.


    Was aus meiner Sicht nicht sein kann, ist dass man Monitore, die schlechtere Leistung bieten (partielle Farbstiche bei vielen 24" H-IPS Monitoren) für mehr Geld (im Vergleich zu günstigeren TN Panels) verkaufen kann. Gibt es die Farbstich-freien Exemplare? Sehen soviele Leute die Farbstiche nicht? Oder welche andere Erklärung gibt es dafür, dass sich Dell U2410 & Co anscheinend immer noch sehr gut verkaufen?