Beiträge von derGhostrider

    Da ich den DELL nicht kenne, kann ich dazu keine exakten Angaben machen.


    Kurz und knapp: Ohne hardwareseitige sRGB-Kalibration eigentlich auch kein sRGB-Farbraum.
    Ob und in wie fern die Voreinstellung des sRGB-Modus nun "exakt" sRGB abdeckt, kann man auf Seite 11 erahnen in der Grafik:
    Vergleich der Werkseinstellungen "sRGB" zum sRGB-Standard.


    Auf den ersten Blick sieht das Schlimm aus, aber auf Seite 12:
    Softwarebasierte Kalibration auf sRGB im Vergleich zum sRGB Standard
    sieht man, daß ohne sRGB-Modus die Abweichungen noch deutlich größer ausfallen. Ergo: Bereits ab Wert sind dort sRGB-emulierende Werte voreingestellt, wenn auch nicht vollständig. Also bitte nicht denken, daß damit eine perfekte sRGB-Wiedergabe erreicht würde.


    Hierzu auch ein Auszug aus dem Handbuch zur Software:

    Zitat

    The Factory Preset white point is used on the following models: LCD2690WUXi, LCD3090WQXi and P221W. It is not possible to adjust the white point of the sRGB Emulation mode on these models. The calibration will only adjust the Intensity and generate an ICC/ColorSync profile of the display on these models. The resulting Delta-E values may be higher than normal because the white point is not adjusted using the calibration sensor.


    Also selbst bei einer hardwareseitigen Kalibration zur sRGB-Emulation muß man zusätzlich noch ein Farbprofil anwenden, damit etwas sinnvolles als Endergebnis erreicht wird.
    Die Emulation ist noch recht rudimentär, hilft aber schonmal, falls nur "grelle" Farben stören.

    @Tiefflieger:
    Meine Aufgabe ist es einen möglichst objektiven Bericht abzuliefern und eben nicht meine persönliche Meinung in den Vordergrund zu schieben.


    Hier im Forum weiche ich schon davon ab. (Siehe meinen Kommentar zum Input Lag) Dennoch: Ich bereite seit Wochen einen Test für die präzise Untersuchung des Input Lags vor. Das ist ein enormer Aufwand für etwas, was mich eigentlich kaum bei einem Monitor interessiert. Dennoch fand und finde ich es angemessen die bisherigen Testverfahren zu hinterfragen und eventuell zu verbessern. Dann ist zumindest die Ermittlung dieses Wertes verlässlicher für diejenigen, die es tatsächlich interessiert.


    Es wurden hier schon Bewertungen von mir über den Haufen geworfen, da ich etwas zu drastisch zu Werke gegangen bin. Ich hatte da einen Testkandidaten, dem ich ein "mangelhaft" aufgedrückt habe. Meiner Ansicht nach vollkommen gerechtfertigt - aber anscheinend nicht die Meinung aller Menschen auf diesem Planeten. So bekam der Monitor "Ausreichend". Ein Problem an der Sache war, daß die Übersicht der Teilnoten am Anfang des Tests nicht alle mangelhaften Bereiche abdeckt. Da stand dann auch ein paar mal "gut" oder "zufriedenstellend" und dann fragt sich jemand natürlich: "Wie kann bei verhältnismäßig vielen guten Noten dann eine solche Note entstehen?"


    -


    Es gibt, das kann ich einfach mal so behaupten, einen Monitor mit 24", der auch ungefähr soviel kostet wie der NEC, der m.E. ein besseres Bild liefert. Von mir getestet und dementsprechend bewertet. Den würde ich persönlich bevorzugen. Dabei spielt es für mich überhaupt keine Rolle, ob derjenige für Spiele oder Videos schlechter geeignet wäre, da mich das halt prinzipiell nicht interessiert.
    Ich mag NEC durchaus - habe ja selber einen. ;) Aber von einem hardwarekalibrierbaren Gerät hätte ich etwas mehr erwartet.
    Der Vergleich ist aber auch wiederum unfair: Mein hier stehdender NEC kostet mehr als das doppelte und hat z.B. 12bit LUTs und nicht "nur" 10bit. Daher ist mein subjektiver Eindruck verfälscht.


    Wieso sollte ich nun meine Meinung zu dem Monitor, der schon allein durch seine Größe nicht meinen Wünschen entspricht, hier als allgemeingültig hinstellen? Andere empfinden 22" schon als sehr groß und wunderbar.
    Ich habe hier einen Testmonitor (Testbericht bereits abgegeben), der zwar 24" groß ist, aber das - aus meiner Sicht für PC-Monitore - total sinnfreie Format 16:9 hat.
    Wenn ich die Wahl hätte, dann würde ich ja sogar einen Monitor mit 1920 Bildpunkten in der Breite im 4:3-Format jedem Monitor im 16:10 Format bevorzugen!


    Die Umstellung auf 16:9 wurde irgendwo, als der Trend gerade einsetzte, mal nett erklärt: durch die Umstellung der Produzenten auf größere Glasplatten bei der Herstellung, können mehr Scheiben im 16:9-Format geschnitten werden, als im 16:10-Format.
    Mit anderen Worten: Die Hersteller diktieren das Displayformat aufgrund ihrer Yield-Raten. Hilfreich ist dabei natürlich, daß Videos 16:9 Format haben. Aber wen interessiert das schon auf einem reinen PC-Bildschirm?
    Wer Office-Tätigkeiten ausführt, vom Briefeschreiben und wissenschaftliche Paper verfassen/Lesen über Excel und Buchhaltungssoftware bis hin zur Programmierung, braucht zwar viel Platz, aber doch nicht nur einen "Sehschlitz". Was kommt als nächstes? Cinemascope? Und bei jedem PDF muß man sich dann in Zukunft wieder die Finger blutig scrollen, da die Horizontale Auflösung zu niedrig ist...


    Ich sehe diese ganze Entwicklung SEHR skeptisch und hätte mir einen großen 4:3 gewünscht. Auch heute würde ich es nicht verwunderlich finden, wenn z.B. 2048x1536 oder eben auch 1920x1440 (also 4:3, was schon auf CRTs funktionierte) für viele Grafiker, CAD-Spezis und andere anspruchsvolle Anwender vorteilhafter wäre, als immer breiter werdende Monitore.


    Kann ich deswegen nun in Testberichten jeden Breitbild-Monitor runterputzen und sagen: "So ein schrott würde ich mir nie kaufen!"
    Was ist mit all den TN-Geräten? Ich bekomme da fast jedes mal die Kriese, wenn man bei jedem Atemzug andere Helligkeitswerte wahrnimmt. Soetwas würde ich mir tatsächlich nie kaufen. Ja und? Meine Aufgabe ist es aber die Schwächen sachlich zu benennen, darauf hinzuweisen und die Entscheidung dem Leser von PRAD zu überlassen.



    So auch bei diesem Monitor. Schwächen wurden benannt und sogar hier im Forum erneut diskutiert. Ich bin nicht die Instanz, die jemandem in die Kaufentscheidung reinredet. Wenn, dann versuche ich den Leuten lieber die Möglichkeiten aufzuzeigen, sowie die Vor- und Nachteile.


    Wenn jemand unbedingt den super-schnellen-Spiele-Monitor haben will und dafür auf Farbkorrektheit, Blickwinkelstabilität, gleichmäßige Ausleuchtung, homogenität verzichtet: Bitte - sein Geld, seine Entscheidung, sein Monitor.
    Für mich persönlich undenkbar.


    Aber für mich sind (inzwischen) halt auch Monitore unterhalb von 24" ungeeignet. Bereits zu Zeiten von DOOM hatte ich einen 20" CRT. Der Umstieg von 14" auf 20" war zu der Zeit der reine Wahnsinn und auch erstmal SEHR enttäuschend. Stell Dir 320x200 auf 20" vor, dann weißt Du warum. Jeder Pixel in Spielen sah so groß aus wie ein Ziegelstein. :( Aber die Auflösungen wurden höher und der Monitor wurde damit sozusagen immer besser. Der nächste CRT hatte 21", der nächste 22". Letzterer wurde durch den 26" NEC ersetzt.
    Wie man sieht, bin ich große Monitore mit, absolut betrachtet, hohen Auflösungen seit bestimmt 15 Jahren oder mehr gewöhnt. Kann oder soll ich das nun auf andere übertragen?


    Das steht mir irgendwie nicht so recht zu.




    P.S.: Der tatsächliche Test hat nur etwas länger gedauert als andere Tests. Der Monitor war so lange bei mir, da ich wegen Prüfungsvorbereitungen kaum/keine Zeit hatte.


    =======================================


    @SailorMoon:
    Danke für Deinen Input zum Thema. Das mit der "sRGB-Unterstützung im Gerät" erhoffe ich auch seit langem. Deswegen habe ich vor längerer Zeit mal versucht den HP LP2480zx zu testen. LED-Backlight und eben laut Hersteller speziell und unabhängig auf unterschiedliche Farbräume zu kalibrieren. Der Test scheiterte daran, daß die, die für die Teststellung verantwortlich waren, es nicht auf die Reihe bekommen haben die "Kalibrationsoption" mit dem Gerät zu schicken.
    Da kamen unglaubliche Aussagen wie: "Die Werkseinstellungen sollten für 90% der User ausreichen." Und es wurde noch präzisiert, als ich den Einwand hatte, daß wir etwas höhere Ansprüche stellen als 90% der durchschnittlichen User im sinne von: "Es sollte für 90% der professionellen Grafiker ausreichen."
    Kurzum: Die Werkseinstellungen waren daneben. DEUTLICH daneben. (Beispiel: sRGB-Weißpunkt = 7600K, 8,8 deltaE) Und ohne Kalibrationsoption ließ sich der 2480zx m.E. schlechter manuell kalibrieren als der 2475w, der nur 1/5 des Preises kostete.


    Das war der erste, der getrennte Farbräume "emulieren" bzw. angeblich sogar korrekt darstellen können sollte. Nachweisen konnte ich es mit den mir zur Verfügung stehenden Mitteln nicht.


    Aber da ich die sRGB-Wiedergabe eben auch "auf Knopfdruck" interessant und wichtig finde, habe ich es beim P221w so ausführlich ausprobiert und durchgeführt.


    Ich fänd' es natürlich nur sinnvoll, wenn Monitorhersteller mit high-end Monitoren, die die Möglichkeit von Hardwarekalibrierungen und große LUTs aufweisen, diese auch mal dafür nutzen würden.
    Bei NEC ist es ja nun teilweise noch eine Mischung aus Hardware- und Softwarekalibration. In den Details steht dann ja noch, bei welchen Monitoren das wie weit umgesetzt wird.


    Hoffentlich bleiben die Monitorhersteller an dem Thema und verbessern die Umsetzung, ohne wieder andere Fähigkeiten zu verlieren (Wie z.B. saubere Interpolation und Skalierung)


    Ich sollte aufhören so spät Forenbeiträge zu schreiben - dadurch fehlt mir IMMER Schlaf. zzzZZZzzz :sleeping:

    puuuh... Ich meine, daß es auch in einem "normalen" Modus, also ohne Beschränkung des Farbraums bzw. zumindest sRGB-Modus ohne Farbprofil, der Fall war.


    Inzwischen ist schon etwas Zeit vergangen und ich habe noch einen weiteren Monitor getestet - nicht, daß ich da nun zuviel durcheinander schmeiße.




    Seite 9 ganz unten:

    Zitat

    Es ist deutlich zu sehen, dass der Farbraum drastisch geschrumpft ist. Die Übereinstimmung zum tatsächlichen sRGB-Farbraum ist besser, wodurch die Darstellungen von sRGB-Fotos auch mit Anwendungen, die nicht mit Farbprofilen umgehen können, auf diesem Monitor realistischer aussehen werden. Dies gilt natürlich auch für sonstige Farben wie den Icons von Programmen, Videos, Filmen und Spielen.


    OK, die "neutrale" Farbwiedergabe ist also primär so zu verstehen, daß....
    ... im sRGB-Modus alles soweit klar ist
    ... bei einer normalen Kalibration z.B. Hauttöne überwiegend neutral und nicht übertrieben rötlich hervorstechen, aber dennoch die Abweichungen bei den Extremwerten (vor allem Rot und Grün) vorhanden sind.
    Die Unterschiede sind teilweise natürlich auch eine Frage des Geschmacks. Ich habe schon Fernseher (ohne erweiterten Farbraum) mit einer so hohen Sättigung gesehen, daß jeder anständig eingestellte Wide-Gamut-TFT blass aussieht. ;)
    BTW: Gibt's inzwischen mal TV-Anwendungen / Mediaplayer, die das Farbprofil berücksichtigen? Ansonsten bleibt noch eine einfache Hilfemaßnahme: In den erweiterten Einstellungen des jeweiligen Players die Sättigung ein ganz kleines bisschen Reduzieren. Das ist vielleicht nicht die perfekte Lösung, aber einfach Umsetzbar. Zudem ist das Betrachten von Filmmaterial einfach nicht wirklich farbkritisch. Da kann man sich schonmal so behelfen.

    Wenn der Test aber nur gegen das Profil testet und nicht gegen die UGRA-Vorgaben, dann ist das Ergebnis wesentlich weniger Aussagekräftig, als es eigentlich sein sollte.


    Denk nur an die normalen Kalibrationen. Wenn man dort einen Profiltest durchführt und gegen das hinterlegte Profil testet, sind die Aussagen ja auch... nunja... "schwach". Ohne genau zu wissen, wie der UDACT nun im Detail abläuft, kann ich nicht einfach davon ausgehen, daß schon alles irgendwie hinkommen wird.


    Irgendwie verstricke ich mich da gerade beim Durchspielen der Möglichkeiten zu sehr. Wenn der Test doch nach einer Kalibration auf Gamma ~2,2, 6500K, beliebige Helligkeit durchgeführt wird und von mir aus auch ein "bestanden" raushaut, dann hat das doch nichts mehr damit zu tun, ob die UGRA-Vorgaben (anderer Weißpunkt, anderes Gamma, andere Helligkeit) ebenfalls umgesetzt werden können. Und vorstellen, daß bei der Umrechnung innerhalb der 8bit LUTs von Gamma 2,2 auf 1,8 immernoch genügend Graustufen übrigbleiben würden, kann ich mir auch nicht. Immerhin ist der ECI-Farbraum auch ein Teil des Tests - wenn auch nicht explizit für die Graustufen.


    Ich nehme auf jeden Fall großen Abstand davon soetwas zu empfehlen.

    Für die Hardwarekalibration ist die Spectraview Profiler 4 (umgelabelte BasICColor Software) erforderlich. Andere Kalibrationsprogramme können die NEC-Monitore nicht hardwareseitig kalibrieren und führen somit ausschließlich Softwarekalibrationen, wie bei jedem anderen Monitor auch, durch.


    Alternativ wäre nur die "Spectraview II" Software möglich, die es ausschließlich für US-Bürger in den USA zu kaufen gibt.

    Mahlzeit!


    Zwei Fliegen mit einer Klappe:
    Ja, ich besitze den 2690WUXi noch immer.


    In dem von Dir zitierten Beitrag zur Kalibration des 2890WUXi² steht als vorletzter Beitrag das Gegenteil: Der Monitor hat den Test bestanden.


    Um es nochmal klar zu sagen: Wenn man den Monitor auf etwas anderes kalibriert als das, was überprüft wird, dann ist es kein Wunder, daß große Abweichungen auftreten.
    Das war ein klassischer Benutzerfehler.

    Mahlzeit!


    Nun mische ich mich auch mal ein:
    Wer kam denn bitte auf die Idee eine UGRA-Zertifizierung bei einer Kalibration des Gerätes auf 6500K durchzuführen und sich dann zu wundern, daß der Test nicht bestanden wird?


    Bei einer falschen Kalibration ist es kein Wunder, daß der Monitor durchfällt! -> Falscher Gammawert = falsche Grautöne. Falscher Weißpunkt = farbliche Abweichungen vom Sollwert in Grautönen und für Weiß.


    Die UGRA-Vorgaben sind eindeutig. Jede Kalibration, die davon abweicht, kann nicht mit dem UGRA-Test bewertet werden.



    Das Ergebnis im vorherigen Beitrag ist für eine Manuelle Kalibration doch hervorragend! Fast 98% der Grauwerte konnten gemessen werden und die Farbräume werden super abgedeckt. Da gibt es nichts dran auszusetzen!


    Bezüglich der Betriebsgeräusche: Wenn das nun genau so als Hype anfängt, wie beim 2690WUXi, na dann gute Nacht. Die meisten Monitore geben Betriebsgeräusche ab. Es mag sein, daß wenige Geräte überdurchschnittlich laut sind, aber normalerweise ist ein leises Brummen kein Argument gegen einen Monitor. Rechner sind auch nicht lautlos und selbst Atmen und die Tastatur verwenden verursacht Geräusche. Ganz zu schweigen von Lüftern in PCs, einer Festplatte, etc.
    CRTs brummen auch, wenn man mal genau hinhört. Ich habe über 17 Jahre Erfahrung mit CRTs vorzuweisen, daher bin ich mir bei der Aussage sicher. Die waren nie leiser als TFTs, aber bei TFTs wird nun deswegen ein unglaublicher Aufstand geprobt - meistens übertrieben.


    nachthell:
    Ist die Einstellung "Black Level" auf der Werksvorgabe? Wenn nicht, dann würde ich glatt vorschlagen die zurück auf den Normwert zu stellen und dann nochmals die Kalibration auszuführen. Eventuell schaffst Du es dann sogar eine noch bessere Abdeckung der Graustufen, da ich bei dieser Einstellung ehrlich gesagt keine Ahnung habe, wie sie exakt umgesetzt wird. Nicht, daß Dir dadurch ein paar der tiefsten Graustufen weggebügelt werden.



    Zur Tiefe der Geräte:
    Wo ist denn bitte der Nachteil? Der Standfuß ist ausgesprochen stabil. Wer sich einen solchen Monitor auf einem kleinen Schreibtisch aufstellt, der hat vorher einfach nicht nachgedacht. Das muß ich einfach mal so direkt sagen. Meine 21" und 22" CRTs verbrauchen definitiv mehr Platz in der Tiefe und bieten ein deutlich kleineres und schlechteres Bild als mein 2690WUXi.


    Zudem sollte man nicht vergessen, daß der 2690WUXi² wohl auch hardwarekalibrierbar sein sollte. Nur durch eine Hardwarekalibration werden die großen LUTs wirklich vollständig ausgenutzt. Für sonstige Anpassungen greift nunmal jede Kalibrationssoftware auf die 8bit LUTs der Grakas zu und was dann mit den Graustufen passiert, ist fast unabhängig vom Monitor und kann diesem nicht direkt angelastet werden.

    Zitat

    Hierzu möchte ich anmerken, dass der P221W nicht wie im Artikel beschrieben eine Reaktionszeit von 8ms (grey-to-grey) hat, sondern laut der der deutschen NEC-Homepage 6ms (grey-to-grey).


    (Specifications anklicken) -> 8ms G-t-G / 16ms
    -> 16ms


    Deutsch:
    -> 16ms


    Pressemitteilung, bei der es ungeschickt formuliert und nach einem Tipp- / Rundungsfehler aussieht:

    Vor der Detailangabe "7 weiß / schwarz; 9 schwarz / weiß" wird ohne genauere Bezeichnung "6" angegeben.


    -> 6 G-t-G, sonst 16: 7 w/s, 9 s/w.



    Die Angaben schwanken also je nach Quelle. In diesem Fall habe ich mich für das englische Datenblatt entschieden. Irgendwo hatte ich noch 8ms GTG gefunden... hab' das nun aber nicht parat.
    Es kann gut sein, daß Du mit der Anmerkung recht hast. Vielleicht stimmen also 6ms für GTG-Wechsel, das verändert am Test und dessen Ergebnis jedoch nichts. ;)


    So oder so sind diese Angaben als idealwerte zu verstehen und sagen nicht viel über die tatsächliche Schaltgeschwindigkeit aus.
    Dazu verweise ich mal auf einen Testbericht von Tomshardware:

    In dem Graphen ist zu erkennen, was zu erwarten ist, wenn das Display eine angebliche Reaktionszeit von "8ms" hat. Mit Glück erreicht man diesen Wert dann für eine bestimmte Extremsituation.
    Angaben für GTG-Farbwechsel sind noch schlimmer, da die wohl nirgends genormt sind. "Von einem Grau zu einem anderen Grau" kann eben viel bedeuten und genau so vielschichtig wird es wohl auch verwendet.


    Nunja, es gibt genügend Spieler, die sich schon bei dieser Wertung zu gern beschweren würden. Die Kombination aus Schwächen in der Interpolation und dem Inputlag gibt hier wohl den Ausschlag.


    Input Lag ist mir persönlich bei einem Monitor z.B. herzlich unwichtig, berücksichtigen muß ich es im Test natürlich trotzdem und mache es ja auch. Mein eigener NEC hat auch ~32ms Input Lag. Assassins Creed war darauf aber herrlich zu spielen, ebenso alle Teile von C&C, sowie Autorennen und auch taktische Shooter. Da ich selbst sehr spät auf TFTs gewechselt bin und zuvor 21" und 22" high-end CRTs gewöhnt war, kann ich auch die Aufregung bzgl Inputlag nicht so ganz nachvollziehen. Vor allem, wenn man die Einstellungen mancher Leute in den Grakatreibern bedenkt, die wesentlich längere Verzögerungen bewirken. (Prerendering: 3 Frames, VSync, Tripplebuffering) Da kommen auch mal 50ms und mehr zusammen.
    Achja: Bei VSync kann es hilfreich sein, wenn Du Tripple-Buffering aktivierst. Probier es einfach mal aus. Erklärung steht in nvidia-Grakatreibern sogar dabei. ;)


    Freut mich, daß Dir der Monitor soweit gefällt.

    Hallo,


    erst mal Danke für den Test @der Ghostrider :thumbup:


    Ich bin neu in diesem Forum, lese aber schon ein gutes halbes Jahr im stillen mit.
    Da mein 19Zoll CRT den Geist aufgegeben hat und ich seit dem einen *hust* 15Zoll WhiteLabel TFT benutze. Versuche ich seit eben diesem halben Jahr einen für mich geeigneten TFT zu finden.


    *g* Verschlechtern wirst Du Dich wohl kaum - allein durch die Auflösung...


    Zitat

    1. Frage: Ist das Banding für einen Hobby/Amateur Fotografen in der SW- und Low-, HighKey-Fotografie möglicherweise störend ? Kann man dieses Banding in einem Bild bitte einmal sehen ?


    Vorab: Bin kein Fotograf und kenne mich mit diesen Fachbereichen auch nicht aus, als daß ich Dir da Fachlich richtige Antworten geben könnte, da ich die speziellen Anforderungen nicht kenne.
    Es ist ja durchaus möglich eine perfekte Wiedergabe der Grauabstufungen zu erreichen, wie im Test beschrieben, indem der Originalfarbmodus gewählt wird. Bei Schwarz/Weiß-Bildern ist eine eventuelle leichte Abweichung des Weißpunktes vielleicht nicht gravierend und wäre somit eine einfache Alternative. Dabei gehe ich davon aus, daß für S/W-Bilder Kontraste und korrekte Abstufungen für feine Details wichtiger sind.



    Ein Foto vom Banding ist im Test nicht enthalten, da diese minimalen Farbabweichungen fast überhaupt nicht festzuhalten sind.
    Als Beispiel kommen nun zwei Bilder, die nicht im Test verwendet wurden.
    Das Problem sind die "Interferenzen". Ist man zuweit entfernt, dann ist das Bild nicht detailreich genug, um die Abstufungen aufzulösen. Ist man "zu nah" dran, dann ist die Kamera derartig hochauflösend, daß man die einzelnen Subpixel erkennen kann.
    Auch schon bevor die Subpixel deutlich sichtbar sind, ergeben sich Moiré-Effekte, die zu Farbverfälschungen führen, die nicht in der Realität vorhanden sind.


    Ein neutrales Bild, welches das zeigt, was gezeigt werden soll UND die Farben neutral wiedergibt, ist extrem schwierig zu erstellen.


    Am besten Selber schauen! Achtung, die Bilder sind Teilweise groß, obwohl es bereits nur Ausschnitte der Originale sind. Im Hintergrund ist ein Graukeil. Die Bilder sind nicht ohne grund nicht im Test verwendet worden, also bitte nicht wegen der Qualität und teilweise fehlenden Schärfe beschweren. ;)
    Bild 1, Ausschnitt in Originalgröße:
    -> 1,7MB
    Bild 1, gleicher Ausschnitt, Gauß'scher Weichzeichner, auf 20% runtergerechnet. Hier sieht man die einzelnen Stufen im Keil besser, die Einfärbungen haben aber nichts / nicht viel mit der tatsächlichen Darstellung zu tun.
    -> 38kB
    Bild 2, Ausschnitt in Originalgröße:
    -> 2,1MB


    Was die Bilder vor allem zeigen sollen: Die Graustufen, sofern überhaupt sichtbar, sind auf beiden Bildern unterschiedlich wiedergegeben.
    Für einen Testbericht ist eine Beschreibung besser als ein falsches Foto!


    Also bitte auch die oben verlinkten Fotos NICHT als ausschlaggebende Quelle zur Beurteilung der Darstellungsqualität verwenden!


    Zitat

    2. Frage: Es wurde bei der Interpolation davon geredet das die Firmeware des TFT evtl fehlerhaft sei... kann man eine Firmeware auch bei TFT's updaten und wird das vom Hersteller unterstützt mit den üblichen Garantien/Klauseln ? (bei meiner EOS mache ich auch Updates der Firmeware auch mit dem Canon-Hionweis "auf eigene Verantwortung"
    Wenn das möglich wäre, könnte man ja evtl für die Zukunft auf das eine oder andere verbesserte Firmewareupdate hoffen ?


    Firmwareupdates bei Monitoren sind sehr selten. Darauf würde ich nicht setzen. Benutze den Monitor in der "Vollbildeinstellung" bei der nativen Auflösung und das Bild ist ideal. Das ist vermutlich der beste Rat.
    Ich [k]vermute[/k], daß es ein Firmware-Bug ist, da die Interpolation nunmal im 1:1-Modus merkwürdig unscharf bei den gezeigten extremen farblichen Kontrasten ausfällt, im Vollbild-Modus jedoch nicht. (Nicht nur beim Testgerät, auch in Forenbeiträgen von Usern ist das Verhalten so aufgetreten.) Also keine generellen Hardwareprobleme, sondern eine merkwürdige Umsetzung, die per Tastendruck erzeugt wird. Ergo: Dahinter steckt Software, nicht Hardware. Ansonsten wäre das Display immer unscharf.
    Es gab schonmal Monitore, bei denen die Firmware erneuert wurde, wofür dann erforderlich war, daß man den Monitor zum Hersteller einschickte.
    Nunja, 1680er Auflösungen sind keine Herausforderungen für halbwegs aktuelle Grafikkarten. So oft muß man dann zum Glück ja nicht umschalten.


    Zitat

    3. Frage: sieht man das Nachziehen in den Graustufen bei Filmen bzw. Spielen ?
    Wenn ja... bei welchen Filmen und Spielen wurde das bemerkt ?


    In den Filmen, die für den Test betrachtet wurden, habe ich es nicht bemerkt.


    Zitat

    Ich zitiere ab jetzt einmal aus dem Test...


    >Die Kalibration ist auch manuell sehr gut durchführbar und liefert für die Farbräume AdobeRGB und ECI 2.0 wunderbare Ergebnisse, die kaum einen Wunsch offen lassen. Wer das berühmte Tüpfelchen auf dem i verlangt, also die Möglichkeit den UGRA-Test zu bestehen, der kommt allerdings nicht um die hardwareseitige Kalibration herum.
    4. Frage: Mir würde eine manuelle Kalibrierung denke ich reichen, aber was wird dazu benötigt ? Reichen hier Testbilder und Augenmaß ? Was würdest Du mir zu einer manuellen Kalibrierung empfehlen ?
    Den Beitrag "Software und Hardwarekalibrierung für Einsteiger" ist mir bekannt, verstanden habe ich in... naja... geht so ^^


    Das hängt von Deinen Ansprüchen ab! Die Besonderheit des Monitors ist die Fähigkeit der Hardwarekalibration. Mit einem Kolorimeter und einer passenden Software ist die Manuelle Kalibration exakt möglich.
    Mit bloßem Auge und Testbildern zu kalibrieren geht bedingt. Das ist bei allen Monitoren so, bei anderen ehr etwas schlechter. Das OSD ist hier hilfreich und die Einstellungsmöglichkeiten für die Grundfarben sind fein unterteilt. Bei einer Pi*Daumen Kalibration an Hand von Testbildern ist dies weniger wichtig, da man dann aufhört, wenn es "ganz gut" aussieht.
    Schwierigkeiten ergeben sich anhand des Umgebungslichtes (Kunstlicht, Tageslicht), der Wohnungseinrichtung (Farben vermeiden!), der eigenen Wahrnehmungsfähigkeit und Empfindlichkeit für Farben, etc.


    Ein Kolorimeter kostet aber natürlich Geld. Ein Spyder3 ist da noch die günstigste Alternative.


    Zitat

    >Das Display ist trotz seines nominell eher langsamen Panels problemlos in der Lage schnelle Szenen sowie langsame Kameraschwenks wiederzugeben. Auch die Farbwiedergabe sieht sehr natürlich aus.
    5. Frage: Thema Farbwiedergabe... Dies wurde vermutlich mit einem hardwarekalibrierten sRGB Profil getestet, oder ?


    Die Geschwindigkeit des Displays ist unabhängig von Eingriffen im hinterlegten Farbprofil und der Kalibration.


    Zitat

    >Die Helligkeitsabweichungen sind vor allem im primären Arbeitsbereich sehr gering und die Blickwinkel des PVA-Panels sehr groß. Zusammen mit der detaillierten Auflösung dunkelster Graustufen ergibt sich durchweg ein sehr gutes Bild, das kaum Wünsche offen lässt.
    6. Frage: "detaillierten Auflösung dunkelster Graustufen".. meinst Du damit hardwarekalibriert AdobeRGB, Werkseinstellungen, softwarekalibriert ? Ist hier nichts vom Banding zu bemerken ? Für mich wiederspricht sich das irgendwie mit dem einen + bei der Graustufenauflösung.


    Lies bitte den Teil mit den Graustufen nochmal genau. Die Abstufungen sind ALLE vorhanden! Einige haben unter bestimmten Kalibrationen nur minimale Farbstichigkeit.
    Details sind sichtbar, da die Abstufungen vorhanden sind. Alle. Es fallen also an keinem Ende des Graukeils Farbstufen zusammen oder ganz weg. Auch der Helligkeitswert der Abstufungen passt allem Anschein nach (nicht für 256 Graustufen überprüft).


    Zitat

    Ich hoffe ich gehe Euch nicht zu arg auf die Nerven... meine Monitore habe ich normalerweise bis zu deren Ableben... bis dahin lass ich Euch dann in Ruhe :D


    Alternativen neben den NEC P221W wären für mich z.Z. nur der Eizo 2231 oder evtl. der Nachfolger.
    Der NEC juckt mich aber doch schon sehr... vor allem der Preis.


    Bestellt habe ich bis jetzt nur bei Alternate oder Mindfactory, gibt es hierzu gute Alternativen ?.. Alternate führt in nicht und Mindfactory nur in Silber .. falls ich in den nehme sollte, wäre ich auch für jeden Tipp dankbar... vermutlich ist das hier aber die falsche Frage... vielleicht auch nicht gern gesehen, wenn dann bitte ignorieren un vorab schon meine Entschuldigung dafür.


    Hehe... Es gibt noch den TFT-Shop?! ;)



    Zitat

    Ich hoffe derGhostrider kann mich etwas beruhigen und die eine oder ander Frage als unbedenklich abhacken lassen.


    In diesem Sinne, schon mal vielen Dank !


    LG, Heidi


    Keine Ahnung, ob ich jemanden beruhigen konnte. Manch ein Monitor für (über) 1000Euro liefert ein besseres Bild. Also wegdiskutieren möchte ich bestimmt keine Schwäche des Monitors.

    Das ganze wird nun irgendwie reichlich OT, daher sollte man das lieber woanders hin verschieben und einen neuen Thread eröffnen.


    Daher versuche ich mich mal relativ kurz zu fassen (wird eh nix):
    "Input Lag" wird doch deutlich überbewertet. Irgendwie habe ich zudem das Gefühl, als wenn es zu diesem Thema hier bald einen tiefgehenden Test geben könnte. :whistling:
    Manche "Schwächen" bei großen Monitoren resultieren aus der Größe. Irgendwelche Farbverfälschungen zu den Seiten hin sind eben verstärkt dann sichtbar, wenn man zu nah vor dem Gerät sitzt. Der ewige 17" oder vielleicht auch noch 19"-User kauft sich einen 24" und stellt den auf einen kleinen Schribtisch, sitzt mit der Nase fast an der Scheibe und wundert sich dann, daß zum Rand hin Farbverfälschungen auftreten.
    Natürlich gilt das nicht für alle User und natürlich gibt es auch echte Probleme! Das möchte ich nun natürlich nicht bestreiten; einiges von den Berichteten Dingen kann durchaus aber auch Hausgemacht oder leicht übertrieben sein.


    [... langes Geschwafel gelöscht ...]


    Zwei 19" halte ich für keine besonders gute Alternative. Für Anwendungen: ja, geht. Vor allem bei getrennter unabhängiger Ansteuerung. Also so, daß Anwendungen auf "Vollbild" nur einen Monitor ausfüllen. Für Spiele: Definitiv nicht. Es gibt da doch nur wenige, die in einer zwei-Monitor-Umgebung diese gut ausnutzen können. Am schlimmsten ist dann doch ein Bild, das ausgerechnet in der Mitte durch den Rahmen unterbrochen wird. Egal wie schmal der Rahmen auch sein mag.
    Selbst meine 8800GTS 512 reicht doch bei 1920x1200 aus. Wahlweise könnte ich ja sogar noch Pixelgenau 1600x1200 (in voller Höhe des Monitors!) spielen. Brauche es aber nicht, da die Grafikkarte mehr als schnell genug ist.
    Neuere bzw andere Grafikkarten (ATI ab HD4850, alle neuen nVidia 200er) haben zumindest die gleiche, wenn nicht mehr Leistung und kosten nicht die Welt, reichen für 1920x1200 aber aus.
    Das ist ja das nette an den großen Monitoren, wenn die Skalierung anständig arbeitet: Weniger geht immer. Vielleicht ist dann nicht die volle Anzeigefläche ausgefüllt, aber selbst ein "Ausschnitt" ist dann groß genug. Gut, nun rede ich aber ehr von den Erfahrungen, die ich mit dem 2690 habe. Da ist die Skalierung ein Traum.


    Mir persönlich ist der verfügbare Platz sehr wichtig. Auf kleinen Monitoren komme ich inzwischen nicht mehr gut zurecht. Auf meinem 21" CRT läuft auch nur 1280x1024 (wegen der Schärfe und Wiederholrate) und dort sind einige Anwendungen wirklich suboptimal zu benutzen. Bei der Grafikbearbeitung fällt das extrem auf, da die Arbeitsfläche neben den ganzen Werkzeugleisten einfach zu klein ist. Selbst 22" TFTs finde ich irgendwie inzwischen beengt. Man gewöhnt sich doch recht schnell an den zusätzlichen Platz.
    *g* Und bei den Tests habe ich hier ja nicht selten einen 24" als Zweitbildschirm zu meinem 26" stehen. DANN hat man schon richtig viel Platz. Abends ist das ganz angenehm: Auf einem Monitor etwas im Internet Surfen, auf dem anderen dudelt das TV-Programm. Werbepause: Blick nach rechts & Surfen oder in Foren schreiben, Film geht weiter: Blick nach links. ;)


    Ach: Meinen 2690 benutze ich NUR mit abgeschaltetem Overdrive. Das verbessert ungefähr gar nichts und positiv habe ich es weder in Spielen (z.B. Joint Ops) noch bei Film und TV bemerkt.
    Bevor ich einen Monitor mit extrem übersteuerndem Overdrive benutze, würde ich lieber darauf verzichten.


    Phosphor von CRTs leuchtet auch ein bisschen nach. Die Zahlen, die ich dazu finden konnte, decken sich aber irgendwie nicht so ganz mit meiner Alltagserfahrung. Je nach CRT kommt mir das manchmal länger vor als die Schaltzeiten der "langsamen" heutigen TFTs. Zumindest wenn ich einen weißen Mauscursor über einen schwarzen Hintergrund bewege, sehe ich bei CRTs teilweise längere oder zumindest deutlichere Mausspuren. Alles nur Einbildung?
    Es hat mich nie bei CS gestört. 1600x1200 auf 21" war schon immer ein gutes Argument. Dazu eine gute Farbdarstellung samt guter Kontraste, ein gleichmäßiges Weiß, fehlerfreie Ausleuchtung und ein flimmerfreies Bild... Viel mehr will ich schon gar nicht. ;)


    Was ist also wichtiger: Zahlen in einem Datenblatt oder die tatsächliche Nutzbarkeit?

    Nunja, selbst auf meinem "trägen" 2690 kann man m.E. gut spielen - und der hat so rund 12ms Reaktionszeit. Vielleicht auch 15ms.


    Und ansonsten gibt es doch auch noch HP LP2275w und natürlich den HP LP2475w. Gerade der letztere hat es mir persönlich sehr angetan. Der ist zwar nicht hardwarekalibrierbar, aber trotzdem vielen anderen Monis überlegen.


    Und auch einige 22" Eizos haben die Tests durchaus gut durchlaufen.... ;)


    Es kommt halt immer darauf an, was man für sich wie stark bewertet. Lückenlose Alleskönner sind mir bisher keine bekannt.


    Die hervorstechende Besonderheit von P221w ist definitiv die offizielle Hardwarekalibrierbarkeit zu dem relativ niedrigen Preis. Auf Knopfdruck kann man so sogar zwischen sRGB-Farbraum und dem vollen Farbraum wechseln - wer zeigt mir einen Monitor zu einem vergleichbaren Preis, der soetwas kann? ;)

    Der Bericht ist allerdings von meiner Wenigkeit.... ;)
    Trotzdem danke!


    xTr3Me:
    Nicht vergessen: Diese "Schlieren" waren, wie im Test beschrieben, nur bei bestimmten Grautönen auszumachen, also auf wenige Spezialfälle begrenzt.


    -----------


    Zur Kalibration:
    Heute habe ich von von der basICColor GmbH eine Information erhalten, daß zukünftige Versionen der Spectraview Profiler 4 stärker abweichen werden und generell bessere Kalibrationsergebnisse liefern können sollen.


    Dazu auch dieses Zitat aus der erhaltenen Mail, falls es jemanden interessiert:

    Zitat

    Damit will ich nun nicht sagen, dass die SpectraView II Software keine guten Kalibrationsergebnisse liefert. Als speziell für die hardwarekalibrierbaren Monitore von NEC programmierte Software, sind die Kalibrationsergebnisse bei diesen Monitoren von denen der SpectraView Profiler 4 wohl kaum visuell zu unterscheiden.

    Auch wenn es etwas verspätet kommt:
    Die Auflösung des 24" L2440p beträgt natürlich, wie im Test mehrfach geschrieben, 1920x1200.


    RootingBill hat also entweder den L2240p aufgebaut oder sich bei der Auflösung vertan. Also entweder beim Schreiben seines Beitrages oder beim Einstellen der Auflösung am Arbeitsplatz. (Ist ja durchaus möglich...)
    Ich halte es mal für wahrscheinlich, daß er den L2240p meinte, der aber nicht getestet wurde.

    Das Defekte Kabel war die Idee zu 2).
    Es gibt 5 Pins, die für PnP im DVI-Kabel benötigt werden.
    Siehe:
    Alle Pins in Cyan (6, 7, 14, 15, 16) sind für PnP zuständig. Wenn davon einer oder mehrere nicht oder nicht immer funktionieren, dann könnte das reichen.
    Darum: Am besten mal das Kabel tauschen. Auch wenn Du nur noch ein Single-Link herumliegen haben solltest! Damit könntest Du zwar nicht die volle Auflösung fahren, aber austesten, ob die Monitorerkennung über PnP deswegen nicht verlässlich klappt.


    Irgendwo in den erweiterten Einstellungen kann man (meistens) auch PnP deaktivieren und den Monitor fest vorgeben... Wäre auch noch eine Möglichkeit.


    Oder Du probierst mal mal "Omegadriver" aus ->
    EDIT: Sei bitte vorsichtig wo Du auf der Seite klickst! Nur auf die großen Icons selbst, nicht auf die Links unter diesen Icons klicken, denn das schickt Dich sonst zu fremden Seiten derer Sponsoren, wo Dir irgendein Schrott-Programm angedreht werden soll zur Insatallation einer merkwürdigen Software, welches Du nicht haben willst. Also: Nur auf die Icons, dann kommst Du danach zu einer Liste von Mirror-Servern für die Treiber.



    Vielleicht stimmt nur mal wieder etwas in den Treibern nicht so wirklich.


    Vielleicht solltest Du vorher mal mit "drivercleaner" alle Reste von alten Graka-Treibern entfernen...


    Ich nehme an, daß Du natürlich die Inf vom Monitor, also sozusagen den Treiber, installiert hast, damit die Graka den vollständig korrekt erkennt und nicht nur die DDC-Daten bekommt.

    Steht auch so auf der ATI-Homepage:

    Zitat

    Unterstützt 18-, 24- und 30-Bit-Digitaldisplays mit allen Auflösungen bis zu 1920 × 1200 (Single-Link-DVI) bzw. 2560 × 1600 (Dual-Link-DVI)


    (Siehe: )
    Hmmm... in den nVidia-Treibern (mein Notebook hat zwar eine ATI-Karte, aber keine offiziellen ATI-Treiber installiert), gibt es immer eine Option "nicht vom Display unterstützte Auflösungen anzeigen".


    Such mal nach soetwas und schau dann nach, ob die Auflösung verfügbar ist.
    Nicht sehr wahrscheinlich, aber möglich: Im Kabel könnte einer der Kontakte für die DDC-Kommunikation hinüber sein, so daß der Monitor nicht richtig erkannt wird. Falls Du noch ein anderes dual-link Kabel hast, würde ich das mal ausprobieren.
    Ich hoffe, daß Dein Notebook auch einen DVI-Ausgang und nicht nur ein HDMI-Ausgang hat, denn über HDMI kann die Grafikkarte laut Spezifikationen keine derartig hohe Auflösung ausgeben. Also wohl auch nicht, wenn Du ein HDMI-zu-DVI-Kabel verwendest.


    Zitat

    Unterstützt HDMI-Ausgabe
    * Unterstützt Displayauflösungen bis zu 1920 × 1080


    (gleiche Quelle wie oben)

    Drei Dinge:
    Welche Graka hast Du genau? Typ, genaue Bezeichnung... (Nur ein Stecker mit genügend Kontakten sagt leider nichts über die Fähigkeiten der Grafikkarte.)
    Aktuelle Treiber für die Grafikkarte installiert?
    Ist das Kabel kürzer als 5m?

    Nun, da ich selbst kein Spyder3 besitze, kann ich Dir dazu nicht viel sagen.
    Gibt Dir die Software denn kein Übersichtsfenster, wie die Kalibration verlaufen ist? Stehen da nirgends die passenden Informationen?
    Bei der "Elite" Software gibt es unten rechts in einem Fenster einen Knopf zum Ausmessen der aktuellen Kalibration. Zumindest dort sollte dann auch was zu schwarz dabei stehen.


    Bei meinen bisherigen Kalibrationen und dazugehörigen Programmen war es eigentlich immer der Fall, daß die Informationen angegeben wurden...


    Ansonsten könntest Du auch einfach mal die BasicColor Software ausprobieren. Für die Demo ist es nötig, daß man registriert. Kostenlos und man wird auch nicht mit Spam überflutet...
    ->


    Die Software zeigt es Dir dann auf jeden Fall an.


    Nach einem kurzen User-Vergleichsbericht, den ich nun schnell ergoogelt habe, weichen die Ergebnisse aber wohl teilweise deutlich von denen der beigelegten Software ab.
    (siehe: )


    Nunja, selber messen erhöht die eigene Verwirrtheit. ;)

    Mahlzeit!


    Vermutlich wird dieser Beitrag nicht alle Fragen beantworten, aber eventuell einen Teil...


    Ob die Kalibration gut oder weniger gut ist, kann Dir so erstmal keiner sagen. Es wunder mich ein bisschen, daß Rot und Blau zwar gleich, aber nicht auf 100 stehen. Es wäre nicht verwunderlich, wenn auch 100, 84, 100 passen würde, mit Helligkeit 29 oder 28. (Nur Pi * Daumen grob geschätzt.)


    Ausprobieren kannst Du das natürlich mal - muß aber nicht.



    Kontrast: Den Kontrast ermittelt man ganz einfach: Mess die Helligkeit von SCHWARZ und von WEISS. Weiß hast Du ja schon (120cd/m²) dann fehlt eigentlich nur noch der Schwarzwert. Nehmen wir, der Einfachheit halber, einfach mal an, daß Du einen unglaublich guten Wert von 0,10cd/m² erreichen könntest, dann ergäbe sich für den Kontrast:
    120cd/m² / 0,1cd/m² = 1200
    Damit hättest Du einen Kontrast von 1200:1.
    (Realistischer sind Schwarzwerte zwischen 0,18cd/m² bis 0,35cd/m². Bei 120cd/m² Helligkeit für Weiß würde ich einfach mal einen Wert von 0,2x cd/m² bei Schwarz erwarten.


    Die Werte klingen erstmal ganz gut Der Weißpunkt scheint ideal getroffen zu sein und die Einstellungen für die Kalibration sind nicht "total merkwürdig". Ob nun 100 oder 97 ist auch nicht weiter tragisch. MERKWÜRDIG wäre nun z.B. "40, 29, 40" für R,G,B, da Du dann vermutlich die hälfte der Farbwerte wegschmeißen würdest. ;)
    Ideal ist es meistens den Kontrastwert auf den Herstellerangaben zu lassen, so zeigt es sich zumindest bei den meisten Monitoren immer wieder.
    Das kannst Du am besten an einem gleichmäßigen Graukeil mit 256 Stufen erkennen:
    Senkst Du den Kontrast, dann gehen häufig die Schwarzwerte verloren oder weiß wird zu grau (Der Keil wird sozusagen in die Breite gezogen und die hellsten Werte fallen dabei heraus). Erhöhst Du den Kontrast, dann wird häufig der Verlauf zusammengestaucht, so daß immer mehr helle Werte zusammenfallen.
    Das muß man einfach ausprobieren (bei der Betrachtung von Graukeilen mit 256 Stufen) und genau beobachten.


    Zur farbkritischen Arbeit:
    Du benötigst ein Grafikprogramm / Bildbearbeitungsprogramm, welches mit Farbprofilen arbeiten kann. z.B. PaintShopPro oder PhotoShop - je nachdem, wieviel Du an den Bildern drehen willst, reichen eventuell auch kleinere Tools mit geringerem Funktionsumfang. Welche dort nun Farbprofile unterstützen mußt Du leider selbst herausfinden.
    In diesem Programm mußt Du das Farbprofil angeben, damit dieses Programm, je nach Bild und dort enthaltenem Farbprofil, die Farben korrekt zu Deinem Monitorfarbprofil umrechnen kann.
    Beispiel: Deine Kamera (gehen wir mal von JPEG im "Normalfall" aus) erstellt Bilder im sRGB-Modus.
    Wenn Du das nun ohne Profil betrachtest, dann werden die Farbtöne falsch wiedergegeben. Rot von sRGB ist einfach nicht so "rot" wie das Rot von AdobeRGB. Weil die Software dann nicht weiß, daß Dein Moni mehr kann, wird 255,0,0 ausgegeben und das führt eben zum AdobeRGB Rot.


    MIT Farbprofil schaut die Software ins Bild: "sRGB". Dann schaut die Software in das Farbprofil passend zu Deinem Monitor: "(fast) AdobeRGB". Damit das sRGB-Rot dann aber trotzdem als sRGB-Rot erscheint, rechnet die Software es so um, daß es korrekt angezeigt wird. Man könnte sagen: Etwas blasser.


    Das ist dann eigentlich schonmal das wichtigste. Nun siehst Du auf Deinem Bildschirm das, was Du sehen solltest. Ob da nun noch 2 deltaE Fehler draufliegen oder nicht, ist erstmal egal, denn ohne Farbprofil würdest Du 8, 10, 15, oder wer-weiß-wieviel DeltaE daneben liegen. ;)
    Beim Abspeichern sollte durch die Software automatisch das sRGB-Profil verwendet und mit der Datei gespeichert werden -> Die meisten Ausbelichter nutzen das als Standardvorgabe.
    Damit sollten dann die Bilder so aussehen, wie in der Bildbetrachtungssoftware.


    VORSICHT: Die Windows "Vorschau" verwendet wohl keine Farbprofile. Das kann also dazu führen, daß wenn Du die volle Farbenpracht der Windows-Bildvorschau mit einem Ausdruck oder einem entwickelten Bild vergleichst, eine deutliche Abweichung sehen wirst. Benutze dann zum Vergleich natürlich das Grafikprogramm mit dem hinterlegten Farbprofil Deines Monitors.
    Zur korrekten Beurteilung der Farben solltest Du dann auch noch darauf achten, daß die Raumbeleuchtung passt: Keine Glühbirne (viiiiel zu warm), kein DIREKTES Sonnenlicht. Ganz günstig ist wohl indirektes Sonnenlicht bei leicht bewölktem Himmel.
    Das Bild, was Du mit dem Monitor vergleichst, erscheint halt je nach Lichtverhältnis anders. "Sonnenlicht" liegt ehr bei 5600 - 5800K. Darum ist auch das nur mit Einschränkungen geeignet.
    ------------------




    Kurz:
    Kontrast zerschossen: Unwahrscheinlich. Kontrast ist einfach nur das Verhältnis der Helligkeiten von Weißpunkt zu Schwarzpunkt.
    Graustufen: Feine Graukeile können Dir das zeigen.


    Ich würde Dir ja gerne mein selbst programmiertes Testtool auf's Auge drücken, aber das befindet sich noch im frühen Beta-Stadium und ist noch nicht bereit für eine Veröffentlichung. Daher rate ich zu diesem hier:

    Kannst Du auch erstmal im Browserfenster ausführen. (FIREFOX 3 kann, bezogen auf Grafiken, auch Farbprofile verwalten, wenn man ihn passend einstellt! Nur mal so nebenbei bemerkt)
    Einfach mal die Farbverläufe Schwarz-Weiß, Schwarz-Rot, Schwarz-Grün, Schwarz-Blau angucken.
    Wenn Stufen sichtbar sein sollten, dann wohl am stärksten bei Grün, da dort am weitesten rumgeschraubt wurde und das menschliche Auge besonders gut Grüntöne differenzieren kann.


    Hoffentlich hilft Dir das etwas...