Beiträge von Mirador


    In einem "8-Bit Workflow" sollte jedes CMM eine Dithering-Option implementieren. Extensive Praxistests habe ich noch nicht gemacht, aber das wäre schon einmal ein Faktor, der in Bezug auf Tonwertverluste "mildernd" wirken würde. Außerdem muß man bedenken, dass durch den kleineren Arbeitsfarbraum die Tonwerte sowieso näher zueinander rücken (allerdings dürfen wir natürlich nicht nur "in Farbe" denken; die Gradation kann ja durchaus auch differieren). Im Vergleich zur "nativen Darstellung" tut sich i.d.R. nicht zu viel.


    Damit hast Du natürlich recht.
    chris68: ich wollte mit meiner Erklärung nur klarmachen, welchen Hintergund die von Dir zitierte Aussage hat. In wie weit einem das dann auffällt - oder gar stört - steht auf einem anderen Blatt. Nicht zuletzt liegt es auch (wörtlich) im Auge des Betrachtes, denn wie bei allen Sinnen ist auch die Farbwahrnehmung von Mensch zu Mensch unterschiedlich sensibel.

    Hm, ich glaube nicht, dass Du seine Frage damit wirklich beantwortet hast.


    Ich versuch's auch mal: Zur Veranschaulichung beschränken wir uns auf einen Farbkanal, z.B. Rot.
    Üblich ist eine 8-bit-Kodierung, also ein Wertebereich von 0..255.


    Das Problem (und damit der Grund, warum man Farbmanagement betreibt) ist nun, dass "255" je nach Ausgabegerät einem anderen Rot entsprechen kann. Nehmen wir mal an, bei Deinem Monitor würde damit ein Rot mit 700nm Wellenlänge wiedergegeben, Du willst Dich aber auf 680nm beschränken: auf PC-Seite wird das Problem einfach so gelöst, dass (z.B.) eben nur noch ein Wert von maximal "240" an den Monitor gesendet wird. Damit stehen aber auch nur noch 240 Farbabstufungen zur Verfügung. Ironischerweise wird der Effekt umso stärker, je farbkräftiger der Monitor ist, oder umgekehrt: ein von Haus aus "beschränkter" Monitor muss nicht durch den PC im Wertebereich beschnitten werden.


    Übernimmt dagegen der Monitor die Farbraumemultation, bleibt es bei einem Wertebereich von 0..255; er wird damit angewiesen, die "255" nun anders zu interpretieren. Wie gut er das hinkriegt, hängt von der internen Elektronik und auch dem Panel ab, denn alle Panels für Normalsterbliche lassen sich nur mit 8bit pro Farbe ansteuern.

    Naja, das sind nochmal über 300€ mehr :S


    Relativiert sich ein bischen, wenn man noch kein Colorimeter hat und sich eh eins anschaffen wollte.


    LED ist ja nun leider auch kein Garant für Brummfreiheit, das Panel dürfte auch von LG sein - Also auch Homogenitätsprobleme wie bei Dell und Eizo?


    Das Netzteil kann noch brummen, aber das Risiko besteht immer. Wüsste nicht, dass es hochwertige Monitore mit externem Netzteil gibt.
    Homogenität ist keine Frage des Panels, sondern der Hintergrundbeleuchtung. Im c't-Test hat der LG in dieser Hinsicht mit 97% am Besten abgeschnitten, der Eizo CG243W auf Platz 2. Dell U2410 zusammen mit HP LP2480zx mit 86% auf Platz 3.
    8. und letzter in dem Vergleich war übrigens der Eizo S2433W mit 74%, was mich schon ein wenig schockiert hat.


    Und, für mich besonders wichtig: Wie gut ist die sRGB-Emulation?


    Dazu steht im Test nur lapidar zu Eizo CG, HP und LG: "Stichprobenartige Messungen mit unserem Spektrometer ergaben, dass diese Monitore die versprochenen Farbräume sehr genau einhalten."


    Ansonsten ist der Monitor bei Prad ja schon mal "im Zulauf".

    Was soll ich machen? :pinch:


    Den LG 2420R gibt es schon für 1374 EUR (*klick*:( RGB-Backlight, hardwarekalibrierbar, Spyder 3 im Lieferumfang.


    Was mich stört ist die fehlende 1:1-Interpolation, (für mich) eigentlich ein KO-Kriterium. Aber bei dem Preis werd' ich vielleicht schwach und entscheide mich noch um.....

    Beim EIZO-Treiber ist doch ein Farbprofil dabei; hast Du das mal mit Deinem selbst eingemessenen Profil verglichen?
    Sprich: gibt es zwischen beiden einen augenfälligen Unterschied oder das mitgelieferte good enough?

    Von Tripple Buffering höre ich nun zum ersten Mal; Ich werde es testen und berichte wieder. Allerdings wird es mir (vermutlich) auch nicht im 2D-Desktop-Betrieb helfen :(


    Stimmt, ist ein reines 3D-Setting. Außerdem kann man sich wohl nicht darauf verlassen, dass das Forcieren per Treiber immer funktioniert. VSync ist aber für Deine Bedürfnisse erst mal das wichtigere Feature.



    Zum Thema Performance: Ich kann den Effekt in verschiedenen 3D Anwendungen unterschiedlich stark bis gar nicht feststellen. Konkret: Das Spiel Runes Of Magic scheint vSync komplett zu ignorieren. Fraps meldet dort durchschnittlich 80 fps. Folge: Extremes Tearing. In Lego Indiana Jones wiederrum 60fps, super Bild, kein Tearing, alles gut. Wollte damit nur sagen, dass die Hardware ansich genügend Leistung bringen sollte.


    Da hast Du mich falsch verstanden: wichtig sind nicht viele fps, sondern eine hohe Bildwiederholrate des Monitors. Bei den 85Hz meines CRT, das ich aktuell (noch) habe, liegt der Effekt meist jenseits meiner Wahrnehmung oder ist zumindest erträglich. Ist VSync eingeschaltet ist er ganz verschwunden. Mit einem LCD mag das aufgrund des Hold-Type-Charakters nicht so wirken, das liegt dann aber nicht mehr an der Synchronisation sondern halt an der LCD-Technologie (Plasma wäre auch nicht besser).


    Für 2D wäre dann wohl der Umstieg auf Vista oder Win7 das Beste.

    Hallo Ramses, das ist das Problem bei so brandneuen Teilen: keiner kann was dazu sagen.


    Ich werde mir den Monitor kaufen, allerdings erst im Januar.
    Den zuständigen Redakteur bei der c't hatte ich auch schon mal angemailt und er wollte versuchen, einen zum Test zu kriegen (offensichlich braucht's da ein OK von "oben") aber auch ohne Zeithorizont.

    Hallo Truman,


    sofern wir vom selben Reden (was ich mal hoffe) ist das Thema einfach etwas in Vergessenheit geraten. Das Problem ist die Synchronisation zwischen dem "Malen" eines neuen Bildschriminhalts und der Aktualisierung der Anzeige durch den Bildschirm selber.


    Vor über 20 Jahren wurde der anzuzeigende Bildschirminhalt direkt in den Grafikspeicher gemalt, Synchronisation: nicht möglich. Entsprechend spaßig war das Geflacker.


    Irgendwann war dann Speicher so billig, dass man es sich erlauben konnte, zunächst in einen Puffer zu malen und dann erst das fertige Bild auf "anzeigen" umzuschalten (Double Buffering). Böld nur, wenn man das macht, während sich der Monitor gerade mitten in der Anzeige eines neuen Bildes befindet: dann ist die obere dargestellte Hälte vom alten Frame, die untere aus dem neuen. Imerhin sind beide Hälften dann in sich ruhig.


    Der Effekt wird mit zunehmender Bildwiederholfrequenz weniger augenfällig, und diese ist mit den Jahren bei den Röhrenmintoren deutlich gestiegen. LCDs sind in dieser Hinsicht wieder ein Rückschritt.


    Mit VSnyc wird die Anzeigeumschaltung so synchronisiert, dass sie immer erst dann erfolgt, wenn der Montior wieder oben anfängt. Allerdings kostet das etwas Performace, wenn der Bildaufbau schneller als die Anzeige ist: das "Malen" des neuen Bilds darf erst beginnen, nachdem der bereits fertige Puffer zur Anzeige umgeschaltet wurde.
    Darum gibt es die Deluxe-Version "Triple Buffering": einen Puffer zum Reinmalen, den zweiten zum Warten auf das VSync-Signal und den dritten, den das Display zum Auslesen der Anzeigedaten benutzt.


    Beim nVidia Treiber gibt es unter "Manage 3D Settings" Einstellungen für "Triple Buffering" und "Vertical Sync", ATI hat sowas sicher auch.


    Ob die von Dir genannten Unterschiede auf dem Deskptop daher kommen, dass Vista das VSync-Signal im 2D-Betrieb berücksichtigt und XP nicht, kann ich nicht sagen. Evtl. gibt es dafür auch Tools oder eine Registry-Einstellung.
    Außerdem könntest Du mal prüfen, ob ein 120Hz LCD eine Lösung für Dich wäre.