Beiträge von Denis

    Zitat

    Frage: farbraum SRGB ist nicht 100% bei helligkeit von 80 cd/m² ?
    Frage: farbraum Adobe RGB ist ...% bei helligkeit von 80 cd/m² ?


    Ich habe auf Basis von 80 cd/m² nicht extra ein Profil erstellen, oder den UGRA-Test durchlaufen lassen, aber der Farbraum wird sich nicht verändern. Generell muß man in Sachen Abdeckung sagen, dass das 3D-Tool auf Basis des Matrix-Profils arbeitet. Im Moment sind wir da noch am evaluieren, ob wir zukünftig nicht die Werte aus dem UGRA Test übernehmen, der die Abdeckung auf Basis von deutlich mehr Messungen ermittelt (so wie ein LUT-Profil erstellt würde) und deswegen tendentiell genauer ist (dabei immer etwas größere Abdeckungen ermittelt).


    Zitat

    Bei meiner recherche im Web bin ich oft auf den CG210 gestossen. Dieser stellt das Vorgängermodell des CG211 dar und wird wärmstens empfohlen, da er sehr gute Werte liefert und inzwischen billig zu kriegen is


    Schwer zu vergleichen, da es sich um komplett verschiedene Panels handelt, die auch noch im Seitenverhältnis differieren. Die Elektronik des CG222W ist in jedem Fall noch etwas genauer - und der CG210 verfügt auch nicht über einen erweiterten Farbraum. Wundert mich, dass du den CG210 als EOL-Gerät wirklich günstiger als den CG222W bekommen solltest. Ich würde klar zum aktuellen Modell tendieren.


    Gruß


    Denis

    Zitat

    Könntest du mir noch sagen warum nicht, falls ich noch auf andere Monitore stoße.


    Der Adapter legt das YPbPr Signal einfach auf die "analogen Pins" des DVI-Steckers. Das verstehen die wenigsten Endgeräte. Eine A/D Wandlung ist also notwendig und im Falle der Ausgabe per DVI auch eine Transkodierung nach RGB, weil YCbCr per DVI nicht vorgesehen ist. Daneben bleibt das angerissene Auflösungs-/ Timingproblem bestehen. Der LG nimmt per HDMI die üblichen Videoformate entgegen, hier kann man also ansetzen. Der Konverter wandelt das YPbPr Signal in ein digitales RGB Signal (YCbCr ginge hier auch, aber ich habe noch keinen solchen Adapter ohne Transkodierung nach RGB gesehen) und gibt es am HDMI aus.


    Zitat

    Und sowas nützt auch nicht, wenn di Quelle ein RGB SIgnal auf den Component_Anschluss ausgibt?


    Nein. Per DVI-A kannst du zwar ein analoges RGBHV Signal übertragen, was ein Bildschirm mit DVI-I Eingang auch verstehen wird, aber es liegt in dem Fall eben kein RGBHV Signal, sondern RGBs Signal an - wobei das FBAS Signal als Synchronisation gar ganz unter den Tisch fällt, weil nur drei Cinch-Eingänge vorhanden sind.




    Gruß


    Denis

    Zitat

    Ist es möglich einen dieser beiden Monitore, oder auch beide, über einen YUV-zu-DVI-Adapter an eine YUV-Quelle anzuschließen oder können sie das Signal nicht verarbeiten?


    Nein, dafür bräuchtest du einen Konverter, der das YPbPr Signal nach RGB transkodiert. Dann bliebe noch das Auflösungs-/Timingproblem. Beim LG unproblematisch. Hier würde man auf HDMI umsetzen. So einen Konverter für YPbPr auf HDMI (RGB) habe ich hier noch liegen. Damit würde das schon klappen.


    Gruß


    Denis

    Ja, der CG hat mich wirklich überzeugt, da gibt es nichts zu rütteln. Hätte ich nicht schon den 30" SX könnte ich ernsthaft über die entsprechende CG Variante nachdenken. So bleibe ich aber vernünftig ;-). Mit dem 22" hat man in jedem Fall einen ziemlich idealen Bildschirm im Portfolio - gerade, wenn man nicht immer in fm fähiger Software unterwegs ist.


    Gruß


    Denis

    Zitat

    Da konnte was nicht stimmen, also hab ich im Bildmenü rumgespielt und auch einige Makel behoben, aber trotzdem immer noch den Eindruck von Schlieren, und Verschwimmungseffekten und Kantenflimmern sowie Unschärfen im Hintergrund des gezeigten Bildes, das fiel mir besonders mit HDMI auf, während über den Scart Port eher alles verwaschen wirkte.


    Verschiedene Ursachen, die insbesondere auf das Videoprocessing zurückzuführen sind. Ich kann das an der Stelle jetzt nicht episch breittreten, will aber auf ein paar Dinge eingehen: Das Flimmern horizontaler Strukturen zeugt von mäßigem Deinterlacing. Gleiches führt auch zu Detailverlusten, genau wie eine ebenfalls mäßige Skalierung (an irgendeiner Stelle muß das Signal auf die Panelauflösung gebracht werden), die, je nach Umsetzung, zudem noch Artefakte verstärken kann. Bezgl. der Scaling-Engines hat man im TV-Bereich inzwischen durchaus Fortschritte bei den "besseren" Modellen gemacht, verschenkt aber immer noch viel Potential.


    Zitat

    Z.B. sehe ich um das Pro-7 zeichen herum kleine viereckige Pixel, die deutlich erkennbar sind aber meines Erachtens nicht da sein sollten.


    Hört sich von der Beschreibung her wie Mosquito-Noise an. Das ist grundsätzlich erstmal eine Kompressionsfrage, d.h. schon signalseitig vorhanden, kann aber durch die Skalierung und zusätzliche Schärfefilter noch verstärkt werden (die u.a. auch schnell deutlich sichtbare Doppelkonturen produzieren). Es gibt Möglichkeiten der Reduzierung (Algolith hat mit dem FLEA und Mosquito sogar dedizierte Geräte nur zur Noise-Reduction gebaut, sich inzwischen allerdings aus dem Consumermarkt zurückgezogen). Die meisten TVs haben allerdings nur eine grobe 3D-NR, die "alles" glattbügelt und schnell zu einem verschmieren in Bewegung führt. Was der Samsung konkret an Postprocessing anbietet, kann ich aus dem Stehgreif nicht sagen, da müßtest du dich mal durch die Menüs wählen. Genrell gilt aber gerade bei den integrierten Lösungen: Weniger ist mehr, die Gefahr, das Bild zu Verschlimmbessern ist groß. Auch das kann zu dem schlechten Eindruck, den du momentan hast beitragen.


    Zitat

    Oder is das Gerät wirklich fehlerhaft bzw. schrott?


    Sicherlich nicht. Wie gesagt: Erstmal die Verschlimmbesserer aus und dann weitersehen. Je nach Anspruch wirst du um weitere Investitionen nicht herumkommen. Ginge es nur um die DVD-Wiedergabe könnte ich dir den Oppo 983 ans Herz legen, der mit sehr potentem ABT-Chipset zu einer deutlichen Qualitätsverbesserung führen würde.



    Läuft als Produkt allerdings gerde aus. Oppo positioniert dafür aktuell den Blu-ray Player BDP83



    am Markt, der ebenfalls auf einem ABT-Chipset basiert. Gibt schon ein paar sehr zufriedene, deutsche User.


    Es gibt auch dedizierte Videoprozessoren, die dann das Bild aller Quellen deutlich aufwerten. Interessant wäre da der "Edge" von DVDO (= ABT), der preislich im günstigsten Fall für etwa 600 Euro in Deutschland zu bekommen ist. Angesichts der Leistungen ein Schnäppchen. Ob das für einen 32" Bildschirm schon oversized ist, muß man mit sich selbst ausmachen. Günstiger wird man aber nicht an eine vergleichbare Leistung kommen. Setzt den ABT2010 ein (wie auch die beiden Player):




    Wobei man grundsätlich sagen muß, dass DVB-T als Quelle nicht ideal ist. Hier solltest du, unabhängig vom Equipment, über DVB-C oder DVB-S nachdenken.


    Zitat

    Zudem gibt es komplizierte "upscaling" Algorithmen (Toshiba hat soetwas im Angebot für ein paar Tausender) nur in sehr viel teureren Geräten, die dann ein oder zwei Cell-Prozessoren verwenden, um zusätzliche Bildinformationen in das Bild zu rechnen, damit selbst bei DVD-Zuspielung von SD-Material "annähernd" HD-Eindruck beim Betrachter erreicht wird.


    Ich würde diesen "Cell-Hype" nicht überbewerten. Ein schneller Chip ist eine Basis, aber keine hinreichende Garantie für ein wirklich gutes Bild. Hier würde ich denen vertrauen, die schon seit Jahren in dem Bereich tätig sind und entsprechende Algorithmen entwickeln. Der Markt für externe Videoprozessoren ist klein, aber DVDO und Lumagen (wobei deren interessanter Radiance preislich ziemlich hoch angesiedelt ist, dafür aber interessante Features implementiert) sind Namen, an denen ich mich da aktuell orientieren würde. Es geht dabei weniger darum, etwas ins Bild "hineinzurechnen", sondern das durchaus vorhandene Potential auszuschöpfen. In Sachen Skalierung ist die Lösung vom Lumagen dabei absolut genial ("ringing free"), was man sich allerdings auch bezahlen läßt. Einen CELL brauchen sie alle nicht. Da kommen FPGAs oder entsprechend fixe ASICs zum Einsatz.




    Um Pixelmagicsystems ist es leider ziemlich leise geworden, mal sehen, ob von denen noch was aktuelles nachkommt:


    Gruß


    Denis

    Zitat

    Hab bessere farben als RGB schwarz ist schwarz und nicht mehr mit grau vermischt


    Wenn das Schwarz grau wird, liegt das bei RGB Zuspielung an einem nicht abgestimmten Signalpegel zwischen Bildschirm und Zuspieler. Im Digitalvideobereich arbeitet man nicht mit dem vollen Tonwertumfang, den man mit 8-Bit pro Kanal nutzen könnte (PC-Level), sondern in einem eingeschränkten Bereich (16-235; Videolevel). Wenn du das Video über den Rechner wiedergibst kannst du im nVidia Treiber die Tonwertspreizung aktivieren (Video-Farbeinstellungen ändern => Erweitert => Dynamikbereich: Voll (0-255). Dann hast du auch hier eine korrekte Darstellung. YCbCr im Windows-Betrieb hat den Nachteil, dass hier per Definition in dem eingeschränkten Wertebereich gearbeitet wird - schlecht für "normale" Anwendungen, wie z.B. auch Spiele.


    Geht es um die Zuspielung von externer Quelle (DVD-/ Blu-ray Player, Receiver) kannst du ruhig YCbCr nehmen, da bist du bezgl. Signalpegel auf der sicheren Seite. RGB mußt du, wie angeklungen, mit dem Samsung abstimmen. Entweder hat er eine entsprechende Einstellung (bei Samsung, wenn vorhanden: HDMI-Schwarzwert), und/ oder du kannst am Zuspieler switchen (sinngemaß hast du da meist die Möglichkeit in RGB und RGB Erweitert/ Voll auszugegen).


    Gruß


    Denis

    Zitat


    1. Der Hype um die Wide-Gamut-Monitore ist bald wieder vorbei?
    2. Die Betriebssysteme werden mit Wide Gamut umgehen können?
    3. Das Irritationen werden auf unbestimmte Zeit so weitergehen?


    2. Ist faktisch nicht automatisch systemweit hinzubekommen. Natürlich kann das Betriebssystem, so wie im Falle von Vista, Windows 7 oder MacOS, ein vernünftiges CMM bereitstellen, aber die einzelnen Anwendungen werden damit nur von der Last befreit, selbst Eines zu implementieren. Die Anforderung sollte also schon von der Anwendung her kommen. "Erzwungenes Farbmanagement" ist problematisch.


    Das in Zukunft weniger WCG-Bildschirme auf den Markt kommen, ist unwahrscheinlich, der Trend wird sich fortsetzen. Wünschenswert wäre ein wirklich jeweils brauchbarer sRGB Modus.


    Gruß


    Denis

    Zitat

    Laut NEC war diese Entscheidung gehalten auf Feedback von Anwendern im, wie mir gesagt wurde, farbkritischen Bereich.


    NEC USA vermerkt, dass dieser spezielle Polarisator einfach nicht mehr angeboten wird und deswegen bei neueren Geräten fehlt.



    Gruß


    Denis

    Zitat

    Nachdem ich ihn kalibriert habe, fiel mir auf, dass die Farben immer noch übersättigt sind (vorallem rot und grün). Das Problem liegt wohl darin, dass ich bei meinen ganzen Fotos immer im sRGB Modus arbeite. Im Photoshop sehen die Fotos eh "normal" aus, aber im Irfanview oder in der Windows Fotogalerie sehen sie entweder übersättigt (bei Profil sRBG) oder blass (beim von Spyder3 erstellen Profil) aus.


    Die gemäß Quellprofil korrekte Darstellung entsteht erst im Rahmen des Farbmanagement aus (natürlich) farbmanagementfähigen Anwendungen heraus. Diese nutzen das während der Profilierung entstandene Monitorprofil, in dem insbesondere der Farbraum des Gerätes vermerkt ist (bei einem Matrix-Profil über die Primärfarben). In ungemanagten Anwendungen profitierst du nur von der Kalibrierung, die der Profilierung vorausging und den Monitor gemäß deinen Vorgaben (Weißpunkt, Gamma) "neutralisiert" hat. Der Farbraum des Gerätes bleibt damit unangetastet.


    Mit dem HP hast du leider keine Möglichkeiten, da etwas zu ändern. Die 6-Achsen-Farbkontrolle einiger Eizos erlaubt Eingriffe, alternativ ein vernünftiger sRGB-Modus, der auch tatsächlich den Monitorfarbraum begrenzt. Wenn es dann ganz bequem und flexibel sein soll, blieben noch die Eizo CG, die eine sehr umfangreiche Fabraumemulation mitbringen - wobei spätestens diese Geräte in einem ganz anderen Preisbereich angesiedelt sind.


    Ansonsten bliebe ein Display ohne erweiterten Farbraum. Zwar kannst du so nicht wirklich vernünftig z.B. in AdobeRGB arbeiten, aber dafür paßt die Darstellung von entsprechendem Content (sRGB) auch in nicht farbmanagementfähiger Software deutlich besser.


    Gruß


    Denis

    Grundsätzlich sprichst du da ein wichtiges Thema an, das bereits mit den Aufkommen von WCG-CCFL Hintergrundbeleuchtungen akut wurde (wenngleich es deutliche Unterschiede im abgestrahlten Spektrum zwischen einem WCG-CCFL und RGB LED Backlight gibt). Dennoch ist ein Colorimeter deswegen nicht gleich unbrauchbar. Auch wenn ich selbst damit bislang nur meinen LCD-TV mit "weißen" LEDs kalibriert habe: Mit dem DTP94 wirst du mit an Sicherheit grenzender Wahrscheinlichkeit keine Probleme haben. Samsung liefert ihre XL-Serie (RGB LED Backlight) sogar "ab Werk" mit dem i1Display 2 aus - ebenfalls ein Colorimeter.



    Gruß


    Denis

    Zitat

    jedoch: laut prad liegt deren kontrast bei 932:1, bei hingegen sind es gerade mal 329:1 - problem


    Der Schwarzpunkt von 0,42 cd/m² ist für den schlechten Kontrast verantwortlich. Das Backlight kann mehr (bzw. wenn man es genau nimmt, eben weniger ;) ). Schaut mir in Verbindung mit der Vorgabe "Min Neutral" danach aus, dass das Programm ihn künstlich angehoben hat. Wähle hier bitte einfach "so schwarz wie möglich" - eine sprachlich ähnlich geartete Auswahl sollte es auch in basICColor geben. Verringert auch Tonwertverluste weiter.


    Zitat

    stirnrunzeln bereitet mir aber, dass meine abweichung scheinbar kleiner zu sein scheint, als die des testmusters, dass prad selbst herangezogen hat:


    Wie gesagt, Profiltests haben eine sehr eng begrenzte Aussagekraft (welche - siehe mein vorletztes Posting).


    Gruß


    Denis

    Zitat

    oder spricht lediglich das vermeiden von stärkeren manipulationen der lut und damit mehr tonwertverlusten dafür?


    Eher das. Mußt eben schauen, ob du auf dem Desktop und in ungemanagten Anwendungen mit der Gradation glücklich wirst. Ansonsten würde ich als Ziel für die Kalibration ein Gamma von 2,2 empfehlen.


    Gruß


    Denis

    Da liegt der Fall etwas anders. Es wird sich hier um 1080i50 Material mit 2:2 Kadenz (d.h. 25 Frames/s, die in 50 Fields/s segmentiert wurden) handeln. Mit korrektem Deinterlacing können die 25 Frames/s verlustfrei wiederhergestellt werden. Für Blu-ray ist, neben 1080p24, auch 1080i50 und 1080i60 spezifiziert.


    Gruß


    Denis

    Zitat

    da ich nicht nach 2.2,
    sondern nach L* kalibriert hab)


    Der DELL hat ein natives Gamma von etwa 1,8. Du kannst natürlich, um Tonwertverluste so gering wie möglich zu halten, auf diesen Zielwert hin kalibrieren. In gemanagter Umgebung bekommst du trotzdem die Gradation des Quellprofils (das CMM sollte zudem dithern könnnen).


    Zitat

    Prinzipbedingt wird man (leichtes) Banding bei einem mit 8 Bit angesteuertem Monitor ohne Möglichkeiten zur Hardwarekalibrierung nicht völlig vermeiden können


    Panelansteuerung erfolgt auch bei den High-Endern im Regelfall mit 8-Bit pro Kanal - entsprechend wird am Ende gedithert. Vernünftig gemacht, was bei den Geräten der Fall ist, sieht es allerdings auch vernünftig aus.


    Zitat

    Was auch immer ich mir dafür kaufen kann


    Du weist zumindest, dass der Bildschirm keinen größeren Drift aufweist und die Grauachse neutral ist. Mit einem späteren Gegentest kannst du dann auch schauen, wann es Zeit für eine neue Kalibrierung/ Profilierung wird.


    Gruß


    Denis

    Zitat

    Wieso sagt ihr, es funktioniere eigentlich immer, um darauf das gegenteil zu behaupten?


    Habe ich das? Die Geräte können mit SV II hardwarekalibriert werden, aber nicht mit der europäischen Software (Spectraview Profiler 4). Ghostrider hat es doch auch schon gesagt: Nur für Spectraview Profiler 4, nicht für SV II, brauchst du die firmwareseitige Spectraview Ausführung.


    Nochmal klar und kurz:


    Beliebiger NEC aus der 90er Serie:


    Hardwarekalibrierbar mit SpectraView II (die US Software): Ja
    Hardwarekalibrierbar mit Spectraview Profiler 4 (die EU Software): Nein


    Zitat

    Was nützt mir denn dann die SpectraViewII-Software, wenn die möglichkeit einer direkten Hardwarekalibrierung herausgenommen wurde?


    Da ist nichts herausgenommen.


    Gruß


    Denis

    Zitat

    Jetzt liegt natürlich der Verdacht nahe, dass dieses Feature bei der europäischen "Professional"-Variante (um eben die nur hier erhältliche SpectraView-Reihe anzukurbeln) deaktiviert ist.


    Der Verdacht ist so alt wie die 90er Reihe. Mit SV II ging es bislang bei allen Modellen. Das gilt mit an absoluter Sicherheit grenzender Wahrscheinlichkeit auch für den 2490WUXi2.


    Gruß


    Denis