Posts by Timur

    If I saw your point right then this kind of problem usually is not showing distorted geometry of the panel, but uneven lines of the bezel. It simply shows how bezels are made of plastic. They ain't straight! 8)


    You can try to hold a good linear to panel display field to see if it's geometrically correct. If you came from a CRT you might also think your TFT is geometrically distorted since your eyes/brain are still used to the distorted CRT image.

    Quote

    Original von SaphodWenn das so ist, was bedeuten dann solche Aussagen in den Tests, wie:
    Feinste Farb- und Grauverläufe werden sauber dargestellt. Oder, ...perfekter Grauverlauf..
    Oder folgendes aus dem Test des Eizo S1931: ...sind die nicht ganz präzisen Übergänge sichtbar...Dies dürfte bei einem TFT mit 10 Bit LUT eigentlich nicht der Fall sein.


    Man muss zwischen fließenden Farb- und Grauverläufen und "sauberen" Abstufungen unterscheiden. Oftmals sind Grauverläufe farbstichig, so dass einzelne Abstufungen stark hervortreten (z.B. durch einen Rotstich). Zudem kommt jeder Monitor mit einer anderen nativen Gammakurve daher, und die hat einen starken Einfluss auf die Verläufe.


    Über das Thema wurden ganze Bücher geschrieben, deshalb kann ich nur grob antworten.


    Quote

    Ich verstehe das so, dass es wohl möglich ist Grau- und Farbverläufe ohne Stufen hinzubekommen. Vor allem mit 10 Bit LUT.
    Sehe ich das richtig?


    Jein! Grauverläufe sind immer an einer Stelle stärker "komprimiert" als an den anderen, das liegt am gewählten Gammawert. Da nur 256 Abstufungen vorhanden sind, und das menschliche Auge die Abstufungen im hellen Bereich weniger gut unterscheiden kann, werden sie im dunklen Bereich immer stärker auffallen. Allerdings hängt von der Gammakurve ab, wieviele Abstufungen für den dunklen und mittlerem Bereich genutzt werden. Ein kleinerer Gammawert nutzt in der Regel mehr Abstufungen im dunklen Bereich (sofern er auf Hardwareebene und nicht durch Softwarekalibrierung zustande gekommen ist), wirkt dafür aber insgesamt heller. Viele Monitore stellen den dunklen Graubereich im Vergleich zu sRGB etwas zu dunkel dar, da sie eine normale Gammakurve nutzen (ca. 2,2), sRGB die dunklen Grautöne aber etwas anhebt, während der Restverlauf sich danach stark an Gamma 2,2 angleicht.


    Welche Gammakurve jetzt dem menschlichen Empfinden eines gleichmäßigen Verlaufs am nächsten kommt, darüber streiten sich die Geister und vor allem Farbexperten. Das wichtigste an der ganzen Gamma-Geschichte ist, dass der mittlere Grauton (RGB 128 ) möglichst halb so hell erscheinen soll, wie das hellste Weiß, dazwischen ist alles möglich. Ein Monitor muss in erster Linie sRGB darstellen können, und dessen Grauverlauf ist nicht ganz fließend, sondern so gewählt wie Monitore im Schnitt in der Lage sind es darzustellen (kleinster gemeinsamer Nenner)! Wenn also ein Monitor die Graustufen sehr "schön" fließend darstellt, dann ist das noch lange nicht korrekt, sondern kann arg daneben liegen. Sieht dann zwar im Grauverlauf toll aus, stellt Fotos/Bilder im Internet und Filme aber falsch dar. Zudem funktionieren nicht nur die Augen verschiedener Betrachter anders, sonder das ganze hängt noch von der gewählten Helligkeit und dem Umgebungslicht ab. Je dunkler der Raum umso besser kannst Du dunkle Stufen unterscheiden, im gleißenden Licht bleibt nicht viel, da Deine Augen sich auf die höhere Helligkeit umstellen.


    Nutze zum Testen Deiner Farbverläufe mal folgendes Tool und stelle dort als Auflösung 1280 x 1024 oder benutzerdefiniert 1536 x 1200 ein, wähle den Punkt Graustufen/Farbbrillianz.


    Übrigens noch ein Grund, warum die Verläufe am CRT besser aussehen ist, dass man dort kleine Auflösungen nutzt. Schau ihn Dir mal bei 1024 Breite an, da sind die einzelnen Stufen nur noch 4 Pixel breit, während sie bei 1600 6,25 Pixel breit sind (was natürlich nicht aufgeht, deshalb wird's nochmal unschöner).

    Wir arbeiten noch daran die neuen Methoden zu vereinheitlichen, zumal noch nicht alles voll ausgearbeitet ist. Der sRGB Modus der meisten Monitore liegt leider deutlich daneben. Das ist wiederum ein Grund, warum wir sowohl die Werkeinstellungen mit sRGB vergleichen, als auch einen evtl. angebotenen sRGB-Modus. So können wir den Lesern angeben, welches näher an sRGB liegt, sofern überhaupt. Das liegt bei uns alles noch in den Anfängen, was daran liegt, dass ich diese Testpunkte mit meinem Einstand bei PRAD gerade erst eingeführt habe. ;)


    Im anderen 2690 Thread wird allerdings vom Userbericht hervorgehoben, dass der 2690 sehr gut vorkalibriert scheint.

    Quote

    Original von strauchDas Problem an den Softwarelösungen ist, das man dadurch den Farbraum nicht feststellen kann, sondern nur "Farbstiche" entfernt bekommt, das ganze auf eine Farbtemperatur bringt und Gammaeinstellen kann.


    Das ist auch ein Grund, warum wir Monitore in PRAD Tests jetzt zumindest mit dem sRGB Farbraum, Temperatur und Gamma vergleichen, und dort wo angebracht evtl. noch mit größeren Farbräumen. Das ist zwar eigentlich für jede Gerät nur individuell bestimmbar, die Unterschiede beim Gamut innerhalb einer Serie sollten aber eher gering sein, da sie für die Primärfarben hauptsächlich von der Hintergrundbeleuchtung und der Filtermaske des Panels bestimmt werden.


    Ein Monitor ohne Widegamut sollte als kleinsten gemeinsamen Nenner den sRGB Farbraum möglichst gut wiedergeben. Je näher er dran ist, umso besser ist er für Nutzer ohne Kalibrierungshardware zur einfachen Bildbearbeitung geeignet. Wenn Gamut und Gammakurve einigermaßen stimmen, dann ist die Wahrscheinlichkeit schon recht hoch, dass auch die Farbverteilung innerhalb des Farbraums ganz gut hinkommen. Dabei hilft dann evtl. auch schon die Softwarelösung und ein einigermaßen geschultes Auge, ohne hinterher noch ein Profil erstellen zu müssen. Man geht dann einfach von sRGB aus, so war's ja auch mal gedacht.

    Quote

    Original von strauchNein kann man nicht, wie soll das bei einem Messgerät funktionieren? Ich dachte immer die chromatische Adaption wäre die Anpassungsfähigkeit des Auges "für" den Weißabgleich? Oder was verbirgt sich hinter der Option. Das problem beim Spyder ist aber auch nicht der Weißabgleich. Ok 6500K des Eyeone sind keine 6500 beim Spyder, aber das Hauptproblem ist das der Farbraum verschoben ist.


    Die "chromatische Adaption" die ich meine bezieht sich auf die Profilerstellung der Kalibrierungssoftware, nicht die Adaption des Auges. ICC Profile gehen grob erklärt immer von 5000K Farbtemperatur aus, so dass alle Farbräume mit anderen Weißpunkten (6500K) umgerechnet werden müssen (lasse mich da gerne nochmal genauer aufklären, bin ja kein Grafiker). Da eine reine Zahlenmrechnung für das menschliche aber nicht unbedingt die besten Ergebnisse liefert, gibt es verschiedene Umrechnungsmethoden. Gängige sind CAT02, Bradford und van Kries. Jede von diesen führt zu einem anderen leicht Profil und entsprechend zu einer etwas anderen Farbraumdarstellung.


    Erstelle ich etwa mit dem Eye One Display II und IColor Software ein Profil des gleichen Monitors mit verschiedenen chromatischen Adaptionen, so unterscheiden sich die Farbräume leicht in Größe (kubische Einheiten) und Ausdehnung, und zwar immerhin im einstelligen Prozentbereich.


    Es wäre ja durchaus möglich, dass die Software verschiedene chromatische Adaptionen anbietet, und evtl. bei einzelnen falsche Algorithmen nutzt, während andere zu keiner so starken Verschiebung des Farbraums führen, wie hier berichtet wurde.

    Lass Dir doch den 2490 importieren! :D


    Ansonsten könntest Du mal nach einem Viewsonic VP2290 oder IBM T221 Ausschau halten, beide mit 202 PPI sprich 3840 x 2400 ausgestattet... Aber Scherz beiseite, die Eizo CG Serie ist auch nicht zu verachten. Dort gibt es den 22" CG221:


    Adobe-RGB-Farbraum
    3D-Look-Up-Table mit Digital Uniformity Equilizer
    12-Bit-Look-Up-Table und 16-Bit-Rechengenauigkeit
    Hardware-Kalibrierung von Helligkeit, Weißpunkt und Gamma
    1920 x 1200 Bildpunkte, 16:10 Bildformat


    Da wären wir aber wieder bei Geldbeträgen die der oben genannten Eizo Röhre entsprechen, dann doch eher den 2490 importieren.


    Du könntest den 30" HP zu nehmen und die seitengerechte Interpolation (Igitt!) über den Grafikkartentreiber laufen zu lassen? Wozu musst Du überhaupt interpolieren? Falls für Spiele, dann bietet sich die Treiberoption sowieso an, da die Interpolation über den Monitor in der Regel 1 Frame Latenz verursacht. Ansonsten lass Dir noch 'ne 8800 GTX oder kommende R600 schenken. 8)


    Mit meinem VP2330 (23" bei 1920 x 1200) samt weniger rauhen Entspiegelung bin ich bildmäßig sehr zufrieden. Allerdings eigenet er sich zur Bildbearbeitung nur bedingt bzw. braucht unbedingt eine Kalibrierung, da der Blauanteil über den gesamten Grauverlauf zu stark ist, obwohl der Weißpunkt eher etwas zu warm ist (siehe Bild 1). Im PRAD Test war er wohl farbneutraler (Bild 2), wobei er dort auf Gamma 2,2 und bei mir auf Gamma sRGB eingestellt wurde. Da er aber mit ziemlicher Sicherheit 8 Bit + FRC nutzt, kann man da noch verlustfrei an den Farbkanälen drehen. Die Blickwinkel zu den Seiten führen aber bereits zu erkennbaren Aufhellungen, das gilt aber wohl für alle VA Panel dieser Größe.


    Für Office Arbeiten ist er super, für Spiele mit nur 1 Frame Latenz ganz gut, schliert aber dafür bei dunklen Farben/Schwarz erkennbar. Das sieht man auch beim weichen Scrollen. An den Farbraum des NEC kommt er nicht im Traum heran. Dafür ist die Interpolation frei wählbar und hervorragend: Qualität entspricht Bikubischer Vergößerung in Photoshop, Schärfe in 4 Schritten einstellbar, und ist deutlich besser als die vergleichsweise unscharfe Interpolation des Nvidia Treibers.

    According to that comparison the L194WT has better viewing angles, a slightly higher ppi (dpi) and costs less. It also offers HDCP and a sRGB profile (though those are often badly calibrated anyway). Video will have the advantage of stretching better to 16:10 than 5:4 (smaller black borders).


    On the other hand the L1970HR displays slightly more pixels (14720, not really a big difference) and in case you're playing lot's of 4:3/5:4 games (like Battlefield) you will have a smaller picture with black borders on the widescreen display.


    It all depends on what you're gonna do with it.

    Das muss natürlich jeder nach seinem Gusto entscheiden. Aber im Lichte aktueller Browser hinkt das Argument mit den Webseiten etwas.


    Die von Dir verlinkte Boulevard ;) Seite Shortnews nutzt in der rechten Spalte eine 11 Punkt große Schrift. 0,30 mm Pixelgröße zu 0,25 mm entspricht etwa 120% größeren Pixeln/Schriften.


    Folgende Bilder zeigen die rechte Spalte ohne Kantenglättung in Opera:


    1. In Orginaldarstellung bei 100% Zoom mit 11 Punkt Schrift.
    2. Bei 100% Zoom mit 13 Punkt Schrift, bei Einstellung "Kleinste Schriftgröße" 13 Punkt. Der Kasten um die Schrift wächst nicht in der Breite mit.
    3. Bei 120% Zoom mit 11 Punkt Schrift. Der Kasten um die Schrift wächst in der Breite mit.


    Wie man nach meiner Meinung sieht, werden bei den größeren Schriften sowohl die Buchstabendetails als auch die Buchstaben- und Wortabstände detailreicher und besser lesbar. Obwohl durchaus richtig ist, dass Truetype Fonts nicht bei allen Schriftgrößen gleich gut ausgeformt sind, halte ich größere Schriften/Zoomeinstellungen im Browser bei höherer Pixeldichte deshalb für weniger anstrengend und somit ergonomischer.


    Für Schriften sehe ich so keine Probleme. Bei Nutzen der Zoom Funktion können Bilder allerdings unschön aussehen, deshalb bevorzuge ich nachwievor "Kleinste Schriftart" im kleinen Rahmen (8 - 12 Punkt machen selten Probleme) und PPI Einstellungen auf 102% (entspricht den 98 ppi meines Monitors). Hauptproblem bleibt unzureichende Software! Die Hersteller werden aber keine schnelle Besserung bringen, wenn sie erfahren, dass sich die Leute weiterhin Monitore mit miesen Pixeldichten kaufen.

    Als erstes solltest Du den Grauverlauf nicht über die volle Fläche beurteilen, 1600 Pixel lassen sich nämlich nicht sauber durch 256 Graustufen teilen. Nimm 1536 oder 1280 Pixel breite Grauverläufe.


    Dann bedenke, dass tatsächlich nur 256 Graustufen aus Deiner Grafikkarte heraus kommen! Die Übergänge sind also tatsächlich so vorhanden, Dein CRT hat sie nur in Unschärfe und Dunkelheit verschluckt.


    Zu guter Letzt musst Du wissen, dass verschiedene Gamma-Einstellungen verschiedene Bereiche des Grauverlaufs hervorheben. Wenn Dir die dunklen Grautöne zu stufig (grob aufgelöst) sind, dann versuche einen anderen Gammawert per OSD-Menü einzustellen. Der S2100 erlaubt Werte von 1,8 bis 2,6. Dank 10 Bit LUT verlierst Du dabei keine Farben, kannst also nach Gusto daran drehen. Allerdings arbeitet sRGB (Internet, HDTV, Windows im Allgemeinen) mit einem Gammawert von ca. 2,2. Wenn Du den Gammawert also stark änderst, ist die Darstellung nicht mehr "korrekt". Ich empfehle bei Gamma 2,2 oder sogar 2,0 zu bleiben, und erstmal eine Weile real mit dem Monitor zu arbeiten.


    Danach kannst Du immer noch über den Sinn von ganzflächigen Grauverläufen in der Praxis nachdenken, oder Dir besser einen günstigeren Monitor kaufen! ;)

    Cleartype funktioniert sowohl unter Windows allgemein als auch im Adobe Reader (nutzt eine eigene Umsetzung) wunderbar, sofern das Display nicht farbstichig eingestellt ist, und die Pixelgröße nicht zu groß ist bzw. der Arbeitsabstand zu klein. Ich nutze es ständig und weiß die Vorzüge vor allem bei PDF Darstellung sehr zu schätzen.


    Die neue "Segoe UI" von Vista ist zudem nochmal besser auf Cleartype optimiert und liest sich sehr gut. Unter Windows XP muss man allerdings verbotene Wege gehen, um an die Schriftart heranzukommen. Zu den Lizenzbedingungen von Vista gehört nämlich auch, dass die enthaltenen Mediendateien (Schriften, Audio- und Bilddateien) nicht weitergegeben werden dürfen. Es stellt sich allerdings die Frage, ob das auch in Deutschland mit dem Recht zur "Privatkopie" vereinbar ist. Denn Drucksachen (Teilkopie), Audio- und Videomaterial dürfen schließlich immer noch privat an Freunde und Verwandte weitergegeben werden, solange dazu kein Kopierschutz umgangen werden muss. Ich weiß es aber leider nicht genau, und bin froh, dass sich noch kein Gericht damit beschäftigen musste. Zumal, wenn man bedenkt, dass Microsoft die Segoe UI im Grunde von "Frutiger Next" kopiert hat, und sie dann noch als eigene Schrift patentieren lassen wollte.


    Unter folgendem Beitrag findet man einen Vergleich der Tahoma und der Segoe UI mit und ohne Kantenglättung (Standard und Cleartype). Man kann sich das auf jedem TFT ansehen, ohne Cleartype aktivieren zu müssen.


    Schriftenvergleich: Tahoma (XP) vs. Segoe UI (Vista)

    Quote

    Original von Try2fixitAber ich müsste dann jedesmal alles groß frickeln um vernünftig ohne Anstrengung arbeiten zu können. Zudem habe ich festgestellt, daß z.B. Mozilla, wenn ich dort die Schriftgröße erhöhe häufig das Design und den Schriftsatz von Webseiten verändert, so daß Schrift teils außerhalb von Kästen steht, obwohl sie eigetlich darin sein sollte.


    Das muss man natürlich nur einmal machen, nicht "jedes Mal". ;) Und aktuelle Browser sollten eigentlich in der Lage sein entweder die Schrift einzeln, oder eben die ganze Webseite zu skalieren. Gerade bei letzterem passen dann auch alle Schriften in alle Kästen. Ich selber nutze Opera mit der Option "Kleinste Schriftgröße". So bleiben alle größeren Schriften unangetastet (und passen entsprechend weiterhin ins Layout), die kleinen werden aber auf diese "kleinste Schriftgröße" raufgesetzt. Das gibt es auch im Firefox, von anderen Browsern weiß ich es leider nicht.

    Viewsonics VP Serie bietet in Zusammenarbeit mit der mitgelieferten PerfectSuite Software (PivotPro) Autopivot. Der Monitor meldet also an den PC, dass er gedreht wurde, und die Software schaltet automatisch um. Sehr nützlich, da die Hürde Pivot auch mal zu nutzen kleiner ist. Beim 19" habe ich das regelmäßig genutzt, beim 20" ab und zu. Seit dem 23" nutze ich Pivot aber kaum noch, zumal Cleartype im Pivot nicht gut funktioniert.

    Ambilight macht nach meiner Erinnerung einen leuchtenden/farbigen Lichtkasten rund ums Bild. Das entspricht eh nicht genau dem, was das "Lamperl" hinter dem Fernseher bewirken soll. Nämlich die gesamte Umgebung des Fernseher indirekt zu erhellen, um den Kontrast der hellen Bildfläche zum dunklen Zimmer zu entschärfen, ohne den Zuschauer direkt zu blenden, oder Reflektionen auf der Mattscheibe zu produzieren.

    Bei gleichen Kontrastangaben und gleicher Leuchtdichte (Cd/m²) sollten beide gleich sein. Nur die winkelabhängige Verfärbung sieht unterschiedlich aus, IPS eher ins violette, VA eher ins gräulich/blaue bei größeren Blickwinkeln.

    Wenn Du bei 800 x 600 interpoliert spielst, dann kannst Du immer noch versuchen die Interpolation des Grafikkartentreibers zu nutzen. Ich weiß aber leider nicht, wie die Funktion bei ATI-Treiber heißt. Wenn Du sie gefunden hast, dann überprüfe mal die Auflösung im OSD des Monitors. Er sollte dann trotz 800 x 600 die native Auflösung von 1680 x 1050 anzeigen, da der Treiber im ein bereits vergrößertes Bild zuspielt. Dadurch gewinnst Du in der Regel 1 weiteres Frame. Also nochmal zusammengefasst: TrippleBuffering + Interpolation = 2 Frames = 33 ms weniger Latenz.

    Quote

    Original von FlashBFEEntschuldigung, wenns OT ist, aber da wage ich mal zu widersprechen.
    Es gibt bei der Fotomessung zwei Fehler, die man machen kann:
    Man hat keine gute Kamera und man macht zuwenig Messungen.


    Die Messungen sind selbst mit einer guten Kompaktkamera machbar, sofern man weiß, wie man es anstellen muss. Die Kamera ist auch nicht das eigentliche Problem!


    Die Anzahl der Messungen ist bei dieser Messmethode sehr relevant, um einen brauchbaren Durchschnitt/Mittelwert zu erhalten, und genau hier liegt das Problem. Die Abweichungen innerhalb der Messreihe sind sehr groß. Ich hatte mich immer gefragt, wie die starken Abweichungen der ganzen Messungen im Netz zustande kommen, sprich ob es an der Hardware liegt oder an der Messung. Mittlerweile weiß ich, es liegt an der Messung. Sieh Dir bitte mal unseren Test zum Eizo S2111W an, dort wurde ein Messdiagramm mit 30 Messungen genutzt. Der Mittelwert dürfte in etwa mit der tatsächlichen Latenz übereinstimmen, aber die Ausbrüche nach oben und unten würden von Lesern falsch interpretiert. Deshalb machen wir diese Messungen in Zukunft anders und präziser. Dabei ist aber noch mehr zu beachten als nur die Kamera und Messmethode. Zum Beispiel spielt es eine Rolle, ob beide Geräte im Klonbetrieb mit der gleichen "Timing-Formula" angesprochen werden können. Wenn nicht, dann laufen sie nämlich nicht synchron!


    Quote

    Wenn ihr natürlich nen Oszi zur Verfügung habt, braucht ihr keinen teuren Fotoapperat mehr. Aber da würde mich mal interessieren, wie ihr die erste Schaltflanke für das Signal vom Rechner abgreifen wollt. Aber selbst, wenn das technisch korrekt installiert ist, müssen hier genauso viele Messungen wie bei der Fotomethode gemacht werden, sonst ist das genauso aussagelos.


    Die CT nutzt Messungen per Oszillator. Man braucht wahrscheinlich zwei (synchronisierte) Geräte. Eines misst das Ausgabesignal der Grafikkarte, entweder im Kabelweg, oder im Klonmodus am anderen Ausgang der Karte. Das andere misst per Lichtsensor die tatsächliche Ausgabe, die Zeitverzögerung zwischen beiden entspricht der Latenz. Je nach Empfindlichkeit des Sensors (wie bei der Kamera) misst man dabei entweder die reine Latenz der Elektronik, oder die Pixelaufbauzeit gleich mit (das Auge nimmt diese mit als Latenz wahr, da der Pixel ja erstmal leuchten muss, bevor das Auge die Veränderung sieht). Alles nicht so einfach! 8)