100Hz mit Eizo S1910 per DVI

  • Hi!


    In der aktuellen c't steht, dass man mit 100Hz eine geringere Verzögerung beim Bildaufbau von LCDs mit Overdrive erreicht. Jetzt wollte ich das Ganze mal testen, kann aber in Windows keine 100Hz einstellen.
    Daher meine Fragen: Kann der Eizo S1910 überhaupt 100Hz? Kann es er nur analog, oder auch via DVI?
    Wie stelle ich in Windows 100Hz ein? In den erweiterten Grafikoptionen kann ich selbst mit dem nVidia Refresh Tool bei "Override" nur Standard bzw. 60Hz einstellen...


    Ich will jetzt keine großartige Diskussion beginnen, ob und inwiefern die 100Hz was bringen. Ich glaube es selbst nicht so ganz und will es deswegen mal ausprobieren.


    Ich kann nämlich eine gewisse Verzögerung bzw. Bewegungsunschärfe des S1910 im Vergleich zum CRT feststellen - was mich aber nicht weiter stört, ist ja bauartbedingt. Aber eine gewisse Verbesserung in der Hinsicht durch die 100Hz fände ich schon nicht schlecht ;).

  • Lies Dir den Artikel bitte nochmal genau durch. Entweder ist da von einer besonderen Technik wie "Black Frame Insertion" die Rede, die Dein Monitor noch nicht unterstützt, oder Du hast was falsch verstanden. TFTs arbeiten in der Regel nur mit 60 Hz, einige auch mit 75 Hz.

    We're all mad in here...

  • Wie gesagt, ob und inwiefern das mit den 100Hz stimmt weiss ich nicht - es ist auch kein Artikel, sondern ein Leserbrief, der allerdings bestätigt wird. Grob geht es darum, dass GraKa und Display ja mit unterschiedlichen Frequenzen arbeiten (also unabhängig). Wenn man die GraKa jetzt auf 100Hz stellt (optimal wären natürlich 120Hz), so "überlagern" sich beide Frequenzen entsprechend öfter und die Overdrive-Technik kann entsprechend schneller das Bild aufbauen.
    So gibt es weniger "Lag".

  • Honk? Kannst Du den CT Leserbrief samt Antwort bitte mal hier reinsetzen? Bildschirm und Grafikkarte arbeiten normalerweise immer mit der gleichen Frequenz. Sobald die Grafikkarte eine Frequenz liefert, die der Bildschirm nicht beherrscht gibt es eine "Out of Sync" Meldung und das Bild bleibt Schwarz.

    We're all mad in here...

  • Es gibt einen Samsung LCD TV mit 100Hz (LE32M71B)
    Der hat aber auch einen Chip der aus 2 aufeinanderfolgenden Bildern eins dazwischen berechnet deshalb wird aus 50H --> 100Hz
    Dann gibt es von Benq "BFI"


    Wenn dein TFT aber diese Techniken nicht unterstützt ist es einfach nicht möglich 100Hz darzustellen...da hast du was falsch verstanden.

  • Ok, ich versuch ihn mal halbwegs gut und gekürzt wiederzugeben:


    "[...] Bei normalen Displays wird das Signal s(t) mit einer Displayantwortfunktion h(t) gefaltet. Bei Overdrive schaltet man die Funktion h'(t) zwischen, die die zeitlichen Verzögerungseffekte von h(t) kompensiert. Das Problem bei dem Vorgehen ist, dass die Pixel auf Grund der unterschiedlchen Gruppenlaufzeiten der einzelnen Frequenzbestandteile zu verschiedenen Zeitpunkten den gewünschten Effekt erzielen. Allerdings kann man im digitalen Filter die Gruppenlaufzeit vereinheitlichen, indem man zukünftige Werte in die Berechnung mit einbezieht. Da es in der Realität keine zukünftigen Werte gibt, bedient man sich eines Tricks: man führt einen Puffer ein. Genau diesen Puffer haben Sie mit Ihren Messungen nachgewiesen [gemeint ist der Lag, der durch manche Overdrive-Techniken entsteht, siehe c't 36/06, S. 38].
    Vielleicht ist dieser Puffer ja auch im Signaleingang und nicht im Ausgang, sodass es eventuell sinnvoll ist, die Grafikkarte auf eine höhere Bildwiederholrate einzustellen. So wäre es durchaus sinnvoll, die Karte auf 100 Hz Widerholrae einzustellen, obwohl das Panel nur 60Hz kann. Die Latenzzeit würde sich von 3 Bildern auf ca. 1,8 (30 ms) reduzieren."



    Die Antwort der c't ist Folgendes:


    "Tatsächlich ist die Latenzzeit geringer, wenn man eine höhere Bildwiederholfrequenz wählt, allerdings akzeptieren viele LCD-Monitore digital nur 60Hz."


    (aus c't 2/2007, S. 13, Leserbrief "Schneller Puffern")


    Jetzt bin ich trotzdem eine Diskussion eingegangen, inwiefern das funktioniert. Warum beantwortet niemand meine Frage, ob der S1910 100 Hz per DVI kann und, wenn ja, wie man das in Windows einstellt?


    Es geht nicht darum, dass der LCD 100 Hz _darstellt_, sondern dass die Grafikkarte 100 Hz _ausgibt_ und die Elektronik des LCDs das Signal so schneller verarbeiten kann, was zu weniger Lag führt - wenn ich das mit meinem gefährlichen Halbwissen richtig verstanden habe.

  • Zitat

    Es gibt einen Samsung LCD TV mit 100Hz (LE32M71B)
    Der hat aber auch einen Chip der aus 2 aufeinanderfolgenden Bildern eins dazwischen berechnet deshalb wird aus 50H --> 100Hz


    Korrekt, die Ansteuerung wird aber natürlich weiter mit 50/60Hz laufen. Diese Zwischenbildberechnung ist für jeden Cineasten übrigens die reinste Folter, hochwertiges Filmmaterial bekommt einen ganz üblen Videolook. Wer schon immer "Ben Hur meets Lindenstraße" sehen wollte, wird wohl damit glücklich werden.


    Zitat

    ob der S1910 100 Hz per DVI kann und, wenn ja, wie man das in Windows einstellt?


    Kann er nicht. Würde in Sachen SingleLink Interface und 165MHz Bandbreite auch schon langsam knapp werden. Gäbe zudem ganz üble Ruckler, wenn intern dann wieder auf 60Hz Panelfrequenz (die ist bei Computer-LCDs meistens fix) umgerechnet würde.
    Übrigens wird auch das 100Hz Samsung Gerät wie gesagt ganz normal angesteuert. PAL über die Videoeingänge also mit 50Hz. Keinesfalls @100Hz. Die Zwischenbilder erzeugt die Elektronik - ein rein interner Vorgang.


    Gruß


    Denis

    Gruß


    Denis

  • Hi Chris,


    hört sich alles sehr interessant an, würd mich freuen wenn du dran bleibst.
    Vieleicht kommen ja noch ein paar hilfreichere Antworten.


    Man sollte aber nicht vergessen, jede Komponente hat irgendwo ein Lag wenn auch sehr kurz.
    Es gibt noch 2 recht nützliche Arten Lag zu minimieren sofern man das so nennen mag.
    Einmal die Maus und der USB Port, der Läuft normalerweise auf gerademal 125HZ, dabei kann man die Maus bis auf 1000HZ hochjagen.
    Bei Leuten die keine Schlieren sehen können, mag das vieleicht nicht zu treffen!
    Für Spieler bringt das einen spürbaren Vorteil aber auch beim Arbeiten merkt man den angenehmen Unterschied.
    Die Grafikkarte hat auch eine Latency (AGP Latency) die i.d.R. bei 255 liegt,
    ein herabsetzten soll Lags und Frameeinbrüche minimieren, falls deine Idee also doch Funktionieren könnte und dabei Probleme auftretten könnte das eine Lösungsansatz sein.
    Auf unter Tips und Tricks findest du alles ötige für die 2 Optimierungen.

  • Ab jetzt wird hier aber mit buntem Halbwissen um sich geworfen. Wollen mal versuchen das wieder zu ordnen.


    Zitat

    "Tatsächlich ist die Latenzzeit geringer, wenn man eine höhere Bildwiederholfrequenz wählt, allerdings akzeptieren viele LCD-Monitore digital nur 60Hz."


    Wie hier auch etwas versteckt im zweiten Satz steht, kann man die Ausgabefreqzenz der Grafikkarte nicht höher wählen, als die Maximalfrequenz die der Monitor akzeptiert! Es gibt viele TFTs, die zumindest analog 75 Hz akzeptieren, und es einige, die auch digital 75 Hz akzeptieren. Aber es gibt nur wenige, die auch tatsächlich dann 75 Hz darstellen (z.B. der Viewsonic VP930). Die anderen stellen meistens trotzdem nur 60 Hz dar, und verwerfen einfach jedes fünte Bild. Dadurch gibt es keine Verbesserung der Latenzzeit!


    Was die CT meint ist, dass wenn man die tatsächliche vertikale Bildfrequenz erhöht, also den Monitor tatsächlich mit 75 oder 100 Hz betreibt, der Overdrive Lag geringer wird, da Overdrive 1 - 3 Frames/Bilder zur Vorausberechnung puffert. Während bei 60 Hz ein Bild 16,66 ms dauert, sind es bei 75 Hz 13,33 ms und bei 100 Hz 10 ms, entsprechend wird der Lag geringer (3 Bilder bei 60 Hz = 50 ms, 3 Bilder bei 100 Hz = 30 ms).


    Die Aussage der CT ist somit eher theoretischer Natur, da in der Praxis die Geräte fehlen, die das auch anbieten. Zudem stellt es eigentlich keine adequate Lösung dar. Monitore wie der VX922 beweisen, dass man schnelles Overdrive auch ohne großen Bildpuffer bewerkstelligen kann. Laut Behardware.com liegt dessen Lag bei 0 - 1 Frame, und im Durchschnitt unter 1 Frame. Ich empfehle dazu folgenden Artikel bei Behardware:


    Zitat

    Original von grenSterEinmal die Maus und der USB Port, der Läuft normalerweise auf gerademal 125HZ, dabei kann man die Maus bis auf 1000HZ hochjagen. Bei Leuten die keine Schlieren sehen können, mag das vieleicht nicht zu treffen! Für Spieler bringt das einen spürbaren Vorteil aber auch beim Arbeiten merkt man den angenehmen Unterschied.


    Dazu sollte man wissen, dass 125 Hz einer Latenz/Verzögerung von maximal 8 ms entspricht, sie kann aber auch 0 ms lang sein. Der USB Port fragt die Maus nämlich exakt alle 8 ms ab, die Verzögerung zwischen Bewegung und Abfrage ist aber immer unterschiedlich lang (aber maximal 8 ms). Relevant sind dabei nur Richtungs und Geschwindigkeitsänderungen (sprich Beschleunigung), bewegt man die Maus einigermaßen gleichmäßig in eine Richtung ist die Latenz unrelevant. Und ändert man die Richtung, dann wird man das im Durchschnitt irgendwo zwischen zwei Abfragen machen, die Latenz ist dann nur so lang, bis die nächste Abfrage kommt.


    Eine Erhöhung der USB Frequenz auf 250 Hz ist noch einigermaßen sinnvoll. Darüber wird die CPU bei jeder Mausbewegung aber schon deutlich mehr belastet, was am Ende wieder die Framerate in CPU intensiven Spielen drückt.

    Zitat

    Die Grafikkarte hat auch eine Latency (AGP Latency) die i.d.R. bei 255 liegt, ein herabsetzten soll Lags und Frameeinbrüche minimieren, falls deine Idee also doch Funktionieren könnte und dabei Probleme auftretten könnte das eine Lösungsansatz sein.


    Sorry, aber: Humbug! ;)
    Gemeint ist hier die PCI-Latency, welche bei AGP-Karten vom Treiber tatsächlich oftmals auf 252 (nicht 255) gesetzt wird. Das ist aber [u]keine[U] Verzögerung der Grafikkarte, im Gegenteil. Gemeint ist hierbei, wie lange ein einzelnet PCI-Gerät (in diesem Fall die Grafikkarte) den PCI-Bus für sich alleine belegen darf, bevor andere PCI-Karten auch mal wieder dürfen. Maximum ist 255, gemessen wird immer in Taktschlägen. Je höher der Wert, umso länger darf das entsprechende Gerät den PCI-Bus nutzen bzw. "blockieren". Hierbei handelt es sich allerdings um einen Maximalwert, wenn das Gerät also früher fertig ist, dann gibt es den Bus auch wieder frei. Es ist allerdings sehr sinnvoll diesen Wert für die Grafikkarte auf 64 oder 32 zu senken, und zwar damit die Soundkarte und andere Systemteile besser zum Zuge kommen. Dadurch gibt es weniger Tonaussertzer und Spiele laufen evtl. schneller, da die Soundkarte schließlich auch mal ran muss, und ihren Teil dann auch in kleineren Happen zur CPU schieben kann, statt in großen Brocken (wodurch die CPU Last ungleichmäßig verteilt wird). Da auch der USB-Port ein PCI-Gerät ist, kann es zudem durchaus sein, dass die Grafikkarte diesen mit ausbremst, wenn sie den Bus zu lange belegt. Für PCI-E gilt das übrigens nicht!


    Es gibt aber tatsächlich eine Grafikkarten-Einstellung, die man optimieren kann. Die Grafikkarte berechnet nämlich mehrere Bilder im Voraus, während sie das aktuelle anzeigt. Da sie genauso wie Overdrive nicht in die Zukunft sehen kann, muss sie dafür natürlich schon die nötigen Informationen haben und puffert entsprechend viele Bilder zwischen. Das Spiel ist also evtl. schon weiter, als die Grafikkarte anzeigt. "Evtl." deshalb, weil es sich auch hierbei um einen Maximalwert handelt. Standardeinstellung bei Nvidia-Karten sind 3 Bilder bei DirectX und 2 Bilder bei OpenGL. Bei OpenGL kann man keinen niedrigeren Wert einstellen, bei DirectX berichten aber einige Leute von flüssigerem Spiel. Zumindest unter dem Windows Desktop kann man das leicht nachvollziehen. Stellt man den Wert sehr hoch ein, bemerkt man deutlich den Lag (der Mauszeiger reagiert deutlich später nachdem man die Maus bewegt). Ein Wert von 1 oder 2 ist hier ganz gut, 0 dürfte zu Einbrüchen bei der Framerate des Spiels führen. Einfach mal selbst probieren.


    Die entsprechende Einstellung heißt bei NVidia "Max. Bilder im Voraus rendern", und findet sich unter den Weiteren 3D-Einstellungen, die man vorher per "Coolbits" freischalten muss (Google fragen). Siehe dazu auch das angehangene Bild.

  • Chris meinte, soweit ich das verstanden habe nicht den TFT selbst, eher eine Art CS Netcode für die Grafikkarte.
    Wie das genau funktionieren soll weiss ich nicht, aber der Ansatz ist mehr als Diskussionswürdig.


    Fakt ist meine beiden Tips zur optimierung bringen Verbesserungen!
    Wer dazu etwas mehr lesen möchte dem sei ans Herz gelegt!
    Vieleicht ist meine Erklärung zu kurz geraten und auch nicht 100% genau, das ändert aber nichts an den Tatsachen!
    Für solche Diskussionen gibt es geeignetere Foren in denen die Themen schon besprochen wurden.


    Die Cpulast meines AMD Barton 2500+ bei 1000HZ=1MS Betrieb ist eher zu vernachlässigen, der Vorteil daraus überwiegt eindeutig, gerade bei spielen.
    Und wer hat heute noch sone Gurke wie ich?


    Es lässt sich vieles optimieren, Windows, Bios, Treiber... überall lässt sich ne Ecke rausholen... dumm nur wenn man bei allem ne Ecke frei hat und nun auf einen TFT umgestiegen ist.


    Discount BFI^^ liese sich ja auch teilweise mit heutigen TFT´s bewerkstelligen, man nehme 1 Drittel schwarzes Bild pro Frame (1. unten, 2. mittig, 3. oben, wie auch immer), wir hätten also bei jedem 3. Frame einmal den Bildschirm abgedeckt.
    Wie das in der Praxis aussieht weiss ich nicht, aber jede Entwicklung die Verbesserungen mit sich bringt sollte man unterstützen und im Fall eines Mangelhaften Resultats wieder verwerfen...

  • Zitat

    Original von grenSterChris meinte, soweit ich das verstanden habe nicht den TFT selbst, eher eine Art CS Netcode für die Grafikkarte.
    Wie das genau funktionieren soll weiss ich nicht, aber der Ansatz ist mehr als Diskussionswürdig.


    Nein, ich denke es geht nicht um Counterstrike Netcode, sondern darum, dass durch das Zwischenpuffern mehrerer Bilder bei Overdrive Monitoren eine Verzögerung zwischen Bildausgabe und Bilddarstellung auftritt (am besten zu erkennen beim direkten Vergleich mit einem CRT). ;)


    Und dass ein Herabsetzen der PCI-Latency zu flüssigerem Spiel führt, habe ich selbst beschrieben. Und die Ursache liegen darin begründet, dass die Grafikkarte bei hohem PCI-Latency Wert zuviel Buszeit für sich beansprucht, und somit den Rest des PCs ausbremst.


    Zitat

    Die Cpulast meines AMD Barton 2500+ bei 1000HZ=1MS Betrieb ist eher zu vernachlässigen, der Vorteil daraus überwiegt eindeutig, gerade bei spielen.


    Das kann ich bei meinem auf auf 2670 MHz übertaktetem Athlon 64 nicht bestätigen. Bei 1000 Hz USB-Rate steigt die Prozessorlast bei einfachen Mausbewegungen auf dem Windows-Desktop um locker bis zu 13%. Je niedriger die USB-Rate, umso weniger hoch der Anstieg. 250 Hz = 4 ms maximale Latenz halte ich für einen guten Wert, 500 Hz = 2 ms maximal sind auch noch ok, da macht sich die CPU Last aber schon deutlicher bemerkbar. Viele Mäuse arbeiten bei 1000 Hz sowieso nicht mehr, und bei Funkmäusen braucht man garnicht erst anfangen, die übertragen bei jeder Einstellung je nach Funktechnik maximal 125 Hz auf der Funkstrecke (z.B. Logitech Mäuse).

    We're all mad in here...

    Einmal editiert, zuletzt von Timur ()