Input-Lag bei TFT-Monitoren - allgemeine Diskussion

  • Zitat

    Originally posted by rinaldo
    Rein wissenschaftlich gesehen sind Latenzen bei Hand-Auge-Koordinationen unter 60 - 80 ms (= 4-5 Frames) nicht wahrnehmbar. Der Grund dafür, dass sie doch spürbar sind, liegt zumeist darin, wenn im System bereits Lags vorhanden sind, die sich zur Latenz des Monitors hinzuaddieren, sodass die Gesamtverzögerung spürbar ist.


    Und hier ist er: der Grund, warum die Latenzen eines Bildschirms doch bedeutsam sein können.
    Gerade bei niedrigen Frameraten (was jetzt nichts mit der Bildwiederholfrequenz des Displays zu tun hat, da Framedauer der Bildausgabeeinheit != Framedauer des Displays!) merkt man in Spielen oft eine Art "Gummibandeffekt"; aus diesem Grund hab ich bei mir mit dem Rivatuner auch die Vorausberechnung von Frames auf 1 runtergestellt (Standard sind glaub ich 2 oder 3), was die gefühlte Latenz doch deutlich reduziert. Natürlich muß man dabei eingestehen, daß die Framedauer mit sinkender Bildwiederholrate steigt, und 1 Frame Latenz eben nicht immer gleich lang sind. Gesellen sich da jetzt aber nochmal z.B. 30ms hinzu, so kann die Summe durchaus deutlich unangenehm auffallen.

  • Paul:
    Die Vorausberechnung und das LAG, was durch die Grafikkarte dort erzeugt wird (ich habe das vor Jahren auch mal extrem gemerkt), hat jedoch überhaupt nichts mit der Latenz des Monitors zu tun.
    Die Grafikkarte berechnet spekultativ Bilder für die Zukunft und gibt diese dann aus. Wenn sich plötzlich etwas im Spiel verändert hat, dann stimmen die Bilder natürlich nicht mehr. Das ist Dein Gummiband-Effekt (nebenbei bemerkt: Ein wirklich sehr guter Vergleich!).


    Als Physiker behaupte ich einfach mal, daß es im Netz viele Meßmethoden gibt, die absolut schwachsinnig sind. Oder einfach nur falsche Auswertungen und Fehler in der Durchführung.
    Ich erinner mich an einen Netzteiltest, wo die Spannungsspitzen außerhalb des Meßbereichs lagen, und trotzdem (wie auch immer) der Autor deren Höhe angegeben hat - natürlich viel niedriger, als sie auf einem Foto vom Display zu erkennen waren.


    RICHTIGES Messen ist eine Wissenschaft für sich.
    Ausreißer und defekte Monitore gibt es immer. Im Test sieht man, daß der Monitor nicht so übertrieben helle Ecken auf schwarzem Grund aufweißt wie in den anderen geposteten Bildern.
    Wenn SO der Hintergrund des Monitors aussehen würde...
    1. wäre er hier nicht als sehr gut getestet worden...
    2. wenn ein solches Gerät bei einem Käufer ankommt, dann könnte der Käufer den Monitor gleich zurückgehen lassen und den Austausch gegen ein Neugerät fordern.



    Was mich ein bisschen verwundert ist jedoch diese Auflösung und das Bestreben unbedingt Full-HD darauf laufen zu lassen.
    Dabei MUSS es doch Interpolationsverluste geben. Leider ist es ja eben nicht doppelt so hoch und doppelt so breit, wie die Full-HD-Auflösung. Kein ganzzahliges Vielfaches => Verzerrungen, Unschärfe, etc.


    Vielleicht sollte man sich dann doch ehr dazu entscheiden Full-HD auf Full-HD laufen zu lassen und für Filmgenuß auf großer Fläche (wenn das denn der Hauptgrund für diesen Monitor sein sollte) einen großen Fernseher anzuschaffen.

    MfG
    Ghostrider

  • Zitat

    Dabei MUSS es doch Interpolationsverluste geben. Leider ist es ja eben nicht doppelt so hoch und doppelt so breit, wie die Full-HD-Auflösung. Kein ganzzahliges Vielfaches => Verzerrungen, Unschärfe, etc.


    Einfaches Pointsampling wird eh nicht durchgeführt (das machen aber z.B. die meisten anderen 30" Bildschirme, gut zu sehen bei 1280x800). Die Zielauflösung und das Verhältnis spielt im Realwelteinsatz tatsächlich keine Rolle. Gut zu beobachten, wenn man mit verschiedenen Panels (z.B. einem WXGA und FullHD Gerät) und der gleichen Scaling Engine mal ein paar Experimente macht.


    Gruß


    Denis

    Gruß


    Denis

  • Noch ein Grund mehr bei der Auflösung des Displays zu bleiben...


    Erstaunlicher Weise habe ich auch gerade mal meinen Moni bei 800*600 getestet (der kann ja frei wählbar dann auch Höhe*2 und Breite*2 Skalieren und es passt tatsächlich nicht. Buchstaben sind nicht 2 Pixel breit sondern laufen oftmals über 3 Pixel und zeigen eine Art Antialiasing. :(
    (ClearType nutze ich nicht - das macht ja schon bei der richtigen Auflösung aus Text nur noch Matsch...)
    Hmmm... Warum wird das eigentlich nicht ganzzahlig umgesetzt? Der Rechenaufwand geht gegen 0 und das Bild wäre super Scharf.


    Oder gibt's zuviele User, die sich dann über die Klötzchenbildung beschweren würden?
    Wäre schön, wenn das mal ein Hersteller verbindlich beantworten könnte. Ich dachte echt, daß bei ganzzahligen Vielfachen das auch passend dargestellt würde.

    MfG
    Ghostrider


  • Bezüglich des Prerender-Limits sei Dir der kurze Absatz aus ans Herz gelegt. Es wird nichts "vorausberechnet", sondern "zwischengespeichert" -> und das ist auch genau das, was der Monitor macht.
    Hat die Grafikkarte also 3 Befehlsfolgen im Puffer, die abgearbeitet werden müssen, werden erst nach dieser Zeit Benutzereingaben sichtbar -> es "laggt". Speichert der Monitor 3 Frames und verzögert die Ausgabe damit um diesen Wert, so werden Benutzereingaben ebenfalls erst nach dieser Zeit sichtbar -> es "laggt" ebenso. Wobei hier, wie zuvor bereits angesprochen, die Framedauer natürlich eine bedeutende Rolle spielt. 3 Frames bei 60Hz des Displays sind lang nicht so schlimm wie 3 Frames der Grafikkarte bei 30fps... Meistens ist es aber so, daß gerade in Hochlastsituationen die Grafikkarte eh schon mit dem Rendern nicht nachkommt, und dann eben besonders viel in ihrem Kommandopuffer hat, während die Framerate nach unten geht - die Latenzzeit explodiert förmlich. Hält man diese durch ein angepasstes Prerender-Limits in Maßen, so kann durch Addition der Bildschirmlatenz dennoch ein gefühlter Mauslag daraus werden.
    User, die in Settings spielen, in denen sie 60fps+ haben, werden davon wohl nichts mitbekommen; Leute mit 30"-Schirm, die in der nativen Auflösung spielen werden dagegen viel viel öfter ans Limit ihrer Grafikkarte stoßen. Und bitte jetzt keine Ratschläge á la "dann kauf Dir a gscheite Hardware" oder "dreh halt die Settings runter" - mir gehts einzig darum, zu zeigen, daß die Monitorlatenz fühlbar sein kann, wenn wahrscheinlich auch nicht für sich alleine.


    Bezüglich Messungen stimme ich Dir vollinhaltlich zu; ich komme selbst aus dem elektrotechnischen Bereich und genoß in der HTL einige Jahre Meßtechnik... Es gibt da auch so ein nettes Sprichwort: "Wer mißt, mißt Mist"... ;)

    2 Mal editiert, zuletzt von Paul Brain ()

  • Da das Thema für viele wichtig ist und immer wieder diskutiert wird, führen wir das mal in eine allgemeine Diskussion über, damit nicht jeder Testbericht-Thread durch allgemeine, sich oft wiederholedne Posts zum Thema Input-Lag überflutet wird.


    Spezielle Fragen, die das getestete Gerät und dessen Input-Lag betreffen, können natürlich nachwievor im Testthread gestellt werden. Allgemeine Fragen und Diskussionen woher, warum und wieso Input-Lag da ist oder entsteht, bitte hier =)

    _.+*" Mind Expanding Species "*+._.+*" Estar De Viaje "*+._


    "Begegnungen, die die Seele berühren, hinterlassen Spuren, die nie ganz verwehen."

  • In der aktuellen c't ist ein Test von 24"-Monitoren und ein anschliessender Bericht zu von Overdrive verursachtem Input-Lag.


    Interessant ist dabei, daß es offensichtlich verschiedene Arten von Overdrive gibt, wobei Samsung die wohl ausgefeilteste Technologie hat, welche jedoch auch am meisten Lag produziert: Nämlich 3 Frames.


    Bedeutet das, daß sämtliche mit Overdrive ausgestatteten Samsung-Panels 3 Frames Latenz aufweisen werden (also auch z.B. die Eizos), oder implementiert hier jeder Hersteller sein eigenes Overdrive?

  • Zitat

    Original von Paul Brain
    Hat die Grafikkarte also 3 Befehlsfolgen im Puffer, die abgearbeitet werden müssen, werden erst nach dieser Zeit Benutzereingaben sichtbar -> es "laggt". Speichert der Monitor 3 Frames und verzögert die Ausgabe damit um diesen Wert, so werden Benutzereingaben ebenfalls erst nach dieser Zeit sichtbar -> es "laggt" ebenso. Wobei hier, wie zuvor bereits angesprochen, die Framedauer natürlich eine bedeutende Rolle spielt. 3 Frames bei 60Hz des Displays sind lang nicht so schlimm wie 3 Frames der Grafikkarte bei 30fps... Meistens ist es aber so, daß gerade in Hochlastsituationen die Grafikkarte eh schon mit dem Rendern nicht nachkommt, und dann eben besonders viel in ihrem Kommandopuffer hat, während die Framerate nach unten geht - die Latenzzeit explodiert förmlich. Hält man diese durch ein angepasstes Prerender-Limits in Maßen, so kann durch Addition der Bildschirmlatenz dennoch ein gefühlter Mauslag daraus werden.
    User, die in Settings spielen, in denen sie 60fps+ haben, werden davon wohl nichts mitbekommen; Leute mit 30"-Schirm, die in der nativen Auflösung spielen werden dagegen viel viel öfter ans Limit ihrer Grafikkarte stoßen. Und bitte jetzt keine Ratschläge á la "dann kauf Dir a gscheite Hardware" oder "dreh halt die Settings runter" - mir gehts einzig darum, zu zeigen, daß die Monitorlatenz fühlbar sein kann, wenn wahrscheinlich auch nicht für sich alleine.


    Bezüglich Messungen stimme ich Dir vollinhaltlich zu; ich komme selbst aus dem elektrotechnischen Bereich und genoß in der HTL einige Jahre Meßtechnik... Es gibt da auch so ein nettes Sprichwort: "Wer mißt, mißt Mist"... ;)


    kann das mal einer ennjott erklären? bitte!

  • wieso sollte die grafikkarten-einstellung der vorrausberechneten bilder etwas mit der bildschirm latenz zu tun haben ?
    die einstellung beschränkt doch nur die anzahl von bildern, die die CPU vorbereitet bevor die bilder von der GPU verarbeitet werden.
    demnach hat es doch nichts mit der monitor latenz zu tun , oder irre ich ?
    es hat doch höchstens was mit ner anderen latenz zu tun, die aber nur auftritt wenn die cpu zu schwach ist oder nicht ?

    2 Mal editiert, zuletzt von ch4rmin ()

  • Also der Dell 2709w hat einen Inpud-Lag von 47 ms... und das merke ich sehr heftig, im Vergleich zu einer Röhre ist dies ein Unterschied wie Tag und Nacht, mein komplettes Arbeiten in Windows (egal ob XP oder Vista) wird dadurch erheblich gebremst, die ganze Mausreaktion (Kabelmaus) ist ganz schön schwammig und ich kann nicht mehr so schnell direkt auf irgendwelche Ordner zielen und klicken so wie ich es mit der Röhre konnte, selbst jetzt wo ich die röhre schon fast nen Jahr nicht mehr benutze merke ich jeden tag diese dumme Verzögerung... Ein Kollege hat den selben TFT und merkt keinen Unterschied zwischen Röhre und diesem TFT, ich versteh es nicht....

    _______________________________


    Foto-Shootings & more auf:

    _______________________________

  • Gestern ist auf AnandTech (englisch) ein Artikel über Input-Lag erschienen:
    Exploring Input Lag Inside and Out
    Dabei wird nicht nur das Input-Lag von Monitoren, sondern die gesamte Kette von der Wahrnehmung eines Reizes durch den Benutzer bis zur Darstellung durch das Display besprochen.

  • @PRAD: benutzt ihr bei input-lag Messungen eigentlich je einen Ausgang der Grafikkarte für einen Monitor oder schließt ihr beide Monitore über ein Splitterkabel am selben Grafikkarten Ausgang an? Letzteres wäre wohl sinnvoller, da ja, wie ihr selbst auch bemerkt habt, bei vielen Grafikkarten die Ausgabe im Clonemode keinesfalls synchron ist (siehe auch: )

  • Wir benutzen zwei Ausgänge (wobei ich nicht generell für alle Tester sprechen kann). Das Verfahren wird aber gerade umgestellt, so dass bald wahrscheinlich kein zweiter Monitor mehr für den Test benötigt wird.

  • Der Testaufbau mit einem Splitterkabel hat durchaus gravierende Nachteile. Insbesondere kann der Autor des verlinkten Artikels sein Testgerät nur mit einem (zweiten) LCD-Monitor mit DVI-Eingang vergleichen, von dem er wiederum nur glaubt, dass der ohne Lag sei, weil er diesen seinerzeit einmal mit einem (dritten) Röhrenmonitor verglichen hat. Und dieser Test damals wurde sicherlich nicht mit einem DVI-Splitterkabel durchgeführt, sondern mit zwei Grafikausgängen, die der Autor wahrscheinlich nicht zuverlässig synchronisieren konnte. Hier wurde zwar das Problem erkannt, aber keine überzeugende Lösung gefunden :(


    Der Ansatz mit dem Splitterkabel ist angesichts der vielen Schnittstellen nicht universell genug, mit dual-link DVI, HDMI 1.4 oder DisplayPort wird es immer schwieriger. Mit verschiedenen Grafikausgängen zu testen ist daher keineswegs weniger sinnvoll. Man muss allerdings die Ausgänge zuverlässig synchron halten, andernfalls misst man nur Mist. Was wir bei Prad natürlich wissen ;)

  • Also hier schreibt er aber, dass auch für den entscheidenden Vergleich LCD/CRT ein Splitterkabel verwendet wurde :)

  • Das Foto zeigt ein Splitterkabel, das eine DVI-I Buchse auf je einen DVI-D und VGA Ausgang splittet. Hier wird also keineswegs ein einzelner Ausgang der Grafikkarte auf zwei Signale aufgeteilt. Vielmehr werden zwei voneinander unabhängige Ausgänge (DVI + VGA), die sich aus Platzgründen lediglich eine gemeinsame Buchse teilen, per Splitterkabel auf zwei Monitore verteilt. Die beiden Signale können synchron sein, sind es aber - trotz gemeinsamer Buchse - in den meisten Fällen leider nicht.


    Ganz offensichtlich hat der Autor dies nicht gewusst. Ob er wirklich geglaubt hat, man könnte ein DVI-Signal mit einem einfachen Kabel auf DVI und VGA splitten? :thumbup:

  • Also an einigen Pins der (gemeinsamen) DVI-I Buchse liegt das DVI-D- und an anderen das VGA-Signal an. Diese an den unterschiedlichen Pins anliegenden unterschiedlichen Signale, werden dann mit dem sog. "Splitterkabel" lediglich auf zwei Buchsen verteilt, richtig? Vielen Dank für die ausführliche Erklärung :thumbup:

  • Korrekt. Eine GeForce 9600GT z.B. hat 4 Ausgänge (2xVGA + 2xDVI-D), aber nur 2 Buchsen (2xDVI-I). Der VGA-Ausgang an der ersten Buchse ist dennoch gänzlich unabhängig vom DVI-D Ausgang an der ersten Buchse. Er ist damit auch nicht "synchroner" als mit der zweiten Buchse. Es ist einfach nur eine kombinierte Bauform, mit dem Nachteil, dass man Splitterkabel kaufen muss, wenn man tatsächlich mehr als zwei Monitore anschließen will.


    Noch mal was zum Input-Lag: Beim Vergleich der Latenz zweier Monitore ist es also normalerweise egal, ob sie an zwei Ausgängen derselben Grafikkarte hängen oder an zwei getrennten Grafikkarten: die Ausgänge sind eh nie synchron. In der Praxis ergeben sich auch bei sorgfältiger Auswahl gleicher Bildfrequenzen immer kleine Abweichungen (z.B. DVI-D = 60,000 Hz, VGA = 60,033 Hz), die zu einer wachsenden Bildverschiebung führen: nach 30 Sekunden hat der VGA-Ausgang in diesem Beispiel 1 Bild Vorsprung (was im Framebuffer der Karten ausgeglichen wird). Bei der Fotomethode fotografieren viele Tester also nicht das Input-Lag, sondern die Bildverschiebung im Moment der Aufnahme: einige Sekunden später würden sie ein anderes Ergebnis fotografieren, nach 30 Sekunden vielleicht wieder dasselbe, usw. Damit kann man nichts anfangen.

  • Jetzt würde (wahrscheinlich nicht nur) mich natürlich noch interessieren, wie ihr bei PRAD mit diesem Problem umgeht?