QuoteDisplay MoreOriginally posted by derGhostrider
Paul:
Die Vorausberechnung und das LAG, was durch die Grafikkarte dort erzeugt wird (ich habe das vor Jahren auch mal extrem gemerkt), hat jedoch überhaupt nichts mit der Latenz des Monitors zu tun.
Die Grafikkarte berechnet spekultativ Bilder für die Zukunft und gibt diese dann aus. Wenn sich plötzlich etwas im Spiel verändert hat, dann stimmen die Bilder natürlich nicht mehr. Das ist Dein Gummiband-Effekt (nebenbei bemerkt: Ein wirklich sehr guter Vergleich!).
Als Physiker behaupte ich einfach mal, daß es im Netz viele Meßmethoden gibt, die absolut schwachsinnig sind. Oder einfach nur falsche Auswertungen und Fehler in der Durchführung.
Ich erinner mich an einen Netzteiltest, wo die Spannungsspitzen außerhalb des Meßbereichs lagen, und trotzdem (wie auch immer) der Autor deren Höhe angegeben hat - natürlich viel niedriger, als sie auf einem Foto vom Display zu erkennen waren.
RICHTIGES Messen ist eine Wissenschaft für sich.
Bezüglich des Prerender-Limits sei Dir der kurze Absatz aus ans Herz gelegt. Es wird nichts "vorausberechnet", sondern "zwischengespeichert" -> und das ist auch genau das, was der Monitor macht.
Hat die Grafikkarte also 3 Befehlsfolgen im Puffer, die abgearbeitet werden müssen, werden erst nach dieser Zeit Benutzereingaben sichtbar -> es "laggt". Speichert der Monitor 3 Frames und verzögert die Ausgabe damit um diesen Wert, so werden Benutzereingaben ebenfalls erst nach dieser Zeit sichtbar -> es "laggt" ebenso. Wobei hier, wie zuvor bereits angesprochen, die Framedauer natürlich eine bedeutende Rolle spielt. 3 Frames bei 60Hz des Displays sind lang nicht so schlimm wie 3 Frames der Grafikkarte bei 30fps... Meistens ist es aber so, daß gerade in Hochlastsituationen die Grafikkarte eh schon mit dem Rendern nicht nachkommt, und dann eben besonders viel in ihrem Kommandopuffer hat, während die Framerate nach unten geht - die Latenzzeit explodiert förmlich. Hält man diese durch ein angepasstes Prerender-Limits in Maßen, so kann durch Addition der Bildschirmlatenz dennoch ein gefühlter Mauslag daraus werden.
User, die in Settings spielen, in denen sie 60fps+ haben, werden davon wohl nichts mitbekommen; Leute mit 30"-Schirm, die in der nativen Auflösung spielen werden dagegen viel viel öfter ans Limit ihrer Grafikkarte stoßen. Und bitte jetzt keine Ratschläge á la "dann kauf Dir a gscheite Hardware" oder "dreh halt die Settings runter" - mir gehts einzig darum, zu zeigen, daß die Monitorlatenz fühlbar sein kann, wenn wahrscheinlich auch nicht für sich alleine.
Bezüglich Messungen stimme ich Dir vollinhaltlich zu; ich komme selbst aus dem elektrotechnischen Bereich und genoß in der HTL einige Jahre Meßtechnik... Es gibt da auch so ein nettes Sprichwort: "Wer mißt, mißt Mist"...