Ab jetzt wird hier aber mit buntem Halbwissen um sich geworfen. Wollen mal versuchen das wieder zu ordnen.
Zitat
"Tatsächlich ist die Latenzzeit geringer, wenn man eine höhere Bildwiederholfrequenz wählt, allerdings akzeptieren viele LCD-Monitore digital nur 60Hz."
Wie hier auch etwas versteckt im zweiten Satz steht, kann man die Ausgabefreqzenz der Grafikkarte nicht höher wählen, als die Maximalfrequenz die der Monitor akzeptiert! Es gibt viele TFTs, die zumindest analog 75 Hz akzeptieren, und es einige, die auch digital 75 Hz akzeptieren. Aber es gibt nur wenige, die auch tatsächlich dann 75 Hz darstellen (z.B. der Viewsonic VP930). Die anderen stellen meistens trotzdem nur 60 Hz dar, und verwerfen einfach jedes fünte Bild. Dadurch gibt es keine Verbesserung der Latenzzeit!
Was die CT meint ist, dass wenn man die tatsächliche vertikale Bildfrequenz erhöht, also den Monitor tatsächlich mit 75 oder 100 Hz betreibt, der Overdrive Lag geringer wird, da Overdrive 1 - 3 Frames/Bilder zur Vorausberechnung puffert. Während bei 60 Hz ein Bild 16,66 ms dauert, sind es bei 75 Hz 13,33 ms und bei 100 Hz 10 ms, entsprechend wird der Lag geringer (3 Bilder bei 60 Hz = 50 ms, 3 Bilder bei 100 Hz = 30 ms).
Die Aussage der CT ist somit eher theoretischer Natur, da in der Praxis die Geräte fehlen, die das auch anbieten. Zudem stellt es eigentlich keine adequate Lösung dar. Monitore wie der VX922 beweisen, dass man schnelles Overdrive auch ohne großen Bildpuffer bewerkstelligen kann. Laut Behardware.com liegt dessen Lag bei 0 - 1 Frame, und im Durchschnitt unter 1 Frame. Ich empfehle dazu folgenden Artikel bei Behardware:
Zitat
Original von grenSterEinmal die Maus und der USB Port, der Läuft normalerweise auf gerademal 125HZ, dabei kann man die Maus bis auf 1000HZ hochjagen. Bei Leuten die keine Schlieren sehen können, mag das vieleicht nicht zu treffen! Für Spieler bringt das einen spürbaren Vorteil aber auch beim Arbeiten merkt man den angenehmen Unterschied.
Dazu sollte man wissen, dass 125 Hz einer Latenz/Verzögerung von maximal 8 ms entspricht, sie kann aber auch 0 ms lang sein. Der USB Port fragt die Maus nämlich exakt alle 8 ms ab, die Verzögerung zwischen Bewegung und Abfrage ist aber immer unterschiedlich lang (aber maximal 8 ms). Relevant sind dabei nur Richtungs und Geschwindigkeitsänderungen (sprich Beschleunigung), bewegt man die Maus einigermaßen gleichmäßig in eine Richtung ist die Latenz unrelevant. Und ändert man die Richtung, dann wird man das im Durchschnitt irgendwo zwischen zwei Abfragen machen, die Latenz ist dann nur so lang, bis die nächste Abfrage kommt.
Eine Erhöhung der USB Frequenz auf 250 Hz ist noch einigermaßen sinnvoll. Darüber wird die CPU bei jeder Mausbewegung aber schon deutlich mehr belastet, was am Ende wieder die Framerate in CPU intensiven Spielen drückt.
Zitat
Die Grafikkarte hat auch eine Latency (AGP Latency) die i.d.R. bei 255 liegt, ein herabsetzten soll Lags und Frameeinbrüche minimieren, falls deine Idee also doch Funktionieren könnte und dabei Probleme auftretten könnte das eine Lösungsansatz sein.
Sorry, aber: Humbug! 
Gemeint ist hier die PCI-Latency, welche bei AGP-Karten vom Treiber tatsächlich oftmals auf 252 (nicht 255) gesetzt wird. Das ist aber [u]keine[U] Verzögerung der Grafikkarte, im Gegenteil. Gemeint ist hierbei, wie lange ein einzelnet PCI-Gerät (in diesem Fall die Grafikkarte) den PCI-Bus für sich alleine belegen darf, bevor andere PCI-Karten auch mal wieder dürfen. Maximum ist 255, gemessen wird immer in Taktschlägen. Je höher der Wert, umso länger darf das entsprechende Gerät den PCI-Bus nutzen bzw. "blockieren". Hierbei handelt es sich allerdings um einen Maximalwert, wenn das Gerät also früher fertig ist, dann gibt es den Bus auch wieder frei. Es ist allerdings sehr sinnvoll diesen Wert für die Grafikkarte auf 64 oder 32 zu senken, und zwar damit die Soundkarte und andere Systemteile besser zum Zuge kommen. Dadurch gibt es weniger Tonaussertzer und Spiele laufen evtl. schneller, da die Soundkarte schließlich auch mal ran muss, und ihren Teil dann auch in kleineren Happen zur CPU schieben kann, statt in großen Brocken (wodurch die CPU Last ungleichmäßig verteilt wird). Da auch der USB-Port ein PCI-Gerät ist, kann es zudem durchaus sein, dass die Grafikkarte diesen mit ausbremst, wenn sie den Bus zu lange belegt. Für PCI-E gilt das übrigens nicht!
Es gibt aber tatsächlich eine Grafikkarten-Einstellung, die man optimieren kann. Die Grafikkarte berechnet nämlich mehrere Bilder im Voraus, während sie das aktuelle anzeigt. Da sie genauso wie Overdrive nicht in die Zukunft sehen kann, muss sie dafür natürlich schon die nötigen Informationen haben und puffert entsprechend viele Bilder zwischen. Das Spiel ist also evtl. schon weiter, als die Grafikkarte anzeigt. "Evtl." deshalb, weil es sich auch hierbei um einen Maximalwert handelt. Standardeinstellung bei Nvidia-Karten sind 3 Bilder bei DirectX und 2 Bilder bei OpenGL. Bei OpenGL kann man keinen niedrigeren Wert einstellen, bei DirectX berichten aber einige Leute von flüssigerem Spiel. Zumindest unter dem Windows Desktop kann man das leicht nachvollziehen. Stellt man den Wert sehr hoch ein, bemerkt man deutlich den Lag (der Mauszeiger reagiert deutlich später nachdem man die Maus bewegt). Ein Wert von 1 oder 2 ist hier ganz gut, 0 dürfte zu Einbrüchen bei der Framerate des Spiels führen. Einfach mal selbst probieren.
Die entsprechende Einstellung heißt bei NVidia "Max. Bilder im Voraus rendern", und findet sich unter den Weiteren 3D-Einstellungen, die man vorher per "Coolbits" freischalten muss (Google fragen). Siehe dazu auch das angehangene Bild.