Untersuchung des Testverfahrens einer Input-Lag-Messung
9/12

0
1435

Getestete Grafikkarten

Die übrigen getesteten Grafikkarten von NVidia und ATI verhalten sich hingegen deutlich anders. Erstaunlicherweise stellt die FX5900 also eine Ausnahme bei NVidia dar. Sowohl die ältere 4200Ti als auch die neueren 8600GT und 8800GTS 512 verhalten sich so wie die ATI HD4850. Diese Grafikkarten sind eindeutig als Typ c) einzuordnen.

Bei jedem vom Oszilloskop festgehaltenem Bild hat sich die relative Lage der Bilder zueinander leicht verschoben. Dies muss somit automatisch auf leicht unterschiedliche Frequenzen zurückzuführen sein.

Reiht man einige Momentaufnahmen der HD4850 hintereinander auf, so kann man die relative Verschiebung mit bloßem Auge verfolgen. Beachten Sie hierbei die unten links eingeblendete Systemzeit des Oszilloskops. Es dauert rund eine Minute, bis die Impulse wieder in ihrer Ausgangsposition angekommen sind.

Messung: Die Animation zeigt in 28 aufeinanderfolgenden Screenshots die kontinuierlichen Verschiebungen der relativen Signalpositionen
Die Animation zeigt in 28 aufeinanderfolgenden Screenshots die kontinuierlichen Verschiebungen der relativen Signalpositionen

Vergleicht man nun die Frequenzen der analogen und digitalen V-Sync-Impulse, so fällt eine Differenz von 0,0166 Hz auf, was sehr gut mit der grob beobachteten Zeitspanne von 60 s zusammenfällt, die der V-Sync Impuls benötigt, um seine Ausgangsposition erneut zu erreichen. Die Beobachtung passt also zu den Messergebnissen.

Messung: Der analoge V-Sync-Impuls hat eine Frequenz von (60,037048±0,000008) Hz
Der analoge V-Sync-Impuls hat eine Frequenz von (60,037048±0,000008) Hz
Messung: Der digitale V-Sync-Impuls hat eine Frequenz von 60,0204 Hz
Der digitale V-Sync-Impuls hat eine Frequenz von 60,0204 Hz

Zu beachten ist hierbei allerdings auch, dass die automatische Messung der Frequenz für das analoge Signal allein wegen seiner mehrfachen Durchführung und Mittelung über mehrere Messwerte deutlich verlässlicher ausfällt als die des digitalen Signals. Letztere war mit den vorhandenen Mitteln leider nicht automatisierbar. Die Messung wurde zwar an einer Grafikkarte mehrfach durchgeführt, um sicherzustellen, dass die Frequenz konstant blieb, da es jedoch sehr zeitaufwändig ist bei dieser Speichertiefe den Triggerpunkt in der nächsten Austastlücke zu finden, hätte es des zeitlichen Rahmen des Tests gesprengt.

Beispielhaft ermittelte Werte für Grafikkarten des Typs C

Grafikkarte und Auflösung Frequenz analog [Hz] Frequenz digital [Hz] Betrag der Differenz [Hz] Zeit bis Ursprungspunkt erreicht [s]
8800GTS 512 (G92)1.600 x 1.200 60,000 59,967 0,033 30,3
8800GTS 512 (G92)1.920 x 1.200 60,006 59,950 0,056 17,9
8600GT 1.920 x 1.200 59,900 59,912 0,012 83,3
ATI HD4850 1.280 x 1.024 60,037 60,020 0,017 58,8

Beispielhaft ermittelte Werte für Grafikkarten des Typs C

Aus dieser Tabelle kann bereits entnommen werden, dass die Frequenzunterschiede sowohl von der Grafikkarte als auch von der Auflösung abhängen. Da es Abweichungen in beide Richtungen gibt, ist auch keine generelle Gesetzmäßigkeit abzuleiten, die nun einem bestimmten Anschluss-Typ die im Verhältnis betrachtete niedrigere Frequenz zuordnen würde.

Alle Tests wurden hierbei sogar durchgeführt, während die Grafikkarten gleichzeitig an ein und demselben Monitor angeschlossen waren. Es gibt also auch keine Möglichkeit leichte Frequenzabweichungen darauf zu schieben, dass unterschiedliche Monitore an den Ausgängen angeschlossen waren und diese die Testergebnisse beeinflusst hätten. Verwendet wurden der VP2030 (HD4850), sowie ein NEC 2690WUXi und der Iiyama AS4431D. Ebenso wurde natürlich auch das Verhalten bei getrenntem Anschluss an den Referenz CRT von CTX und diverse TFTs untersucht, was die Ergebnisse jedoch nicht beeinflusste.

Schlussfolgerungen

Bisher wurde für die Foto-Methode stets als Voraussetzung angenommen, dass die Signalausgabe der beiden Ausgänge einer Grafikkarte in jedem Fall perfekt synchron arbeiten würden, wie der hier definierte „Typ a)“, oder zumindest hinreichend synchron, so dass es zu keinen Beeinträchtigungen einer Messung käme, wenn man einen CRT mit einem TFT vergleicht.

Wie bereits bei der Betrachtung der einzelnen Screenshots zu Beginn dieses Artikels vermutet und nun hinreichend bewiesen, findet der Bildaufbau jedoch nicht synchron statt und somit ist diese Annahme grundlegend falsch. Das Ergebnis dieser falschen Annahme sind auch ungenaue Messwerte, die sich je nach Grafikkarte unterschiedlich äußern.

Bei Grafikkarten des Typs b) ist die Einschaltzeit, oder besser formuliert: Die damit festgelegte zeitliche Differenz zwischen den Ausgangssignalen, entscheidend.

Die Ergebnisse der alten Foto-Methode können allein hierdurch um bis zu 16,6 ms, der Zeit für ein komplettes Bild, variieren. Vollkommen unabhängig von der verwendeten Software. Selbst eine Mittelung über unendlich viele erstelle Fotos würde hier keinen Unterschied machen, da dies ein fester systematischer Fehler ist, der sich solange nicht ändert, bis der Monitor erneut angeschlossen wird.

Aber auch dann kann es durchaus sein, dass man mehrfach hintereinander an ähnlichen Positionen landet und vier oder fünf Vergleichsmessungen zumindest annähernd den gleichen Wert produzieren. Im Rahmen dieses Tests war es bei einigen ATI-Karten der Fall, dass Werte bei zeitlichen Differenzen von 6 ms und 8 ms zunächst gehäuft anzutreffen waren, nur damit bei weiteren Versuchen dieses spezielle Verhalten nicht bestätigt werden konnte. Vorschnelle Urteile, wie sie bisher getroffen wurden, um die Foto-Methode zu untermauern, sind also hinfällig.

Grafikkarten des Typs c) weisen keine feste zeitliche Abhängigkeit auf. Allerdings hängt es von dem Zusammenspiel der Serienbildgeschwindigkeit und der Frequenzdifferenz zwischen den Ausgängen der Grafikkarte ab, was für Werte man erhält. Bildet man hier den Mittelwert über unendlich viele Bilder, die zufällige Positionen der Verschiebung erfassen, so wird man rund 8 ms über dem tatsächlichen Wert liegen, da alle Werte zwischen 0 und 16,6 ms gleichverteilt auftreten.

Ist die Serienbildfunktion der Kamera schnell und erwischt man für seine gesamten Aufnahmen nur den Bereich „großer“ Verschiebungen, dann kann der daraus ermittelte Wert für den Input Lag natürlich auch weiter nach oben abweichen, ebenso am unteren Ende der Skala. Allerdings ist es immer so, dass die ermittelten Werte über dem tatsächlichen Input Lag des Monitors liegen werden.

Für eine exakte Bestimmung des Input Lags auf einzelne Millisekunden ist die Foto-Methode, so wie sie bisher verwendet wurde, also bereits durch die Limitierungen der Hardware ungeeignet.

Theoretisch sind die Grafikkartenhersteller sehr wohl in der Lage diese Abweichungen abzuschaffen, da sie, wie in den vorhergehenden Tests zu sehen war, konstante und identische Frameraten über beide Anschlüsse ausgeben können. Ebenso sind deckungsgleiche Ausgabezeitpunkt möglich. Das wird jedoch wohl kaum eintreten, wenn man bedenkt, dass dies eines der angepriesenen Features der viel teureren Profi-Karten ist.

NVidia preist es bei seinen Quatro-Karten als Framelock (siehe: NVidia – Framelock) bzw. bei einer externen Taktquelle als Genlock (siehe: NVidia – Genlock) an und lässt es sich, dem beworbenen Einsatzgebiet angemessen, kräftig bezahlen.

Diskussion: Neuen Beitrag verfassen