Untersuchung des Testverfahrens einer Input-Lag-Messung
2/12

0
2755

Messen der Bildsignale

Nachdem ein Programm erstellt wurde, welches garantiert exakte Zahlen anzeigt und die einzelnen Millisekunden präzise ausgibt, können mit der Foto-Methode, wie bisher üblich, die Input Lags von verschiedenen Monitoren aufgenommen werden. Diese müssen im Anschluss mit den Werten abgeglichen werden, die mit der neu zu entwickelnden Methode ermittelt wurden, unter Berücksichtigung sämtlicher, bis dahin neu gewonnener, Erkenntnisse.

Die von der Grafikkarte ausgegebenen Bildsignale müssen miteinander verglichen werden. Hierbei ist besonders der gemischte Betrieb, also ein Ausgang analog, einer digital, entscheidend, da CRTs nun mal analog angesteuert werden, während TFTs für eine optimale Bildqualität und auch zur Vermeidung von zusätzlichen Verzögerungen idealerweise digital angesteuert werden.

Eine Verzögerung der Bildausgabe am TFT würde bei analoger Zuspielung eintreten, da das analog zugespielte Signal erst wieder digitalisiert werden müsste, bevor der Monitor damit die einzelnen Transistoren ansteuern kann.

Die ersten Probleme hierbei sind die korrekte Anzeige des digitalen Signals und das Ausmachen eines festen Bezugspunktes, welcher als zeitliche Referenz dient.

Das digitale Signal

Während in der Vergangenheit die digital vom Grafikchip generierten Bildsignale in analoge gewandelt und üblicherweise per D-Sub HD15 oder BNC vom PC zum Monitor übertragen wurden, war es nötig für die benötigten hohen Bandbreiten einer digitalen Datenübertragung bei zunehmend wachsenden Auflösungen einen neuen und zugleich kosteneffizienten Standard zu etablieren. Nur so konnten zusätzliche Qualitätsverluste, die bei einer erneuten Digitalisierung der Signale im Monitor aufgetreten wären, verhindert werden.

Die Digital Display Working Group, kurz DDWG, wurde 1998 von den Unternehmen Compaq, Fujitsu, HP, IBM, Intel, NEC und Silicon Image gegründet. Aufgabe der DDWG war es, den neuen Übertragungsstandard in eine verbindliche Spezifikation zu gießen, die alle relevanten Elemente für die Signalübertragung abdeckt. Beginnend mit der Wandlung auf der Grafikkarte bis zur Dekodierung im Monitor, was natürlich auch Stecker, Kabel, Protokolle und die elektrischen Eckdaten der Signale beinhaltet. Im April 1999 wurde diese Spezifikation für das Digital Visual Interface veröffentlicht und ist seither gültig und unter dem Kürzel DVI bekannt.

Um ein grundlegendes Verständnis zu schaffen, was überhaupt während der Messungen passiert, müssen zumindest einige dieser Elemente etwas näher vorgestellt werden.

T.M.D.S. und 8b/10b Codierung

Als Protokoll für die Datenübertragung wird das von Silicon Image entwickelte T.M.D.S verwendet. Die Abkürzung TMDS steht hierbei für Transition Minimized Differential Signaling, eine besondere Form der differentiellen Signalübertragung, die eine 8b/10b Codierung verwendet und besonders stabile Datentransfers über günstig zu realisierende Kabel erlauben soll.

Zunächst folgt nun eine kurze Erläuterung, was die 8b/10b Codierung ist und warum aus 8 Bit Nutzdaten 10 Bit generiert werden, was erst mal einen höheren Bandbreitenbedarf verursacht und somit kontraproduktiv zu sein scheint.

Für jeden einzelnen Bildpunkt werden von der Grafikkarte 24 Bit parallel ausgegeben, bestehend aus drei 8 Bit Blöcken, die die Farbinformationen für jede der drei Grundfarben tragen. Anschließend werden die parallelen 8-Bit-Blöcke serialisiert und dabei kontrolliert, wie viele Bitwechsel, englisch: Transitions, stattfinden. Jeder dieser hochfrequenten Bitwechsel von 0 zu 1 oder 1 zu 0 führt zu elektromagnetischen Abstrahlungen und somit zum Übersprechen zwischen einzelnen Leitungen, also der Induktion von Störsignalen, englisch kurz EMI. Die Zahl der Bitwechsel zu minimieren führt also zu verringerten Abstrahlungen und somit zu einer höheren Signalqualität, was höhere Bandbreiten und Kabellängen ermöglicht.

Abbildung 0: Generierung, Wandlung, Übermittlung und Rückwandlung der Bildsignale
Abbildung 0: Generierung, Wandlung, Übermittlung und Rückwandlung der Bildsignale

Als Beispiel sei eine 8-Bit-Farbinformation für Rot gewählt: 01010101. Es sind somit offensichtlich sieben Bitwechsel vorhanden. Der TMDS-Algorithmus transformiert nun jedes Bit mittels XOR oder XNOR, je nachdem, wodurch weniger Bitwechsel übrig bleiben. Aus „01010101“ wird „00110011“. Zusätzlich wird ein neuntes Bit angehängt, welches anzeigt, dass eine Transformation durchgeführt wurde. Dieses neunte Bit wird auch „encoding bit“ genannt. Die zuvor genannte 8-Bit-Folge aus sieben Bitwechseln wird in die 9-Bit-Folge: 001100111 gewandelt und weist somit nur noch drei Bitwechsel auf.

Das zehnte Bit ist für die Eingrenzung eines weiteren Problems gedacht, das bei der Übermittlung von zu vielen gleichartigen Zuständen entsteht: Der Aufbau eines elektrischen Potentials. Um dies zu verhindern, werden in langen monotonen Bitfolgen, also wenn z.B. nur der Zustand „1“ übermittelt werden würde, gelegentlich die ersten acht Bit des 10-Bit-Wortes invertiert, so dass das Potential im zeitlichen Mittel neutral ist.

Das zuvor Beschriebene ist an einem Beispiel leichter nachzuvollziehen

Folgende Bitfolge soll übertragen werden (zur Vereinfachung ohne die Bits neun und zehn): 11111111111111111111111111

Die ursprünglichen 8 Bit eines zu übertragenden Bitwortes lauten somit: 11111111.

Die Anzahl der Bitwechsel beträgt 0, weswegen keine Minimierung benötigt wird. Das Encoding-Bit ist daher eine 0: 111111110.

Da bei dem zweiten Bitwort die Invertierung durchgeführt werden muss, ist das letzte Bit eine 1 und die ersten acht werden invertiert. Das 10 Bit breite Ergebnis für dieses ursprüngliche 8 Bit breite Wort lautet also: 0000000001 und somit die oben genannte Folge, zur Vereinfachung wieder ohne die Bits neun und zehn: 111111110000000011111111.

Aus diesem Verfahren ergeben sich 460 gültige 10-Bit-Kombinationen für die gebräuchliche 8-Bit-Farbdarstellung, da viele der 256 möglichen Abstufungen durch zwei gültige Werte repräsentiert werden können, andere jedoch nur durch einen.

Vertikale Synchronisation

Vier 10-Bit-Kombinationen werden verwendet, um eindeutige Markierungen für die horizontale Synchronisation, kurz H-Sync, beziehungsweise vertikale Synchronisation, kurz V-Sync, in das Signal einbetten zu können, so dass auch bei Verlust der Synchronisation oder einer Signalunterbrechungen eine erneute Synchronisation des TMDS-Signalencoders und somit auch der Bildaufbau wiederhergestellt werden kann.

Diese Einmaligkeit des V-Sync-Signals, welches stets auch den Anfang eines neuen Bildes ankündigt, macht es ausgesprochen wichtig für die später durchgeführten Messungen. Es dient als zeitliche Referenz, dem sogenannten Triggerpunkt, bei den meisten der durchgeführten Messungen am digitalen Signal.

Alle weiteren 560 Kombinationen, die aus 10 Bit gebildet werden können, sind reserviert und deren Benutzung verboten.

Der detaillierte Algorithmus zur Findung der Bitmuster kann in den offiziellen Spezifikationen der DDWG auf Seite 29 nachgeschlagen werden. Siehe: DVI 1.0 Spezifikationen.

Datenrate und elektrische Feinheiten

Über ein „single-link“ DVI-Kabel werden über die drei „Kanäle“ jeweils 8b/10b codierte serielle Bitströme gesendet, die mit bis zu 1,65 GBit/s eine ausgesprochen hohe Datenrate aufweisen. Diese Bitrate reicht für Auflösungen von 1.600 x 1.200 bei 60 Hz oder aber 1.920 x 1.200 bei 60 Hz mit reduziertem Blanking aus. Diese Signale sind laut DVI-Spezifikationen TMDS-Codiert, halten sich aber teilweise nicht an die allgemein üblichen zugelassenen TMDS-Zeichen und waren somit nicht automatisch decodierbar.

Neben dem Studium der öffentlich zugänglichen Spezifikationen war somit auch etwas kreatives Raten erforderlich, um eindeutige Bitmuster in der Übertragung auszumachen, da sich die großen Grafikkartenhersteller bei gezielten Fragen zu den eindeutigen Bitmustern in Schweigen hüllten oder schlicht und ergreifend mitteilten, dass diese Informationen nicht zugänglich gemacht würden.

Die Übertragung der oben beschriebenen Signale erfolgt mit einer Spannung von 3,3 V differentiell über verdrillte Adernpaare. Durch die differentielle Übertragungsart heben sich viele induzierte Störsignale gegenseitig auf, da die Störspannung in beiden Leitungen zumindest annähernd identisch ist und somit die Differenz zwischen den einzelnen Adern konstant bleibt.

Abbildung 4: Von außen induzierte Störung auf ein differentielles Signal
Abbildung 4: Von außen induzierte Störung auf ein differentielles Signal

Für die Darstellung und Untersuchung von Signalen mit einer Datenrate von 1,65 GHz sind high-end Oszilloskope mit Bandbreiten von mindestens 4 GHz nötig, die im Idealfall dazu in der Lage sind serielle Bitmuster zu erkennen und auf frei vorgegebene Bitmuster zu triggern. Durch die freundliche Unterstützung von Tektronix stand für diesen Test ein hervorragendes DSA71254 Oszilloskop zur Verfügung, das mit einer üppigen Bandbreite von 12,5 GHz die Erfordernisse bei weitem übertraf, und zu einem späteren Zeitpunkt genauer vorgestellt wird.

Das analoge Signal

Im direkten Vergleich mit den digitalen Signalen sind die analogen Signale mit ihren regelrecht bescheidenen Bandbreiten von unter 200 MHz bei einer Amplitude von 0,7 V peak-to-peak an 75 Ohm leicht aufzunehmen und für ein solches Oszilloskop keine Herausforderung. Zudem erleichtert sich die Untersuchung der V-Sync-Signale der analogen Übertragung durch die Eigenschaft, dass sie auf einer getrennten Leitung übertragen werden und somit nicht erst von restlichen Bildinformationen getrennt werden müssen.

Zwischenfazit

Mit diesem Basiswissen können nun z.B. die V-Sync-Signale im Bildaufbau verwendet werden, um die relative Position der vermeintlich parallelen Bildausgaben zueinander zu begutachten oder auch die tatsächlichen Bildwiederholfrequenzen genauer zu untersuchen. Weitere Details für die exakte Durchführung finden sich in den Abschnitten für die jeweiligen Messungen.

Desweiteren werden wir im Laufe des Tests natürlich die zeitliche Differenz zwischen zugespielten Bildinhalten mit der Bildschirmausgabe sowohl am CRT als auch an einer Reihe von TFTs bei unterschiedlichen Auflösungen nachprüfen, um somit die wahren Input Lag Zeiten so exakt wie möglich zu bestimmen. Hierfür wird wiederum mit dem Oszilloskop das jeweilige Eingangssignal als zeitliche Referenz herangezogen und mit dem Signal eines präzisen und sehr reaktionsfreudigen Fotoempfängers FEMTO SI-200-OE abgeglichen, der durch den Hersteller bereitgestellt wurde.

Diskussion: Neuen Beitrag verfassen