Der Wechsel von analog zu digital
Der anachronistische VGA-Anschluss kommt immer mehr aus der Mode. An seiner statt hat der digitale DVI-Steckverbinder mittlerweile fast überall Einzug in aktuelle Grafikkarten, TFT-Monitore und Heimkinogeräte gehalten und wird den alten Analogstandard über kurz oder lang vollends ablösen. Neben einer theoretischen Abhandlung über VGA und DVI steht in diesem Artikel vor allem die Praxis mit DVI im Mittelpunkt.
Sub-D
Die Bezeichnung Sub-D (auch D-Sub) kennzeichnet einen D-förmigen Steckverbindertyp. Normiert sind diverse Arten dieses Steckverbinders: Sowohl 50-polige SCSI-Stecker (HP50), der 25-polige Parallelport für Drucker und auch die serielle Schnittstelle (RS232) eines Legacy-PCs fallen unter die Bezeichnung Sub-D.
Wer den Begriff heutigentags gebraucht, meint allerdings zumeist den VGA-Steckverbinder (Video Graphics Adapter/Array) für analoge Monitore. Es handelt sich hierbei um einen 15-poligen Anschluss, dessen Kontakte in jeweils drei Reihen angeordnet sind. Aufgrund der zum Zeitpunkt der Normierung verhältnismäßig dichten Anordnung der Kontakte wird der Stecker auch HD15-Stecker (für high density und 15 Kontakte) genannt.
Praxis
Der klassische Röhrenmonitor (CRT) ist auf analoge Eingangssignale angewiesen, die das Sub-D-Kabel vom Grafikkartenausgang eingespeist bekommt. Allerdings muss die Grafikkarte jedes von ihr berechnete Bild erst in analoge Datenströme umwandeln – diese Tätigkeit übernimmt der RAMDAC. Einher damit geht prinzipbedingt ein gewisser Verlust an Bildqualität. Hat der Grafikkartenhersteller hier bei den verbauten Komponenten gespart, geht dies mehr oder minder zu Lasten des Bildes. Durch Leitungsverluste im Kabel wird es noch verschlechtert. Für den Anwender ist es daher essentiell, in ein qualitativ hochwertiges Kabel zu investieren.
Es sollte darauf geachtet werden, ein abgeschirmtes Kabel zu kaufen. Ferritringe umgürten das Kabel an einem oder besser an beiden Enden. Wichtig ist auch die Abschirmung der einzelnen Adern. Problematisch können daher selbstgelötete Kabel werden. Die Länge eines VGA-Kabels beträgt in der Regel 2,5 Meter; 3 Meter sind bei einem guten Kabel noch im grünen Bereich. Bei allem, was darüber ist, wird das Bild messbar schlechter und ab 5 Meter sind Qualitätsverluste auf dem Monitorbild deutlich sichtbar. BNC-Kabel bieten eine etwas höhere Signalqualität durch separate Kabelführung der einzelnen Signalkomponenten. Auf einer Seite befindet sich wie gehabt der VGA-Ausgang, während auf der Monitorseite das Signal in 3, 4 oder meistens 5 BNC-Stecker mündet.
Im Gegensatz zu CRTs benötigen TFTs digitale Signale, um die einzelnen Transistoren zur Bilderzeugung ansteuern zu können. Mit dem Erscheinen der ersten TFT-Monitore lag noch kein verbreiteter Standard zur digitalen Verlinkung von Grafikkarte und Bildschirm vor, also baute man kurzerhand Analog-Digital-Konverter (ADCs) in die Monitorschaltungen ein. Man wollte das berühmt berüchtigte Henne-Ei-Problem umgehen, da ja überall VGA-Ausgänge an Grafikkarten vorhanden waren. Allerdings ist diese Handhabe von technischer Seite widersinnig: Die Grafikkarte berechnet digital, gibt das Bild anschließend analog aus, der TFT nimmt das analoge Signal und konvertiert wieder. Ein unnötiger Verlust an Signalqualität.
VGA
DVI
Es lag daher Mitte der 90er Jahre nahe, einen einheitlichen Standard zur Übertragung von digitalen Bildsignalen festzulegen. Maßgeblich bei diesen Versuchen war die VESA (Video Electronics Standards Association), die an der Normierung vieler Videostandards beteiligt war und ist. Zwei dieser digitalen Standards konnten sich nicht am Markt durchsetzen und verschwanden bald wieder.
1997 wurde der sog. Plug-and-Display-Standard ins Leben gerufen. Er sah neben den Monitordaten auch die Übertragung von anderen Daten für PC-Peripheriegeräte über ein und dieselbe Schnittstelle vor. Plug-and-Display fand wenig Anklang bei den Herstellern von Grafikkarten und Monitoren und verschwand daraufhin bald wieder in der Versenkung. Seit Anfang 1999 existiert DFP (Digital Flat Panel) als offizieller VESA-Standard, der auf Plug-and-Display basiert. Einige Features wie die Übertragung von analogen Nutzdaten wurden gestrichen, und als Folge konnte der Steckverbinder in einer kleinen Mini-D-Verbindung produziert werden – was auch den Grafikkartenherstellern vom Platz her die Option ließ, einen zusätzlichen VGA-Ausgang auf ihre Karten zu bauen. Auch DFP war nicht sehr erfolgreich, es existieren nur sehr wenige Geräte, die diese Schnittstelle unterstützen.
Mit dem DVI-Standard (Digital Visual Interface, v1.0) wurde erstmals eine Norm kreiert, die alle Pferdefüße der vorherigen Standards beseitigen sollte: 1998 von der DDWG (Digital Display Working Group, Mitglieder sind Intel, Fujitsu, Compaq/Hewlett Packard, IBM, NEC und Silicon Image) festgelegt, hat DVI eine höhere Bandbreite, unterstützt als Folge Auflösungen von mehr als 1280 x 1024 Pixeln und ist elektrisch kompatibel zu seinen Vorgängern. Es können also Adapter nach DVI verwendet werden. DVI verwendet ebenfalls das TMDS-Verfahren (Transition Minimized Differential Signaling) zur Übertragung der Bilddaten.
TDMS
TMDS verschickt den parallelen Datenstrom der Grafikkarte auf seriellem Wege über das DVI-Kabel. Im Monitor wird vom TMDS-Receiver wieder in parallele Signale gewandelt. Serielle Datenverbindungen sind weniger fehleranfällig.
Der TMDS-Encoder (sitzt auf Grafikkarte, entweder intern verbaut im Grafikchip bei Nvidia und ATi oder extern, z.B. vom Erfinder Silicon Image) bekommt die Farbdaten von der Grafikkarte parallel mit 24-Bit angeliefert. Pro Farbe werden 8 Bit benötigt:
Additive Farbmischung Rot (8 Bit, 256 Farben) + Grün (8 Bit, 256 Farben) + Blau (8 Bit, 256 Farben) = 16,7 Millionen maximal darstellbare Farben
TMDS sieht pro Farbe einen Kanal vor. Hinzu kommt ein Kanal für das Taktsignal (Clock). Jeder Kanal hat zwei Leitungen; die Informationen werden zur Fehlerminimierung differentiell übertragen (die zweite Leitung sendet die Daten invertiert, sodass der Receiver etwaige Fehler herausfiltern kann). Bei jedem Farbkanal werden zwei zusätzliche Bits hinzugefügt, eins zur Kennzeichnung des Transition Minimizing und eins für das DC-Balancing. Man hat nun ein 10-Bit-Signal. Beide Bits dienen zur Wahrung der Übertragungssicherheit.
Beim standardmäßigen TMDS Single-Link beträgt die Bandbreite 165 MHz; ein PLL-Baustein (Phase-Locked Loop) sorgt dafür, dass die Daten mit zehnfacher Geschwindigkeit des Taktes gesendet werden können. Die effektive Bandbreite beträgt also 1,65 GHz. Beim Dual-Link-Verfahren gibt es pro Farbe einen zusätzlichen, ebenfalls mit 165 MHz getakteten Kanal. Den Clock-Kanal teilen sich beide Links. Man hat also 6+1 Kanäle und die Bandbreite verdoppelt sich auf 330 MHz. Effektiv darstellbar sind bei Single-Link 1.600 x 1.200 Pixel (mit 60 Hz), mit Dual-Link 2.560 x 1.600, sprich gut 4 Megapixel. Wer eine spezielle Grafikkarte hat, die reduziertes Blanking unterstützt, kann mit Single Link ohne verringerte Refresh-Rate gerade noch 1.920 x 1.200 oder 1.920 x 1.080 herauskitzeln; bei einer etwaigen Dual-Link-Variante sind 3.840 x 2.400 (!!) denkbar. Matrox erzielt diese Auflösung bei der Parhelia HR256 mit Genlock durch 4 separate DVI-Kanäle.
Faktisch findet man im Consumer-Bereich zurzeit eigentlich einzig das 30″ Apple Cinema Display, das eine derart hohe Auflösung (2.560 x 1.600) unterstützt und einigermaßen bezahlbar ist. Andere Displays (etwa IBM) sind nicht zuletzt wegen des hohen Preises dem Profi-Segment vorbehalten.
Plug-and-Play (Monitor Feature Detection und Hot Plug Detection) wird bei DVI wie auch bei VGA über EDID (Extended Display Identification Data) und DDC (Display Data Channel) realisiert.