Das denke ich nicht:
die gute Signalqualität bei den Tests bezog sich immer auf das analoge Signal. Das hat die c't beispielsweise in ihren Testtabellen auch immer so angegeben.
Wie soll sich den ein mehr oder weniger gutes digitales Signal die Bildqualität beeinflussen können?
Bei einem analogen Signal stehen Pegel, Flankensteilheit u.ä. in direktem Zusammenhang mit der Darstellungsgenauigkeit, bei DVI ist das nicht der Fall.
Ein digitales Signal besteht nur aus 2 Werten, die der Empfänger erkennen muß: NULLEN und EINSEN. Wie gut diese übertragen werden, spielt keine Rolle. Hauptsache, der Empfänger kann das Signal überhaupt lesen.
Bei einem analogen Signal müssen im Prinzip unendlich viele Werte ausgelesen werden. Eine AD-Wandlung, wie sie bei analogen Eingängen von TFT-Monitoren zwingend erforderlich ist, ist daher immer verlustbehaftet.
Sollte die Qualität des digitalen Signals so schlecht sein, daß es Empfansgprobleme gibt, dann stimmt schon physikalisch etwas im Ansatz bei der Verbindung zwischen Monitor und Grafikkarte nicht: Verbindund viel zu lang, Kabel nicht abgeschirmt (EMV!) usw.
Das wäre im besten Fall noch mit sichtbaren Bildstörungen verbunden, im schlechtesten Fall mit dem Ausfall der Anzeige. Das hat mit dem Normalbetrieb aber nichts zu tun.
Die Verbindung ist ferner relativ kurz, so daß es eigentlich keine Probleme geben dürfte.