hätte ja beinahe einen Extra-Thread aufgemacht, aber vielleicht passt das hier auch gut rein...
Hab seit gestern meine Radeon 8500 (built by ATI) ausgetauscht gegen eine "relativ günstig" erworbene Radeon 9700pro (powered by ATI, First International Corporation (FIC)).
An der 8500 lief der Monitor über DVI perfect (aber halt in 3D nicht immer ganz ruckelfrei oder so schick, wie's die 19" verdienen).
Die 9700pro hat ebenfalls DVI, SubD und TvOut. Unter DVI hatte ich zwar einen glasklaren Desktop (klasse für 2D), sobald aber 3D-Funktionen ins Spiel kommen (egal ob DirectX oder OpenGL) gibt es insbesondere an dunklen Stellen leichtes Rauschen. (Farbige Lichtblitze, könnte man auch sagen). Es tritt über den ganzen Schirm dünn gesprenkelt auf. Reduziere ich den Speicher und Chiptakt der Grafikkarte unter 300 (von 325 bzw. 310), dann nimmt der Effekt ab.
Verwende ich aber den analogen Ausgang der Karte, dann hab ich in 2D erst mal wieder das Synchronisierungsflackern, in 3D aber ein gestochen scharfes Bild ohne jede Störung...
Jetzt die Preisfrage: In einer der letzten c't wurde über deutlich schlechtere Signalqualität der Radeon 9500 auf dem zweiten Ausgang (DVI-I analog angeschlossen) berichtet. Ist also möglicherweise der Digitalausgang ebenfalls schlechter?
Oder liegt das am Kabel, das nun bei der neuen Karte das Signal plötzlich nicht mehr sauber übertragen kann. Leider weiss ich nicht, ob der Monitor von einem Dual-Link-Kabel profitieren würde oder ob die Grafikkarte in der Lage ist, ein Dual-Link-Kabel zu unterstützen.
Kennt jemand diese Rausch-Effekte auf dem DVI-Ausgang? Irgendwelche Tipps?
checker