Beiträge von Razorblade

    Hallo,


    ich habe ein merkwürdiges Problem mit DVI.


    Hardware: GeForce 6800 LE (Leadtek TDH400LE), ADI Microscan L920 (19" TFT mit 1600x1200)


    Bisher habe ich das Display per D-SUB15 VGA angeschlossen, würde aber gern auf DVI-D (wegen unnötiger Signalwandlung) umsteigen.


    Sowohl das Display als auch die Karte haben einen DVI-I Anschluß.
    Wenn ich beides mit einem DVI-D Kabel verbinde habe ich auch erstmal ein Bild (mit einer unglaublichen Schärfe gegenüber dem VGA-Bild!) aber wenn ich bestimmte Anwendungen starte (z.B. Java) wird der Monitor schwarz...


    Habe das mal mit dem VGA-Kabel nachvollzogen, sobald Java gestartet wird, wird das Bild etwas matschiger, wenn es beendet wird wieder schärfer (aber noch lange nicht so scharf wie mit dem DVI-Kabel).



    Kann es sein, daß durch bestimmte Programme eine analoge Ausgabe erzwungen wird, die wegen DVI-D nicht übertragen werden kann???



    Wenn nicht, liegt es eher an der GraKa oder am Display, wie kann ich das testen?



    Gruß,
    Razorblade