Analoge oder digtiale Eingänge! Großer Unterschied?

  • Hallo zusammen,


    ja, die Frage stellt sich mir. Der Acer 1721 hat digitalen Eingang, der Benq 767 wieder nicht. Auch der Scaleoview mit 14ms (!) hat nur analog.


    Jetzt weiß ich nicht, wie wichtig ein digitaler Eingang sein kann, oder kann man getrost verzichten?


    Bitte um Aufklärung, danke!

  • Getrost vergessen würd ich defintiv nicht sagen.
    Vielleicht spuckt deine Grafikarte ein dermaßen gutes Signal aus, das du keinen Unterschied feststellen wirst. Anderseits kann der Unterschied auch sehr groß sein. Ich hab es mal mit einem LG nn einer ATI-Grafikkarte getestet und der Unterschied war mehr als deutlich. Seitdem konnt für mich nur noch DVI in Frage, auch wenn es vereinzelt nicht viel ausmachen mag. Das solltest du wenn möglich einfach selber testen. Kann von Fall zu Fall variieren.


    Aber mal abgesehen von der Bildqualität hat DVI noch andere nicht minder interessante Vorteile bspw. in der Handhabung. Mal abgesehen davon gehört der digitalen Schnittstelle in meinen Augen die Zukunft.
    Wie auch immer, ich würde unbedingt einen TFT MIT DVI kaufen!

  • Es gibt auch Geräte, wo über digitalen Anschluß schlechtere Ergebnisse zustande gekommen sind.



    Vorsicht ist angesagt ! Testberichte lesen !



    Ich persönlich würde auf DVI nicht verzichten !

  • Wenn dich der Acer 1721 interessiert einfach mal nach Meinungen und Berichten u.a. bezüglich der Qualität suchen! ;)

  • Bei mir ist der Unterschied zwischen DVI und analog kaum sichtbar - hängt im wesentlichen von der Qualität des analogen Signals Deiner GraKa ab. DVI ist jedoch zukunftssicherer.

    Einmal editiert, zuletzt von TFTFanII ()

  • Von wegen: zukunftssicher


    Habe selbst den Benq FP767 (mein Rat: Angucken!) der kein DVI unterstützt und bin in Verbindung mit ner Winfast Geforce 4 4200 LTD absolut zufrieden.
    Das Bild ist sogar wesentlich schärfer und kontrastreicher als beim wesentlich teureren NEC 1880SX über DVI, den ich auch zum Test zuhause hatte.


    Und was die Zukunftssicherheit anbetrifft:
    Weshalb jetzt mehr Geld für DVI abdrücken?
    Schließlich, ich gehe mal davon aus, sind wir hier doch alle Technikfreunde, denen es in Anbetracht der rasanten technischen Entwicklungen doch eh in zwei Jahren schon wieder in den Fingern juckt upzugraden, weshalb ich im Bewusstsein dessen beispielsweise auf teureren DVI verzichtet habe, was ich auch nicht bereue.


    Und: Wer weiß, was in 2 Jahren schon längst DVI abgelöst hat.


    Gruß
    Frame

    Einmal editiert, zuletzt von Frame ()

  • fRaMe
    Meine Freundin war mit ihrem Bild über VGA auch zufrieden ... bis sie einen Monitor mit DVI an ihrem Rechner gesehen hat! Gut, sie ist immer noch zufrieden da sie in solchen Dingen nicht so'n "Freak" wie die meisten von uns ist. Aber hast du bei dir den Unterschied zwischen DVI und VGA mal testen können? Falls ja und du stellst keinen großen Unterschied fest dann hast du Glück gehabt und deine Grafikkarte liefert eun sehr gutes Signal. Und falls der BenQ dein erster TFT ist dann wirst du das Bild natürlich als exzellent empfinden da ein TFT auch über VGA ein wesentlich besseres Bild als ein CRT liefern sollte.


    Und was die Zukunftssicherheit von DVI angeht so bin der Meinung, das der anschwellende Siegeszug der TFTs (oder ähnlicher digitaler Technologien) das Ende des VGA-Ports einläuten wird da eine solche Technolgie geradezu nach einer digitalen Schnittstelle schreit. Vielleicht nicht in zwei Jahren, wohl kaum, von daher könnte man tatsächlich in Bezug auf die Zukunfstsicherheit verzichten wenn man nicht die höchsten Ansprüche stellt. Aber DVI wird VGA meiner Meinung nach über kurz oder lang VGA als Standartport verdrängen und dann wird sich DVI sicherlich länger als zwei Jahre halten DENN Bildsignale kann man entweder analog (VGA) oder digital (DVI) übertragen. Was will man denn anderes entwickeln, was DVI verdrängen könnte (zumindestens solange TFTs die Vorherrschaft haben)?


    Zitat

    Und: Wer weiß, was in 2 Jahren schon längst DVI abgelöst hat.


    Wenn jeder so denken würde dann würde nichts DVI ablösen denn es würden keine neue Technolgien (für das Cosumersegment) entwickelt werden da keiner diese Technologien kaufen würde ;)


    Edit: Verzeih, deine Erwähnung des NEC habe ich tatsächlich überlesen. Den ersten Absatz nehme ich zurück ;) erwähne aber im gleichen Atemzug, das ich die Beobachtung/Erfahrung gemacht habe, das DVI in der Regel erhebliche Vorteile hat!

    Einmal editiert, zuletzt von Hogfather ()

  • Hi ich besitze den benq fp767 version 2 habe aber dermassen probleme mit diablo2...
    wenn ich rumrenne sieht ausserhalb meinen charakters alles sehr unscharf aus..
    die schrift der items (geld) etc sehen sehr verwaschen aus...
    meine graffikkarte ist ne geforce 4 ti 4200 von albatron..
    was soll ich da machen?

  • zu eurer info: er hat das in 800x600 laufen und kann kein 1:1 seitenverhältnis einstellen...kann man da noch was machen?

    _.+*" Mind Expanding Species "*+._.+*" Estar De Viaje "*+._


    "Begegnungen, die die Seele berühren, hinterlassen Spuren, die nie ganz verwehen."

  • Ich habe meinen Samsung Syncmaster 191T normalerweise über eine recht alte ATI analog angeschlossen. Probehalber hab ich mir eine wirklich billige ATI (Radeon 7000) mit DVI zugelegt. Da lagen in der Tat Welten dazwischen. Was ich für einen Fehler des TFTs hielt (leichte, kaum erkennbare diagonale "Wellen") entpuppte sich als das zu schlechte Analogsignal einer alten Grafikkarte. Per DVI war das Bild erstklassig.


    Ich würde auf jeden Fall auf DVI achten.

  • Bei den neueren Karten ist der Unterschied aber wirklich minimal und da sollte man das nehmen, wo man selber sagt: He, das ist perfekt. Was aber nicht bedeuten soll, dass man sich einen TFT ohne DVI kaufen sollte.

  • Mit DVI ist man auf jeden Fall auf der sicheren Seite.


    Bei meiner GF4400 sieht man den Unterscheid recht stark (Flimmer bei bestimmten Bildern, nachjustieren des Bildes beim Wechsel der Auflösung)..

    Viele Grüße
    Randy

  • hey bleibt beim thema *g*: kann man bei dem noch was machen? das seitenverhältnis auf 1:1 bekommen? im grkatreibermenü evtl.? bei mir geht das nicht bei meiner gforce440mx. bei der radeon9800pro dagegen schon!

    _.+*" Mind Expanding Species "*+._.+*" Estar De Viaje "*+._


    "Begegnungen, die die Seele berühren, hinterlassen Spuren, die nie ganz verwehen."

  • Zitat

    Original von Centurio
    ja, die Frage stellt sich mir. Der Acer 1721 hat digitalen Eingang, der Benq 767 wieder nicht. Auch der Scaleoview mit 14ms (!) hat nur analog.


    Für den Fall, daß es dir überwiegend um die Schnelligkeit des Panels bzgl. Spieletauglichkeit geht: einer unserer Supermods hat sich darüber im Zusammenhang mit D-Sub und DVI bereits geäußert.



    Ansonsten gilt bzgl. Darstellungsqualität die Faustformel: DVI kann besser sein, muß aber nicht.


    Gruß
    Michael

  • Zitat

    Original von rinaldo
    hey bleibt beim thema *g*: kann man bei dem noch was machen? das seitenverhältnis auf 1:1 bekommen? im grkatreibermenü evtl.? bei mir geht das nicht bei meiner gforce440mx. bei der radeon9800pro dagegen schon!


    Geforce--> Detonator bzw. Forceware
    Also:
    Systemsteuerung -> Anzeige -> Reiter Einstellungen -> Schaltfläche Erweitert -> Reiter "Geforce irgendwas" -> Menüpunkt "Flat Panel Display" -> Option "Centered Output" für Originalgröße (1:1 mit fetten Rundum-Trauerrand) oder Option "Fixed Aspect Ratio Scaling" für Vollbild mit Beibehaltung des Seitenverhältnisses (also schmale Randstreifen oben und unten)


    Sollte mit einer MX auch keine Problem sein.


    Gruß
    Michael


    P.S.: Und bitte keine gelben Merkzettel auf den großen Trauerrand kleben. :tongue:

  • das problem von dem ist, dass er offenabar das seitenverhältnis net 1:1 einstellen kann bzw. nicht weiß ob und wie es geht... deswegen sieht das bild in 800x600 so miserabel unscharf aus. der benq767 hat ja kein dvi, daher kann er auch nicht umschalten.


    andere anwendungen wie ut in 1280x1024 laufen gut. ist halt ne frage der interpolation


    edit: okay thx. hab ich bei mir bei der geforce allerdings nicht gefunden. ist aber evtl. ein alter treiber auf dem alten rechner von mir. gibts die option erst bei den neueren?

    _.+*" Mind Expanding Species "*+._.+*" Estar De Viaje "*+._


    "Begegnungen, die die Seele berühren, hinterlassen Spuren, die nie ganz verwehen."

    Einmal editiert, zuletzt von rinaldo ()

  • Zitat

    Original von rinaldo
    der benq767 hat ja kein dvi, daher kann er auch nicht umschalten.


    Ups. Analog only. Ja, das koennte sein, daß dann die Optionen im Detonator nicht zur Verfügung stehen. Aber um das jetzt bei mir auszuprobieren, müßte ich mein Analog-Kabel von weit her herholen.
    Schada, dann sollte wenigstens der Monitor per OSD die Möglichkeit geben, eine Skalierungsoption zu tätigen, aber die ist leider nicht überall eingebaut.


    Zitat

    edit: okay thx. hab ich bei mir bei der geforce allerdings nicht gefunden. ist aber evtl. ein alter treiber auf dem alten rechner von mir. gibts die option erst bei den neueren?


    Jetzt habe ich extra einen Reboot eingelegt, um mein altes Win98se hochzufahren. Da habe ich noch den Detonator v45.23 drauf und diese Version verfügt über diese Optionen. Ab wann sie zuerst implementiert worden sind, kann ich Dir aber auch nicht sagen.


    Gruß
    Michael

    Einmal editiert, zuletzt von mic ()

  • Guten morgen


    Auch eine Frage zu DVI: Hab irgendwo in einer Beschreibung zu einem TFT ( weiß leider nicht mehr wo und welcher TFT es war ) gelesen, das das verhältnismäßige ,schlechte`Bild des Gerätes durch ein längeres Kabel stark verbessert werden konnte. Generell kann man aber doch sagen: Je kürzer das Kabel desto besser die Signalqualität. Oder liege ich da falsch und es verhält sich bei TFTs anders?


    gruß

  • Zitat

    Original von j.kraemer
    Auch eine Frage zu DVI: Hab irgendwo in einer Beschreibung zu einem TFT ( weiß leider nicht mehr wo und welcher TFT es war ) gelesen, das das verhältnismäßige ,schlechte`Bild des Gerätes durch ein längeres Kabel stark verbessert werden konnte. Generell kann man aber doch sagen: Je kürzer das Kabel desto besser die Signalqualität. Oder liege ich da falsch und es verhält sich bei TFTs anders?


    Mich würde ernsthaft interessieren, wo Du das gelesen hast. Generell gilt: je kürzer der Weg, desto geringer die Verluste. Digitale Signale erleiden auch irgendwann Verluste, wenn ihr Weg zu lang wird, weil verlustbedingt nicht mehr eindeutig zwischen "Strom an" und "Strom aus" unterschieden werden kann. Sie sind zwar deutlich widerstandsfähiger gegen Verluste als analoge Signale, aber irgendwann hat auch ihre Fahnenstange ein Ende, wenn kein Signalverstärker zwischengeschaltet ist.
    Also DVI über ein beispielsweise 100-Meter-Kabel koennte ich mir nicht vorstellen. Aber falls jemand eine überzeugende Begründung für das Gegenteil hat, lese ich die mir gern durch...


    Gruß
    Michael