Ist der Grafikchip wichtig?

  • Hallo!


    Hab da mal ne Frage:
    Ist für die Bildqualität(Farbe ,Bildschärfe usw.) bei einem TFT die Grafikkarte(der Chip) von großer Bedeutung? Wäre es egal, ob man den TFT an eine sagen wir mal Geforce MX 440 oder an eine Geforce 6800 anschließt? Abgesehen von digital/analog. Wäre für eine hilfreiche Antwort sehr dankbar!!!


    Viele Grüße an alle!!!!!!!

  • Meines Wissens gibt es gerade auch bei der Qualität des DVI-Signals nicht unerhebliche Unterschiede. Dabei wird sicher auch eine Rolle spielen, wie gut der TFT mit einem schlechteren Signal fertig wird.
    Eine pauschale Antwort ist daher schwer, es kommt auf das Zusammenspiel aller Komponenten an.

    Nicht alles was hinkt ist ein Vergleich...

  • Ich muss mich meinem Vorredner anschließen, die Unterschiede sind tatsächlich sichtbar. Ich habe jahrelang mit einer Matrox Millenium G550 gearbeitet und bin kurzzeitig auf eine ATI Radeon 7000 LE umgestiegen. Zu meinem Erstaunen war die Bildqualität bei der ATI-Karte deutlich schlechter und dass, obwohl vielfach das 2D-Signal als seit Jahren bei allen Herstellern bis zum Maximum ausgereizt gilt.


    Daher vermute ich, dass es zwischen den Herstellern schon recht große Unterschiede in der Bildqualität der DVI-Anschlüsse gibt. Innerhalb eines Herstellers, in Deinem Fall nVidia, könnte es aber vielleicht auch keinen Unterschied machen.

  • Hallo zusammen,


    Bei DVI gibt es zwar sicher auch Qualitätsunterschiede.


    Diese äußern sich dann jedoch nicht in Unterschieden bei Farben, Schärfe, Geometrie, Flimmern, usw. Diese Art von Fehlern sind typisch analoge Bildfehler.


    Wenn DVI ordentlich funktioniert, gibt's keine Unterschiede in der Darstellung zwischen verschiedenen Grafikchips.


    Wenn DVI Probleme macht, gibt's je nach dem: Pixelgewitter, "fliegende Streifen", gelegentliche Bildaussetzer oder ein komplett schwarzes Bild. Halt typisch digitale Bildfehler.


    Leider sind die digitalen Probleme oft wesentlich schwerer einer Komponente zuzuordnen als analoge...


    @Tankred: Ist das bei DVI passiert? Kann eigentlich nicht sein -- außer Du hast vielleicht irgendwann mal etwas an den Farb / Helligkeits / usw. Einstellungen der Grafikkarte herumgedreht, dann ist das halt der Unterschied ;)


    Viele Grüße
    Wilfried

  • Zitat

    Original von wwelti
    Wenn DVI Probleme macht, gibt's je nach dem: Pixelgewitter, "fliegende Streifen", gelegentliche Bildaussetzer oder ein komplett schwarzes Bild. Halt typisch digitale Bildfehler.


    Nein, das ist nicht richtig.


    Zitat

    Original von wweltiIst das bei DVI passiert? Kann eigentlich nicht sein -- außer Du hast vielleicht irgendwann mal etwas an den Farb / Helligkeits / usw. Einstellungen der Grafikkarte herumgedreht, dann ist das halt der Unterschied


    Habe ich nicht. Bitte verbreite auch nicht weiter diesen Mythos, da Du sicher nicht alle Grafikkarten durchprobiert hast. Der Unterschied ist trotz digitalem Anschluß bemerkenswert und das ohne Änderung irgendwelcher Einstellungen.


    Auch ich bin diesem logischem Fehlschluß erlegen, dass digital gleich digital ist. Dem ist jedoch nicht so.

  • Hallo Tankred,


    Ok, das ist schon interessant.


    Also erstens: Es ist natürlich zumindest kein Mythos, daß bei digitaler Übertragung Zahlenwerte nicht verfälscht werden -- wenn die Grafikkarte z.B. die Zahl 103 losschickt (und somit einen Helligkeitswert codiert), kommt beim Monitor auch die 103 an.


    Eine schlechtere Signalqualität bei digitaler Übertragung führt entweder zu gar keinen Fehlern -- oder aber zu typisch digitalen Fehlern. Und das ist ganz bestimmt kein Mythos.


    Das alles gibt natürlich noch keinen Aufschluß darüber, was in der Grafikkarte passiert. Theoretisch sollte eine Grafikkarte -- solange die Farbeinstellungen "neutral" sind -- die 24-Bit-Werte der darzustellenden Farben 1:1 auf DVI ausgeben. Wenn das nicht passiert, läuft irgendwas mächtig schief.



    Noch eine Sache: DVI bedeutet nicht zwangsweise digitale Signalübertragung. Viele Grafikkarten liefern auch ein Analogsignal über DVI.


    (Dazu auch den Grundlagenartikel: )


    Mich würde schon interessieren was da bei Dir passiert ist.


    Edit: Viele Grafikkarten liefern am DVI-Ausgang auch ein analoges Signal; es ist jedoch immer auch das digitale Signal dabei. Ich weiß nicht genau was passiert, wenn man ein DVI-Kabel verwendet, das auch die analogen DVI-Leitungen hat, und damit einen TFT anschließt, der diese auch auswerten kann. Eins weiß ich allerdings sicher: Wenn man ein DVI-Kabel verwendet, das diese analogen Leitungen nicht hat, bekommt man auf jeden Fall das digitale Signal ;)


    Viele Grüße
    Wilfried

  • Zitat

    Original von wwelti
    Mich würde schon interessieren was da bei Dir passiert ist.


    Was heißt da "was bei mir passiert"? Bisher habe ich überall gelesen, dass alle Grafikkarten seit Jahren in 2D das Maximum an Qualität liefern. Zudem gehen die meisten Leute davon aus, dass digital eine verlustfreie Übertragung vom PC in den TFT bedeutet. Dass dem nicht so ist, konnte ich wie oben beschrieben einwandfrei feststellen. Dabei hängt dies sicher auch von dem TFT ab, den man anschließt. Der Samsung 193P hat mit der Radeon einige Bildstellen in Dunkelheit versinken lassen und auch die Schärfe war nicht identisch. Zugegeben, das hat auch mich überrascht, doch habe ich mich zu diesem Zeitpunkt von dem Mythos verabschiedet, dass digital gleich digital ist (bezogen auf DVI).

  • Hallo Tankred,


    Das hört sich doch eindeutig danach an, daß das Signal analog übertragen wurde. Sorry -- Unschärfe bei digitaler Signalübertragung? Das wäre technisch ziemlich aufwändig ;) ... Leider ist da wohl tatsächlich etwas bei Dir schiefgegangen... :rolleyes:

  • Na Deine Weltanschauung in allen Ehren, aber was kann man bei einem DVI-Anschluß schon groß verändern?

  • Hallo Tankred,


    Erstmal möchte ich klarstellen daß es nicht um Weltanschauung geht.


    Lassen wir mal digitale Fehler, die ich schon angesprochen hatte, außen vor.


    Ein digitales Signal so zu manipulieren, daß sich die Werte ein bißchen verändern, bedarf zumindest eines Signalprozessors. Wenn unterschiedliche Grafikkarten bei digitaler Signalübertragung zu unterschiedlichen Bildern führen, dann gibt's auch einen Unterschied im Signal. Und den Unterschied hat dann schon die Grafikkarte auf den Weg geschickt. Das bedeutet automatisch, daß mindestens eine der Grafikkarten "Mist gebaut hat", sprich: nicht die richtigen Farbwerte losgeschickt hat. Das bedeutet dann aber nicht daß der Digitalausgang der Grafikkarte schlecht ist, sondern daß die Software der Grafikkarte (Treiber oder Firmware, je nach dem) Unsinn produziert.


    Weiterhin schau doch mal bitte nach, wie Dein DVI-Kabel aussieht. Haben die Stecker seitlich diese vier quadratisch angeordneten Pins, die das analoge Signal übertragen (würden) ?


    Viele Grüße
    Wilfried

  • Zitat

    Original von wwelti
    Erstmal möchte ich klarstellen daß es nicht um Weltanschauung geht.


    Für viele schon, denn dass das 2D-Signal seit Jahren bei allen Herstellern auf maximalem Level und einwandfrei sei, lese ich an allen Orten.


    Zitat

    Original von wweltiLassen wir mal digitale Fehler, die ich schon angesprochen hatte, außen vor.


    Das sollten wir auch, denn diese Fehler sind nicht aufgetreten. Ich beschäftige mich nun schon seit 20 Jahren mit Computerhardware und kann sicher unterscheiden, ob die Hardware defekt ist oder nicht.


    Zitat

    Original von wweltiWenn unterschiedliche Grafikkarten bei digitaler Signalübertragung zu unterschiedlichen Bildern führen, dann gibt's auch einen Unterschied im Signal. Und den Unterschied hat dann schon die Grafikkarte auf den Weg geschickt. Das bedeutet automatisch, daß mindestens eine der Grafikkarten "Mist gebaut hat", sprich: nicht die richtigen Farbwerte losgeschickt hat. Das bedeutet dann aber nicht daß der Digitalausgang der Grafikkarte schlecht ist, sondern daß die Software der Grafikkarte (Treiber oder Firmware, je nach dem) Unsinn produziert.


    Das muss ich leider komplett zitieren, denn genau darum geht es. Was bringt die Erkenntnis, dass die Technik an sich fehlerfrei aka digital übertragen sollte, wenn das das Endprodukt nicht tut?


    Zitat

    Original von wweltiWeiterhin schau doch mal bitte nach, wie Dein DVI-Kabel aussieht. Haben die Stecker seitlich diese vier quadratisch angeordneten Pins, die das analoge Signal übertragen (würden) ?


    Du hast aber eine seltsame DVI-Steckerbelegung. Meine DVI-Stecker sind für Gewöhnlich DVI-D d.h. 18+1 (Single Link).


    Gegenfrage: was ist Deine Theorie?


    Ein defektes DVI-Kabel kann ich nahezu ausschließen. Die Verbindung wurde in beiden Fällen identisch hergestellt, nur die Grafikkarte und die Treibersoftware wurde geändert. Der Monitor hat das Signal als digital erkannt und die entsprechenden Einstellungen der Bildgeometrie einwandfrei vorgenommen. Wie wäre dies bei einer analogen Übertragung möglich?


    Nein, bisher besteht für mich kein Zweifel, dass die Verbindung auf herkömmlich digitalem Wege (aka DVI) hergestellt wurde und trotzdem Unterschiede in der Bildqualität bestanden.

  • Hallo Tankred,


    über das analoge Signal will ich jetzt mal nicht reden. Das es da schon allein aufgrund unterschiedlicher Einstreuungen / Reflektionen / usw. zu Unterschieden kommen kann, bedarf wohl auch keiner weiteren Diskussion.


    Ich will Deine Beobachtung keineswegs nicht in Frage stellen. Es würde Dir ja auch nix bringen, etwas zu erfinden...


    Die interessante Frage ist nun: Woher kommt der Unterschied? Klar ist, daß es nicht an der Signalstärke o.ä. liegt.


    Meine Theorie ist also: Da es eigentlich keinerlei Interpretationsspielraum gibt, wie eine vorgegebene 2D-Grafik bei "neutralen" Farbeinstellungen übertragen werden sollte, funktioniert mindestens einer der beiden Grafikkarten nicht korrekt. Das liegt dann entweder an der Hardware selbst (das wär' schon merkwürdig!), oder an der Firmware bzw. an den Treibern.


    Du sagst einige Bildstellen versinken in Dunkelheit? Ist die Darstellung mit der Radeon denn insgesamt wesentlich dunkler?


    Bei DVI-Kabeln gibt es eigentlich alle Variationen. 18+1 ist wohl die gebräuchlichste, und überträgt kein analoges Signal. Daher kommt das Problem also schon mal nicht.


    Viele Grüße
    Wilfried

  • Zitat

    Original von wwelti
    ...
    Du sagst einige Bildstellen versinken in Dunkelheit? Ist die Darstellung mit der Radeon denn insgesamt wesentlich dunkler?...


    Nein, das Phänomen, dass z.B. ATI-Karten vielfach das Bild dunkler als nVidia-Karten zeichnen, ist mir bekannt. Es ist wie gesagt keine "andere" Darstellung des Bildes, sondern eine klare Degradierung der Signalqualität. Das Bild "versinkt" z.B. in dunklen Bildteilen von digital fotografierten Bildern. Zudem ist die Schriftqualität unterschiedlich.


    Ein Defekt der "schlechteren" Grafikkarte ist ebenso auszuschliessen, denn von der ATI Radeon 7000 LE hatte ich drei Karten ausprobiert. Da mich das Ergebnis ebenso irritiert hat, habe ich mir schon Mühe gegeben, Produktions- oder Setupfehler als Quelle des schlechten Signals auszuschließen.


    Deshalb kam ich ja auch zu der Aussage, die Grafikkarte bzw. die Grafikkarte mit einem anderen Chip sei für die schlechtere Qualität des Signals verantwortlich.

    Einmal editiert, zuletzt von Tankred ()

  • Hallo Tankred,


    Ok, wieviele Grafikkarten hast Du denn jetzt schon ausprobiert? Insgesamt 4? Oder noch mehr? Und wie genau sahen die Beobachtungen aus?


    - Unterschiede in Schriftqualität? --> Unschärfe bei der R7000LE?
    - Absaufende Farben?


    Du hast von 2D-Darstellung gesprochen. Kann ich davon ausgehen, daß Du einen möglichst neutralen 2D-Testfall ausgewählt hast, sprich: Z.B: dieselbe Grafik, mit Paint angezeigt?


    (Daß es z.B. bei 3D-Darstellungen o.ä. zu Unterschieden kommt kann schon sein, da gibt es ja teilweise schon deutliche Darstellungsunterschiede zwischen verschiedenen Treiber-Versionen auf derselben Graka...)


    Ich habe mir gerade eben mal die Mühe gemacht, die DVI-Darstellung von meiner Radeon 9800Pro mit der DVI-Darstellung einer Gainward GeForce TI200 zu vergleichen. Weder konnte ich einen Unterschied sehen, noch konnte die Digicam (mit Stativ bei jeweils identischen Bedingungen) einen Unterschied ausmachen. Was freilich nichts heißen muß; leider hat die Digicam keine manuelle Einstellung für Blende, Belichtungszeit und Empfindlichkeit. Richtiges Meß-Equipment hab' ich leider nicht.


    Du denkst, es könne am Chip liegen. Wie ist denn Deine Theorie? Was sollte da konkret passieren, daß es zu den beobachteten Unterschieden kommt?


    Viele Grüße
    Wilfried

  • Insgesamt habe ich drei Karten der Marke ATI Radeon 7000 LE und eine Matrox Millenium G550 DH ausprobiert. In allen vier Tests habe ich das Image eines frisch aufgesetzten Windows XP SP2 mit dem selben Treiber bei den ATI-Karten verwendet. Die restliche Hardware, die Einstellungen im Monitor und die Einstellungen der Treiber und Windows sind konstant geblieben. In allen Fällen lieferten die ATI-Karten eine reproduzierbar schlechtere Bildqualität.


    Woran das liegen kann? Ich habe nur einen Unterschied zwischen den ATI-Karten und der von Matrox erkennen können und kann nur den Schluß ziehen, dass Matrox nicht ohne Grund bzw. Gegenleistung vier Mal so viel für seine Karten verlangt. Wo hier die elektrotechnischen Hintergründe liegen, entzieht sich meiner Kenntnis.


    Da ich mittlerweile einen neuen Monitor habe, könnte ich den Test mit diesem wiederholen. Sobald ich am Montag im Geschäft vorbeikomme, hole ich mir ein paar Grafikkarten. Es würde mich jedoch wundern, zu einem anderen Ergebnis zu kommen.


    Zwischen nVidia- und ATI-Karten ist mir in der Vergangenheit nur ein Unterschied in der Bilddarstellung insgesamt, nicht aber in der Qualität aufgefallen. Wenn Du an eine Matrox-Karte kommst, wäre Dein Eindruck im Vergleich zu den Marktführern interessant.

  • Hallo Tankred,


    Bitte definiere doch nochmal "schlechtere" Bildqualität genau.


    Du hast u.A. von Unschärfen gesprochen. Ich kann mir die größte Mühe geben, aber weder bei der GeForce noch bei der Radeon kann ich bei DVI auch nur den geringsten Hauch von Unschärfe entdecken. Und ich habe wirklich mit ner guten Lupe danach gesucht ;) ... Es gibt auch keinen plausiblen Grund wo die herkommen sollte.


    (Wo hast Du die Unschärfen gesehen? Welche Software? Wie verglichen? Bzw. was meintest Du mit unterschiedlicher Schriftqualität?)


    Du hast bei einer Matrox eine "bessere" Bildqualität beobachtet. Könnte es nun nicht sein, daß die Matrox ihr Bild einfach ein bißchen aufpeppt, bevor sie es über die Leitung jagt? Z.B. ein bißchen Schärfungsalgorithmus, ein bißchen Kontrastverstärkung o.ä.?


    Ich zermartere mir gerade das Hirn wie man subtile Qualitätsunterschiede am Besten objektiv testen könnte; mir fällt leider nichts besseres ein als mit einer analogen Knipse (wo man noch alles von Hand einstellen kann) Vergleichsfotos zu machen und diese dann zu scannen. Aber ich glaube irgendwie sowieso nicht daß ich da bei meinen Karten Unterschiede finde... Ärgerlich daß die Digicam so wenig als Meßgerät taugt. Ich habe von jedem der 2 Setups 3 Bilder gemacht, und was soll ich sagen: alle 6 Bilder sind ein bißchen unterschiedlich, trotz ausgeschaltetem Deckenlicht, Stativ, und zeitverzögerter Auslösung. Naja, Automatik halt...



    Hat irgendwer eine Idee, wie man definitiv testen könnte, welche "Zahlenwerte" am DVI-Ausgang einer Grafikkarte ankommen?


    Viele Grüße
    WIlfried

  • Ja 'tschuldigung, dass ich die schlechtere Bildqualität nicht so einfach in intersubjektive Erkenntnisse packen kann. Beim Kauf meines neuen TFT wollte ich einfach das Meiste aus dem Bild holen und dabei ist mir das nun mal aufgefallen. Wenn ich das nächste Mal solche Versuche unternehme, werde ich Deine Nöte mit einschließen. :)

  • Hallo Tankred,


    Würde mich aufrichtig interessieren. Bitte dann mit ausführlicher Beschreibung des Versuchsaufbaus und der Beobachtungen ;)


    Es kann ja durchaus sein, daß einige Grafikkarten das Signal intern ein wenig durch den Wolf drehen, bevor sie es über DVI ausgeben. Erinnert mich an einige ältere Soundkarten, die das Audiosignal vor der Ausgabe über Digitalausgang ein wenig komprimiert haben. (sprich: Dynamikabsenkung, damit die Ausgabe ein wenig lauter ist. Das Kalkül dabei höchstwahrscheinlich: Lauter --> wird von den meisten Usern als "besser" wahrgenommen) Das ist natürlich fauler Zauber und sollte eigentlich nicht passieren...


    Viele Grüße
    Wilfried