Geforce im 2 - D - Bereich schlecht bzw. schlechter als ATI?

  • Hi Leute,


    was haltet Ihr von der Aussage, dass geforce 4 - Karten im 2-D-Bereich eine schlechte Darstellungsqualität haben bzw. schlechter sind als ATI?

  • Sag mal, willst du hier einen Flamewar starten ? ;)


    Es war allerdings tatsächlich durch Probleme mit der Geforce GPU Einheit bei den ersten Modellen (Geforc. 1 und 2) zu Problemen in der 2D Darstellung gekommen.


    Das hat Nvidia meiner Meinung nach aber wieder im Griff.


    Das soll kein Pro oder Contra Nvidia Posting sein, sondern nur eine Einschätzung.


    Allerdings kommt man im 2D Bereich wohl nicht an Matrox vorbei.



    Neutrino

    Einmal editiert, zuletzt von Neutrino ()

  • Das hat überhaupt nichts mit der GPU zu tun! Um der CE-Spezifikation gerecht zu werden, müssen bestimmte Frequenzen in Zaum gehalten werden. Dazu werden Filterbausteine an die Ausgänge der Karten gebaut. Und genau die Qualität der Bausteine ist verantwortlich für die 2D-Signalqualität.


    Bei ATI gibt es ein strenges Zertifizierungsprogramm, was verhindern soll, dass u.a. minderwertige Bausteine verwendet werden. Bei Nvidia gibt es sowas wohl auch seit kurzem, greift aber wohl nicht so dolle. Besonders Billighersteller wie Xelo, Powercolor & Co. verwenden billige Bauteile, die vielleicht 20 cent ausmachen, was dann in schlechter Signalqualität resultiert.


    Matrox verwendet allerdings noch die besten Bausteine. Da die meisten TFTs allerdings per DVI angeschlossen werden, ist die Qualität der Bausteine egal. Die Daten werden eh digital übertragen...

  • Stimmt. Das habe ich mit etwas anderem verwechselt.
    Das hatte nichts mit der GPU zu tun.


    Der Zertifizierungszwang führt wiederum dazu, dass es weniger Ati Anbieter eines bestimmten Kartentyp gibt.
    Und, was bei Nvidia unüblich ist, haben alle Karten mehr oder weniger die selben Chip und Speichertakte.


    Bei Nvidia findet man dann eher "getunte" Karten die mit Herstellergarantie übertaktet werden, weil z.B. nur die besten Speicherbausteine benutzt werden.
    Das dabei der "Rest" der Karte vergessen wird ist leider kein Einzelfall.
    Da hilft nur informieren.


    Wo wir wiederum bei diesem Forum angelangt sind.



    Neutrino

  • Das Problem mit der Bildqualität trifft nicht nur auf Geforce karten zu, allgemein haben alle nvidia Karten bis zur Geforce 3 eine Bildqualität am VGA, die nur zum Abgewöhnen war (Ich erinnere mich nur ungern an meine alte TNT2 Ultra). Nicht anders wars bei der Gef 2 GTS - für die und die MX gabs ja sogar Umlötanleitungen für ne bessere Qualität ;)


    Was mich aber interessieren würde, ist inwiefern diese Bildqualität für TFTs zutrifft - meiner Meinung nämlich gar nicht. Dem TFT ist es doch egal wie stark und präzise das Signal ist, hauptsache es ist da und im Rahmen der Spezifikationen. (Im Falle dessen, das man den TFT per VGA "analog" anschließt)


    ?

    Einmal editiert, zuletzt von sph3re ()

  • Gut ich hatte ja mal eine GF 4200, jetzt ne ATI 9700 (getuned @9800 :) )


    Die ATI (Sapphire) hat eine etwas besser Qualität als die GF 4200 (Pixelview), kommt aber nicht ganz an die Matrox auf Arbeit ran, da gabs nur eine meine alte Kyro 2 konnte mit den G400 und G550er mithalten ohne Proble.. ach ja , das war ne gute Karte ;( hoffentlich gibts mal wieder ne Kyro 5.



    Aber wie schon gesagt, bei DFI , ist das egal.


    Edit:
    Bau ich gleich mal ne Antwort mit ein :-), wenn Du eine schlechte Schallplatte auf CD's machst.. wird sie kaum besser :) also ein schlechtes Signal wirkt sich sehr wohl an der Bildqualität aus.. man kann ja nur das wandeln was ankommt.

    Wenn immer nur die Klügeren nachgeben, regieren bald die Dummen

    Einmal editiert, zuletzt von Uwe ()

  • Zitat

    Original von sph3re
    Das Problem mit der Bildqualität trifft nicht nur auf Geforce karten zu, allgemein haben alle nvidia Karten bis zur Geforce 3 eine Bildqualität am VGA, die nur zum Abgewöhnen war (Ich erinnere mich nur ungern an meine alte TNT2 Ultra).


    Hey nichts gegen die TNT2 Reihe !
    Die war bis zum Gef. 3 noch die beste im Nvidia 2D Bereich bisher.
    Das kann ich von Diamond, Asus und Elsa bestätigen.


    Zitat

    Nicht anders wars bei der Gef 2 GTS - für die und die MX gabs ja sogar Umlötanleitungen für ne bessere Qualität ;)


    Ja Ja. Heutzutage kann man Hardware mit Lötkolben oder Bleistift und Tesafilm tunen.



    Neutrino

  • Zitat

    Original von sph3re
    Was mich aber interessieren würde, ist inwiefern diese Bildqualität für TFTs zutrifft - meiner Meinung nämlich gar nicht. Dem TFT ist es doch egal wie stark und präzise das Signal ist, hauptsache es ist da und im Rahmen der Spezifikationen. (Im Falle dessen, das man den TFT per VGA "analog" anschließt)


    Im Gegenteil: TFT-Monitore sind noch viel empfindlicher, was eine schlechte analoge Signalqualität angeht. Da TFT-Moniorr bauartebdingt nichts mit analogen Signalen anfangen können werden diese (verlustbehaftet) wieder im Monitor digitalisiert. Die dazu notwenigeSnchonisationa auf Takt und Flanke setze ein gutes Analogsignal voraus. Schlechte Analogsignale führen daher schnell zu einem sehr schlechten Bild.

  • @Neutrino - ich kann zwar deinem Post nicht ganz entnehmen, ob deine Aussage eine gewisse Ironie hat - auf jedenfall gibt bzw. gab es wirklich Anleitungen zur Verbesserung der Bildqualität. Und der Bleitstift war beim alten Thunderbird auch zu was da ...


    edit - hier ist die anleitung:
    für tfts würd ichs nicht machen, aber für röhren ganz praktisch - wer halt löterfahrung hat und noch ne alte geforce im betrieb hat.


    btw. meine Creative TNT 2 hatte hatte genau dieselbe scheiss bildqualität wie nachher die creative geforce 2 gts.


    zur Bildqualität: Danke, man lernt nie aus - ist eigentlich eh logisch.

    Einmal editiert, zuletzt von sph3re ()

  • Gut rumlöten auf der Hardware, naja ein bischen würde ich das auch tunt , ich meine ich bearbeite ja auch das Grka Bios usw. aber so Voltagemods. usw. ist was für Hardcorefans.... solche Leute muss es aber auch geben. Bei Verbesserung der Bildqualität ist das was anderes, da würde ich das noch ehern tun.

    Wenn immer nur die Klügeren nachgeben, regieren bald die Dummen

  • meine tnt hatte eine ziemlich schlechte bildqualität verglichen mit meiner jetzigen Gainward geforce 4 440MX. Mit der bin ich sehr zufrieden.


    Bei Tecchannel gibts zur Signalqualität nen ganz interessanten Vergleich:

  • Ja habe ich was anderes behauptet ?!!


    Bitte nochmal genau lesen.
    Ich hatte gesagt, dass bis zur Gef. 3 !!! die TNT2 !!! die beste 2D Qualität bei Nvidia lieferte.


    Das die Gef. 4 bessere Qualität liefert als die TNT1 ist keine Frage !
    Was soll das ?


    Ich habe sogar eine Qualitätssteigerung von der TNT1 zur TNT2 erlebt, überraschend oder ? (Hinweis für alle Humorlosen, die jedes Wort wortwörtlich nehmen, DAS WAR IRONISCH GEMEINT ! )



    Neutrino

  • Zitat

    Original von sph3re
    @Neutrino - ich kann zwar deinem Post nicht ganz entnehmen, ob deine Aussage eine gewisse Ironie hat - auf jedenfall gibt bzw. gab es wirklich Anleitungen zur Verbesserung der Bildqualität. Und der Bleitstift war beim alten Thunderbird auch zu was da ...


    Mist, ich hatte vergessen ein Smily ans Ende des Satzes zu setzen.
    Das geht hier in diesem Board garantiert schief, wie ich da oben wieder lesen muß.


    Und jetzt überleg bitte noch einmal ob dies ironisch gemeint war und was ich damit sagen wollte...
    Mehr werde ich dazu nicht sagen.


    Zitat

    btw. meine Creative TNT 2 hatte hatte genau dieselbe scheiss bildqualität wie nachher die creative geforce 2 gts.


    Was meintest du mit scheiß Bildqualität ?!
    Meinst du damit meine TNT2 Karten waren auch scheiße und damit auch meine Entscheidung diese zu kaufen oder was ? :D ;) ;) ;) :D


    Nein, es gab einen deutlichen Unterschied zwischen dem TNT2 und den ersten beiden Gef. Karten.
    Was dazu geführt hatte, dass ich die Karte mit Gef. 1 zurückgab. Da ich später über die selben Probleme beim Gef. 2 gelesen hatte, stieg ich erst mit dem Gef. 3 wieder ein.
    Dort konnte ich dann tatsächlich zum ersten mal einen positiven Unterschied zur TNT2 feststellen.



    Neutrino

  • Zitat

    Original von thowa
    Hi Leute,


    was haltet Ihr von der Aussage, dass geforce 4 - Karten im 2-D-Bereich eine schlechte Darstellungsqualität haben bzw. schlechter sind als ATI?


    Es ist leider, so wie im Leben, komplizierter als es ein sollte.


    Man kann leider nichts pauschal über die Signalqualität sagen, weder bei Ati, Nvidia noch Matrox.


    Es kommt immer ganz auf die Karte selber an und was der Kartenhersteller aus dem Refernzdesign macht.
    Da werden schon mal überdimensionierte Dämpfungsfilter eingebaut um gerade noch die CE Norm einzuhalten, und an anderer Stelle HF-Spulen direkt daneben.


    Frag doch hier nocheinmal nach welche Karten dich interessieren, dann können dir bestimmt ein paar Besitzer selbiger einen Rat geben.



    Neutrino

    Einmal editiert, zuletzt von Neutrino ()