Posts by Rictoris

    Also könnte man auch erst mal eine kleinere Grafikkarte verwenden, die zwar für Spiele in der nativen Widescreen-Auflösung zu langsam ist, aber für geringere Auflösungen mit Balken an den Seiten ausreicht und dann erst später eine ausgereifte High-End-Grafikkarte anschaffen?


    Die aktuelle Lage auf dem Grafikkartenmarkt halte ich für ziemlich absurd. Auf der einen Seite die relativ günstigen Karten im Bereich der ATI Radeon X1950XT und Konsorten, die aber nur DirectX9 unterstützen. Auf der anderen Seite die teuren High-End-Klopper wie Geforce 8800GTX mit Monster-RAM, die zu viel Strom brauchen, zu viel Abwärme produzieren und zwar in erster Generation DirectX10 unterstützen, aber das nur unausgereift. Außerdem ist DirectX 10.1 schon wieder auf dem Weg und wird von diesen Karten wohl nicht in Hardware unterstützt werden.

    Komischerweise wird diese Frage nirgendwo zum Thema gemacht.


    Wenn ich bspw. einen 22 Zoll Monitor kaufe, hat der ja eine monstermäßige native Auflösung. Da die Monitore selbst typischerweise bei der Interpolation auf kleinere Auflösungen ziemlich mies sind, bleibt nur Aspect Scaling über die Grafikkarte, sofern das von deren Treiber angeboten wird.


    Was ist aber mit der Framerate, wenn ich z.B. bei einem 22 Zoll Monitor mit einer durchschnittlichen Grafikkarte eine kleinere Auflösung mit Balken darstellen lasse? Muss die Grafikkarte trotzdem von der nativen Auflösung nach unten rechnen und bleibt trotzdem langsam oder erhöht sich die Framerate, weil die Grafikkarte irgendwie gleich in der kleineren Auflösung berechnet und darstellt? ?(


    In ersterem Fall wäre man ja weiterhin auf eine High-End-Grafikkarte angewiesen... :(