Posts by GeorgR

    Und warum glaubt ihr dass die neuen Samsungs dann so toll sein würden? Hat jemand Links mit den Spezifikationen?


    Und: Wenn du tatsächlich sowas wie 640x und 100hz im Auge hast...dann denke ich mal dass du auch völlig daneben bist mit nem 22er LCD. Bei meienr Grafikkarte bspws. wüsste ich nichtmal wie ich 640x mal einstelle...ich hab diese Auflösung schon vor Jahren nicht mehr gesehen (ist einfach nicht mehr anwählbar)...ich glaube das niedrigste (wenn überhaupt) wäre 800x600. Davon ganz zu schweigen dass 640x oder 800x wohl ziemlich greisslich aussehen würde...wenn dieses denn (in der Theorie) möglich wäre.


    Ne Empfehlung wäre übrigens dass du dir nen günstigen LCD *UND* nen gebrauchten CRT holst zum 100hz/niedrige Auflösung spielen wenn die die FPS tatsächlich so wichtig sein sollen in diesem einem game. Hol dir nen 226BW (da relativ billig), guck nach nem guten Preis und für 50-60 hol dir nen gebr. CRT bei recycle-it und benutz den für CS tourniere.

    naja, das ist ja nen CRT :)
    Beeindruckende Raten, zugegebenermassen.
    Ändert nix dran dass mein alter 19" CRT aber jetzt im Vergleich zum widescreen LCD wie der letzte Schrott aussieht...Unteschied ungefähr so wie wenn du 19" gewohnt bist und dann man gezwungen bist mit nem 15er zu arbeiten :)


    Ich würde dir *definitv* empfehlen dir LCDs bei nem Freund/Geschäft anzugucken mit CS vielleicht...da ich eben sehen kann dass du auch Probleme haben wirst dich überhaupt daran zu gewöhnen wenn du aus der Riege "ich spiel mit 100hz" kommst.

    Quote

    Originally posted by erdi
    Ist schon okay, deine Antworten hatte ich mir nur einen Tick früher selbst rausgesucht ;)


    Die 100Hz Problematik ist wieder eine Sache der HL-Engine. Das Spiel hat Parameter wie Waffenrückstoß und Sprungweiten die von der Anzahl der Frames abhängig sind, wenn ich also in CS nicht auf 100/101 Frames stelle habe ich einen spielerischen Nachteil, wenn ich jedoch auf 100/101 Frames stelle und der Monitor lediglich 75/85 anzeigen kann müssten ja theoretisch Bilder verloren gehen oder sehe ich das falsch? Wenn dem nicht so ist, lasse ich mich gerne belehren, vielleicht haben wir ja dann rasch eines meiner Probleme aus dem Weg geräumt :)


    Erdi, welcher Monitor, sei es CRT oder LCD stellt denn 100 dar? Ach so...nun sehe ich warum du 640x spielst...also nicht mal mit nem sehr gutem CRT kannste 100 auf ner NORMALEN Auflösung spielen. Mit Normal meine ich "1280"+ Auflösungen.


    Und dann sind wir wieder mal beim Thema (seufz):


    Soll dies aber nicht relevant sein, wenn du auf "Vsync AUS" spielst die Gameengine NICHT synchron zur Grafikkartenausgabe läuft. AUCH wenn der Monitor tats. physikalisch nur 60 oder 70 oder 80 FPS anzeigt die Engine "intern" so schnell läuft wie es eben geht...insofern deine Werte Waffenrückstoss usw. nicht begrenzt werden können.
    Das träfe nur zu wenn du mit "Vsync AN" spielst und die Engine auf den Monitorrefresh begrenzt.
    "Visuell" gehen Bilder verloren, sicherlich, der Monitor kann halt nur X Bilder darstellen - aber darum gehts ja nicht - es geht um den Speed der Engine und Abarbeitung der Gameroutinen...und die können bei der alten CS engine ja durchaus 100, 200, 300 FPS sein ...also "flüssiges" Bildgeschehen, unabhängig ob der Moni dann "nur" 60hz davon anzeigt.

    LCD Shopping ist in der Tat was furchtbares, du kannst dich verlassen dass zu jedem Monitor irgendwer was schlechtes zu sagen hat was mich bei allen Testberichten abgeschreckt hat. Ich hatte vorher auch den LG, dann natürlich Samsung oder HP im Auge...und bei dem Samsung natürlich das mit der Panel Lotterie mich abgeschreckt hat bzw. vereinzelt negative Punkte bei den anderen. Der HP 2207h wohl in der allerengsten Wahl von all den Monitoren.


    Ich mir aber dann den BenQ geholt habe, und zwar ohne jeglichen Testbericht vorher darüber gefunden zu haben. Beim BenQ ist es generell so dass er auf jedem Fall nen guter Gamermonitor ist und dann auch bei anderen Faktoren wie Farben, Allgemeiner Bildqualität usw. doch sehr gut abschneidet.


    Oder, sagen wir mal so: Wenn ein Zocker den BenQ tested und meint er wäre zum Gamen nicht geeignet dann kriegt er mit Sicherheit keinen "schnelleren" oder besser Gaming-tauglichen Monitor woanders (mit Ausnahem des Ilyama vielleicht der 75Hz macht...[inwiefern das überhaupt relevant ist ist wieder nen anderes Thema auf das jetzt nicht wieder eingehen will] :) - dann soll er gleich beim CRT bleiben oder 10 Jahre warten bis neue Technik da ist - aber es wäre sinnlos jetzt unzählige LCD Firmen zu vergleichen da die derz. schnellen Panels "im Prinzip" doch alle gleich schnell sind...und sowas wie "Mauslag" etc. gibts doch bei all den derzeitigen sowieso nicht.
    Aber es halt Faktoren dazukommen wie Panel-Lotterie, Glossy ja/nein, Interpolation und allg. Bildqualität die auch stimmen müssen. Und dann natürlich der Geldbeutel auch ne Rolle spielt.


    G.

    du kannst dir ja den mittlerweilen langen testberichts-thread meines Benq X2200W durchsehen und dir ne Meinung bilden.


    Der Punkt ist, dass alle derzeitigen "Gamer LCDs" 5ms (bzws. 2ms g/g) Reaktionszeit haben...insofern kannste es in ner Pfeife rauchen ob jetzt der aktuelle LG, oder HP, BenQ oder Samsung. Der BenQ hat halt noch die Möglichkeit des "Perfekt Motion".


    Meine bisherigen Erfahrungen was einige *andere* Leute so denken: Entweder vertreten diese die Meinung dass LCDs sowieso absolut nicht zum Gamen geeignet wären und dann suchen sie nach dem goldenen Wunder LCD monitor, den es aber so nicht gibt.....oder, (wie ich) sind vollauf zufrieden, als auch Hardcore Gamer von nem CRT kommend, und kann die "Mankos" welche andere Leute sehen so einfach nicht bestätigen.


    Ich empfehle mal bei nem Freund oder in nem Geschäft einen Monitor ausgiebig zu testen ehe man sich ihn holt, falls möglich. Von meiner Seite kann ich meinen BenQ X2200W nur 100% empfehlen - aber wie mein Testberichts-thread zeigte ist das immer ne subjektive Sache, was für den einen "perfekt" ist kann für den anderen "unzumutbar" sein :)


    >>>
    und eine gute Interpolarition auf 640x480/800x600 oder 1024x768 da alle Auflösungen darüber hinaus leider auch aktuelle Rechner in die Knie zwingen sobald es zum Ballen von Rauchgranaten kommt, was bei einem Ligenspieler wie ich es bin doch öfter mal vorkommt...
    >>>


    du wirst doch nicht ernsthaft sagen dass du Dir nen widescreen holst..und dann 640x480 fährst? .) Sogar 1024 wäre ja sogar noch lachhaft. CS ist doch so alt dass sogar ne low-end Karte noch ausreichend schnell dafür ist, für 1024 - 1280 doch allemal?

    ich glaub nicht dass er von tearing spricht.


    Kannst du mal genauer erklären was du meinst?


    Mikroruckler? Doppelbilder?


    Fährst du Vista?


    Wenn ich auf meinem high-end system windows rumschiebe ruckelt und "teart" das das auch, das hat aber nix mit dem Monitor zu tun, sondern eher mit Vista.


    Guck mal deine directx settings an, hast du Hardwarebeschnleunigung ein?


    RUN ---> tipp "dxdiag" und guck mal da.


    Evtl. treiber für Karte neu installieren.

    Quote

    Originally posted by BxBender
    Hat so um 1,8 abgeschnitten.
    Also absolut ne Empfehlung, wenn man das Geld hat.
    Von der Verarbeitung und Optik her bestimmt besser als der Iiyama für 230 Euro.
    Aber nur wenn MPA wirklich was bringt, sind die 100 Euro mehr auch gerechtfertigt.
    Das wird Prad hoffentlich nächste Woche bestätigen, dann wirds wohl bald gekauft.


    Bzgl. "Verarbeitung"..lach...also dem Standfuss trau ich so nicht unbedingt :)
    Dann kenne ich aber den Ilyama nicht, jetzt so zum Vergleich.


    Wenn du die 80-100 Mehrkosten rechnest, denke bitte auch an andere Faktoren denken wie Helligkeitsverteilung, Skalierung und die Farben. Da sieht er ja auch ganz gut aus laut diversen Berichten und meiner pers. Meinung.

    nope...hab am kiosk geguckt sowie an der tankstelle. Weiter hab ich mich dann nicht bemüht, so wichtig wars mir auch nicht :) Aber ich nahm an dass der Bericht ganz kurz sein muss da er auf der Online Ausgabe des Hefts gar nicht im Inhaltsverzeichnis war...insofern ich sowieso nur nen kleinen "ferner liefen...."Kurzbericht erwartet habe


    Was meinten die denn? Ich habe das Heft halt nirgends gefunden ;(


    Ja, das meine ich ja auch dass diese Diskussion dann evtl. zu weit führen würde, und dann eher Grafikkarten- oder GameEngine- bezogen und nicht direkt mit Monitortechnik zu tun hätte, nur sekundär :)


    Ich wollte halt nur klar machen dass es nicht so ist dass jegliche Grafikkarten/FPS Ausgabe *über* das Hardwarelimit des Monitors heraus unsinnig wäre - dem ist halt nicht so. Einfachstes Beispiel: Kann man ja jedes x-beliebige Spiel vorführen auf nem 60hz LCD, und einmal mit 60hz FPS..und dann im Vergleich 150+ FPS und sehen was einem "flüssiger" vorkommt..das ist doch gar keine Frage.
    Ich vertrete halt den Standpunkt dass es weitaus wichtigere Kriterien gibt, auf Monitorseite, wie Reaktionzeit, Lag...und ich jetzt nicht unbedingt den perfekten Gamermonitor aufgrund der vertikalen Widerholfrequenz auswählen würde :)


    Wenn dieser Ilyima den ihr getested habt der perfekte Gamermonitor ist dann sicherlich aus diesen Gründen, mit der höheren vert. Freq eher als Zusatzsbonus der zum Gesamteindruck mit beiträgt....aber für sich alleine doch *relativ* irrelevant ist.


    Bei dem kommendem Testbericht des Benq, naja, bin mal gespannt wie ihr den wertet, ganz besonders im Bezug auf die reale "Nutzbarkeit" des Perfektmotion. Wie ich mal früher in dem Thread meinte habe hat BenQ beim OSD und den Presets relativ verpatzt...diese hätten die Features des Monitors weitaus einfacher bzw. sinniger zugänglich machen können. Alleine schnell zugängliche Kontrast/Helligkeitseinstellung wäre schon was ;/ Diese könnten den Monitor mit einem Firmwareupdate sehr aufwerten - aber so wie es aussieht scheint BenQ nicht gerade grossartig in Bezug auf Firmware updates zu sein.

    >>>
    Wenn wir mal von einem TFT mit 60Hz ausgehen und außer Acht lassen, dass irgendwelche Grafik-Engine-Berechnungen evtl. mit einer höheren fps-Rate "genauer" oder so ausgeführt werden (k.A., ob das so ist), dann musst Du bei der Grafikkartenwahl prinzipiell nur darauf achten, dass die Karte immer 60fps bei der gewünschten Auflösung und Details im gewünschten Game schafft. Wenn die 200fps liefert, bringt Dir das mit einem TFT, der nur 60fps pro Sekunde darstellt, visuell gar nichts. 60fps reichen für eine flüssige Darstellung vollkommen aus und ich kann wie gesagt nicht beurteilen, ob es einen nachvollziehbaren Vorteil bringt, auf einem 120Hz-CRT mit dann 120fps zu zocken.


    Mit irgendwelchen theoretischen Vorteilen auf Software-Basis (Game-Engine etc.) kenne ich mich wie gesagt nicht aus, aber vom Prinzip her kannst Du Dir als TFT-User eine Grafikkarte, die in Crysis 120fps schafft, sparen
    >>>


    Dem stimm ich mal so jetzt nicht zu :)


    Der Unterschied in der Flüssigkeit des Gameplays ist nämlich gewaltig ob ich jetzt Game XYZ mit 60FPS spiele - oder 200. Unabhängig ob ich einen LCD drangeklemmt habe der tatsächlich hardwaremässig nur 60hz schafft.


    Es würde selbstverständlich auch ein Vorteil (und zwar ein ganz klar gefühlter und sichtbarer) sein wenn man 120 FPS auf einem CRT spielt - und der CRT diese 120FPS so auch physikalisch ausgeben könnte, d.h. tatsächlich diese 120 unterschiedlichen Bilder per Sekunde dann so auch anzeigt.
    Beim LCD mag diese Vorteil kleiner sein (ich muss hier trotzdem mal genauer recherchieren in Bezug auf die Relevanz von vertikalen Freq bei LCDs, interessantes Thema!)...aber es mit Sicherheit nicht so ist dass, würde die Karte 140+ FPS mehr schaffen als der LCD, diese 140+ FPS unnütz und unfühlbar "verschwendet" wären und nicht zum Tragen kämen.
    Das kann ich ja ganz, ganz simpel testen wenn ich ein x-beliebiges Game auf 60hz begrenze, oder dann im gegenzug Vsync ausmache...oder eben ein älteres Game spiele wo die Karte tatsächlich 200+ FPS schafft, bspws. bei der älteren HL2 Engine.


    Ja ich höre sehr oft das Argument von Leuten dass "xyz FPS macht ja so oder so keinen Sinn"...einige argumentieren mit "60 FPS ist genug" (viele Games tasächlich intern auf 60FPS begrenzt sind!)....einige sogar etwas verzerrend argumentieren dass 24hz "genug" sind weil "...das Auge ja mehr nicht wahrnehmen kann als 24FPS"


    Das eben nur zum Teil richtig ist...hier aber wie gesagt andere Faktoren zum Tragen kommen die zur Flüssigkeit des Games beitragen, in einer perfekten Theorie willst du ja nicht dass eine Grafikkarte eine Game-Engine schon im vorneherein "begrenzt".


    Je mehr das Game aufbauen kann, auch über die "darstellbare" Frequenz des Monitors (oder wahrnehmbare Trägheit des Auges) heraus, desto mehr fliesst das direkt in flüssigere Darstellung und Abarbeitung der Gameroutinen ein, und dies ist auf jedem Fall so auch "fühlbar".

    Übrigens:


    Es gab letztens ein Feuer in einer Produktionsfabrik, und BenQ war davon auch betroffen:



    Dies erklärt evtl. Stagnation der Preise als auch Leiferengpässe dieser Monitore. Laut BenQ ist mit der nächsten Batch dieser Monitore erst Ende Mai/Juni zu rechnen!


    G.



    Nee...er gibt sicherlich keine 30FPS wieder da der Monitor immer noch auf 60 läuft. Subjektiv gesehen sieht das Flimmern so aus als hätte man einen CRT auf 60, oder eben das Flimmern wenn du den PC an einen TV anschliessen würdest. (Die arbeiten ja auch mit Zwischenbildern bzw. Interlace).
    Das Flimmern ist in Games *eigentlich* nicht zu sehen, ausser bei sehr hellen Flächen...und natürlich würdeste das Flimmern/PM nicht auf dem normalen Desktop haben wollen.


    Ist der 970P Widescreen? Ich meine, auch für mich als Umsteiger von nem sehr alten CRT ist alleine der Fakt dass der neue WS ist enorm Vorteilhaft...zusammen mit anderen Dingen wie zB. dass der CRT schon recht alt war und dunkler und dunkler wurde..halt typische CRT Alterserscheinungen.

    rinaldo,


    ich sehe deinen punkt, muss abert trotzdem nochmal zwischenfragen


    "Alles über 60fps bzw. 75fps wird aber nicht mehr angezeigt".


    Ein LCD ist doch statisch - und die VSync ja nur zum tragen kommt wenn ich die Option auch nutze. Frage jetzt inwiefern jetzt "über X Hz wird nicht angezeigt" zutrifft bei einem LCD bei dem es ja "so" sowieso keinen Bildaufbau wie bei den CRTs gibt - dies verwirrt jetzt :)


    In der Praxis nimmt es sich natürlich sehr wohl was ob ich jetzt eine Game Engine auf 60 begrenze oder eben "nach oben offen" ohne Vsync laufen lasse. Die Game Engine einfach schneller läuft und nichtsdestotrotz ein flüssigerer Gesamteindruck entsteht mit weniger Ruckeln - unabhängig davon ob der Monitor nun tatsächlich "physikalisch" 100+ unterschiedliche Bilder/Sekunde in der Lage ist anzuzeigen.


    >>>
    Vsync sorgt nur dafür, dass Du keine Bildzerreißer hast und synchronisiert Grafikkartenausgabe und Bildanzeige, weil die Grafikkarte wohl kaum immer exakt 60fps bzw. 75fps ausgibt.
    >>>


    Da sind wir uns sicher einig.


    >>>
    Vsync ausschalten nützt nur genau dann was, wenn die Grafikkarte in dem Spiel an ihrer Leistungsgrenze arbeitet und öfters mal unter die 60/75fps-Grenze rutscht.
    >>>


    Wenn man jetzt die Aussagen interpretiert klänge das ja so als wäre "Vsync Off" -Option (und damit auch Power einer Grafikkarte) irrelevant. Aber dem ist sicherlich nicht so da es auf jeden Fall eine Vorteil hat ob ich jetzt eine Grafikkarte habe die bei Spiel X maximal 70 FPS anzeigt, oder viel schneller, 200+ FPS-


    Hier verlassen wir sicherlich das Thema "Monitore", da das mit Monitortechnik wohl nur sekundär zu tun hat - aber dann ich auch schon nen paar mal erwähnt habe das tatsächlich eine Menge von der subjektiv erfahrenen "smoothness" von der Gameengine, Grafikkarte usw. abhängt...und natülich nicht nur vom Monitor.


    Bspws. bei der letzten Diskussion über Bewegungsunschärfe: Es KAUM ein derzeitges Game gibt dessen Engine so "smooth" ist dass dieses extrem zum Tragen käme. Viele Games oft nicht mal Monitor Syncrate erreichen, oder einfach schneller sind. In jedem Fall (bei deaktiviertem Vsync) resultiert das in Tearing.
    Dann auch Miko-Ruckler usw....alles Kriterien die recht wenig mit dem Monitor zu tun haben aber doch zum subjektiv erfahrenem Erlebnis beitragen.#


    (Als vereinfachtes Beispiel: Wenn ich hier unter Vista 64 mit einer recht leistungsfähigen 8800 GTS Windows herumziehe...es ruckelt und teart...weil der Bildaufbau ansich schon verhunzt ist...und da kann der Monitor nix für :)


    G.

    Quote

    Originally posted by evergrace
    oke gut
    ausserdem kann man sagen das der monitor ja 120 hz hat weil ja immer ein schwarzes bild dazwischen kommt ^^


    Lol..ne, der zwischengeschaltetete Schwarzframe HALBIERT die Frequenz, er verdoppelt sie nicht :) (Aber ich sehe deine Logik ...)


    Ich sehe übrigens den Kritikpunkt den einige Leute bei aktivierter PM haben ("zu dunkel"), dies aber von der Logik halt mal so sein MUSS. Wenn jeder zweite Frame schwarz ist...dann wird das Bild halt dunkler, gibts nix zu rütteln, ist ein physikalischer Fakt.


    Der Kritikpunkt am BenQ nun aber dass das PM zwar durchaus praktikabel ist (für Games !!) , aber es eben kräftig Nachjustierung von Kontrast/Helligkeit braucht.


    Ein GROSSES Manko des Benq dass man NICHT schnell an Kontrast/Helligkeit herankommt, sondern erst umständlich übers OSD reingehen muss - was ganz dumm ist, eben weil man es wenn man PM anmacht ja immer doch *schnell* nachjustieren will. Und die eingebauten Presets Müll sind bzw auch nicht erlauben eine Einstellung zu finden und diese dann als Custom abzuspeichen.

    evergrace,


    dann sind doch 99,99% aller LCDs zum zocken uigeeignet.


    Nochmal: Die vertikale Frequenz eines LCDs ist NUR relevant wenn du aus irgendeinem Grund darauf bestehen würdest mit "VSync an" zu spielen - demnach deine Grafikkarte mit dem Monitor "zwang"-forcierst.


    Der Grund warum einige diese Setting anhaben (und demnach ihre Grafikkarten-Geschwindigkeit begrenzen) ist, dass bei aktivierter synchroner Ausgabe weniger sog. "Tearing" auftritt. Dass heisst das Bild wird "smoother" aufgebaut und Polygone, Frames werden sauberer aufgebaut da mit der Monitorrate synchron.


    Ich persönlich benutze nie "Vsync", der Grund: Sehe ich nicht ein die Power meiner Grafikarte "künstlich" zu begrenzen und auf 60 (oder 70 oder 80) zu begrenzen wenn sie bei einigen Games 200+ schafft. Desweiteren sehe ich das Tearing so nicht als Problem an.


    Du hast also, jetzt beim BenQ und 99% aller LCD die Möglichkeit:


    a) VSync aus (im Grafikkarten Treiber oder direkt in den Spiel Einstellungen) und dann viele FPS zu erreichen, unabhängig wieviel der Monitor "schafft". Es spielt dann einfach keine Rolle


    b) Vsync AN und Games "künstlich" auf 60hz zu begrenzen weil es für dich besser ist mit 60hz zu spielen und du denkst das das weniger "Tearing" besser ist als die maximale Leistung der Grafikkarte


    c) Game Auflösung runterschrauben, bspws. 1440x900. Da der Benq auf 1440x900 bis zu der Auflösung 76Hz "schafft". Aber wie gesagt: WIEDER NUR nur relevant wenn du denn auch mit "Vsync an" spielen würdest.


    Es ist meine pers. Meinung dass einige Oldschool-Leute welche von CRT kommen da mit den Vert. HZ ein Kriterium sehen dass aber so bei LCDs einfach nicht relevant ist. Es ist auch meine pers. Meinung einen LCD als "besten Gamer LCD" zu bezeichnen weil er mehr vert. "Hz" "schafft" wirklich eher relativ ist. Wie gesagt gäbe es da weitaus wichtigere Kriterien, mit der Vert Frequenz ganz, ganz weit unten.

    Quote

    Originally posted by rinaldo



    Wenn der TFT aber 75Hz schafft, kriegst Du auch 75fps dargestellt, mit 60Hz nur 60fps. Auch wenn die Grafikkarte mehr fps raushaut, der Monitor kann nur soviele anzeigen, wie die Bildfrequenz hergibt.


    rinaldo,


    das trifft doch NUR zu wenn man als Gamer darauf besteht dass die "Vsync" Eisntellung entweder im Game oder im Treiberpanel *aktiviert* ist, also Vsync forziert wird. (Was ich beispielsweise nie anhabe)


    Was der Monitor "in der Realität" anzeigt ist doch irrelevant (wie du auch sagst, flickern gibts ja nicht)....wenn die Grafikkarte 200+ FPS raushaut dann stellt das Game auch 200 FPS dar.