Ende März deckt sich auch mit meinen Informationen direkt von NEC...
Beiträge von Paul Brain
-
-
Zitat
Originally posted by derGhostrider
Paul:
Die Vorausberechnung und das LAG, was durch die Grafikkarte dort erzeugt wird (ich habe das vor Jahren auch mal extrem gemerkt), hat jedoch überhaupt nichts mit der Latenz des Monitors zu tun.
Die Grafikkarte berechnet spekultativ Bilder für die Zukunft und gibt diese dann aus. Wenn sich plötzlich etwas im Spiel verändert hat, dann stimmen die Bilder natürlich nicht mehr. Das ist Dein Gummiband-Effekt (nebenbei bemerkt: Ein wirklich sehr guter Vergleich!).Als Physiker behaupte ich einfach mal, daß es im Netz viele Meßmethoden gibt, die absolut schwachsinnig sind. Oder einfach nur falsche Auswertungen und Fehler in der Durchführung.
Ich erinner mich an einen Netzteiltest, wo die Spannungsspitzen außerhalb des Meßbereichs lagen, und trotzdem (wie auch immer) der Autor deren Höhe angegeben hat - natürlich viel niedriger, als sie auf einem Foto vom Display zu erkennen waren.RICHTIGES Messen ist eine Wissenschaft für sich.
Bezüglich des Prerender-Limits sei Dir der kurze Absatz aus ans Herz gelegt. Es wird nichts "vorausberechnet", sondern "zwischengespeichert" -> und das ist auch genau das, was der Monitor macht.
Hat die Grafikkarte also 3 Befehlsfolgen im Puffer, die abgearbeitet werden müssen, werden erst nach dieser Zeit Benutzereingaben sichtbar -> es "laggt". Speichert der Monitor 3 Frames und verzögert die Ausgabe damit um diesen Wert, so werden Benutzereingaben ebenfalls erst nach dieser Zeit sichtbar -> es "laggt" ebenso. Wobei hier, wie zuvor bereits angesprochen, die Framedauer natürlich eine bedeutende Rolle spielt. 3 Frames bei 60Hz des Displays sind lang nicht so schlimm wie 3 Frames der Grafikkarte bei 30fps... Meistens ist es aber so, daß gerade in Hochlastsituationen die Grafikkarte eh schon mit dem Rendern nicht nachkommt, und dann eben besonders viel in ihrem Kommandopuffer hat, während die Framerate nach unten geht - die Latenzzeit explodiert förmlich. Hält man diese durch ein angepasstes Prerender-Limits in Maßen, so kann durch Addition der Bildschirmlatenz dennoch ein gefühlter Mauslag daraus werden.
User, die in Settings spielen, in denen sie 60fps+ haben, werden davon wohl nichts mitbekommen; Leute mit 30"-Schirm, die in der nativen Auflösung spielen werden dagegen viel viel öfter ans Limit ihrer Grafikkarte stoßen. Und bitte jetzt keine Ratschläge á la "dann kauf Dir a gscheite Hardware" oder "dreh halt die Settings runter" - mir gehts einzig darum, zu zeigen, daß die Monitorlatenz fühlbar sein kann, wenn wahrscheinlich auch nicht für sich alleine.Bezüglich Messungen stimme ich Dir vollinhaltlich zu; ich komme selbst aus dem elektrotechnischen Bereich und genoß in der HTL einige Jahre Meßtechnik... Es gibt da auch so ein nettes Sprichwort: "Wer mißt, mißt Mist"...
-
Zitat
Originally posted by derGhostrider
Paul:
Die Vorausberechnung und das LAG, was durch die Grafikkarte dort erzeugt wird (ich habe das vor Jahren auch mal extrem gemerkt), hat jedoch überhaupt nichts mit der Latenz des Monitors zu tun.
Die Grafikkarte berechnet spekultativ Bilder für die Zukunft und gibt diese dann aus. Wenn sich plötzlich etwas im Spiel verändert hat, dann stimmen die Bilder natürlich nicht mehr. Das ist Dein Gummiband-Effekt (nebenbei bemerkt: Ein wirklich sehr guter Vergleich!).Als Physiker behaupte ich einfach mal, daß es im Netz viele Meßmethoden gibt, die absolut schwachsinnig sind. Oder einfach nur falsche Auswertungen und Fehler in der Durchführung.
Ich erinner mich an einen Netzteiltest, wo die Spannungsspitzen außerhalb des Meßbereichs lagen, und trotzdem (wie auch immer) der Autor deren Höhe angegeben hat - natürlich viel niedriger, als sie auf einem Foto vom Display zu erkennen waren.RICHTIGES Messen ist eine Wissenschaft für sich.
Bezüglich des Prerender-Limits sei Dir der kurze Absatz aus ans Herz gelegt. Es wird nichts "vorausberechnet", sondern "zwischengespeichert" -> und das ist auch genau das, was der Monitor macht.
Hat die Grafikkarte also 3 Befehlsfolgen im Puffer, die abgearbeitet werden müssen, werden erst nach dieser Zeit Benutzereingaben sichtbar -> es "laggt". Speichert der Monitor 3 Frames und verzögert die Ausgabe damit um diesen Wert, so werden Benutzereingaben ebenfalls erst nach dieser Zeit sichtbar -> es "laggt" ebenso. Wobei hier, wie zuvor bereits angesprochen, die Framedauer natürlich eine bedeutende Rolle spielt. 3 Frames bei 60Hz des Displays sind lang nicht so schlimm wie 3 Frames der Grafikkarte bei 30fps... Meistens ist es aber so, daß gerade in Hochlastsituationen die Grafikkarte eh schon mit dem Rendern nicht nachkommt, und dann eben besonders viel in ihrem Kommandopuffer hat, während die Framerate nach unten geht - die Latenzzeit explodiert förmlich. Hält man diese durch ein angepasstes Prerender-Limits in Maßen, so kann durch Addition der Bildschirmlatenz dennoch ein gefühlter Mauslag daraus werden.
User, die in Settings spielen, in denen sie 60fps+ haben, werden davon wohl nichts mitbekommen; Leute mit 30"-Schirm, die in der nativen Auflösung spielen werden dagegen viel viel öfter ans Limit ihrer Grafikkarte stoßen. Und bitte jetzt keine Ratschläge á la "dann kauf Dir a gscheite Hardware" oder "dreh halt die Settings runter" - mir gehts einzig darum, zu zeigen, daß die Monitorlatenz fühlbar sein kann, wenn wahrscheinlich auch nicht für sich alleine.Bezüglich Messungen stimme ich Dir vollinhaltlich zu; ich komme selbst aus dem elektrotechnischen Bereich und genoß in der HTL einige Jahre Meßtechnik... Es gibt da auch so ein nettes Sprichwort: "Wer mißt, mißt Mist"...
-
Zitat
Originally posted by rinaldo
Rein wissenschaftlich gesehen sind Latenzen bei Hand-Auge-Koordinationen unter 60 - 80 ms (= 4-5 Frames) nicht wahrnehmbar. Der Grund dafür, dass sie doch spürbar sind, liegt zumeist darin, wenn im System bereits Lags vorhanden sind, die sich zur Latenz des Monitors hinzuaddieren, sodass die Gesamtverzögerung spürbar ist.
Und hier ist er: der Grund, warum die Latenzen eines Bildschirms doch bedeutsam sein können.
Gerade bei niedrigen Frameraten (was jetzt nichts mit der Bildwiederholfrequenz des Displays zu tun hat, da Framedauer der Bildausgabeeinheit != Framedauer des Displays!) merkt man in Spielen oft eine Art "Gummibandeffekt"; aus diesem Grund hab ich bei mir mit dem Rivatuner auch die Vorausberechnung von Frames auf 1 runtergestellt (Standard sind glaub ich 2 oder 3), was die gefühlte Latenz doch deutlich reduziert. Natürlich muß man dabei eingestehen, daß die Framedauer mit sinkender Bildwiederholrate steigt, und 1 Frame Latenz eben nicht immer gleich lang sind. Gesellen sich da jetzt aber nochmal z.B. 30ms hinzu, so kann die Summe durchaus deutlich unangenehm auffallen. -
Zitat
Originally posted by rinaldo
Der Grund dafür, dass sie doch spürbar sind, liegt zumeist darin, wenn im System bereits Lags vorhanden sind, die sich zur Latenz des Monitors hinzuaddieren, sodass die Gesamtverzögerung spürbar ist.Und hier ist er: der Grund, warum die Latenzen eines Bildschirms doch bedeutsam sein können.
Gerade bei niedrigen Frameraten (was jetzt nichts mit der Bildwiederholfrequenz des Displays zu tun hat, da Framedauer der Bildausgabeeinheit != Framedauer des Displays!) merkt man in Spielen oft eine Art "Gummibandeffekt"; aus diesem Grund hab ich bei mir mit dem Rivatuner auch die Vorausberechnung von Frames auf 1 runtergestellt (Standard sind glaub ich 2 oder 3), was die gefühlte Latenz doch deutlich reduziert. Natürlich muß man dabei eingestehen, daß die Framedauer mit sinkender Bildwiederholrate steigt, und 1 Frame Latenz eben nicht immer gleich lang sind. Gesellen sich da jetzt aber nochmal z.B. 30ms hinzu, so kann die Summe durchaus deutlich unangenehm auffallen. -
Zitat
Originally posted by Uegsi
Taugt der neue 30" Dell auch was für kleinere Videoproduktionen?Nein, für "kleinere" Produktionen ist er zu "groß"...
Mal im ernst: Lies Dir den Test durch, dann erübrigt sich die Frage. Es gibt so gut wie nichts, wofür der Bildschirm nicht taugt... -
Danke für die ausführliche Antwort, Gustav!
Ich laß jedenfalls lieber alle Schrift- und sonstige Größen auf Standard, weil das immer irgendwelche Nebenwirkungen auf irgendwelche Programme hat...
Wie gesagt hab ich normalerweise auch kein "Problem" mit der Pixeldichte eines 15,4"-Notebook-Displays mit 1680x1050, wenn ich dann allerdings nach Hause komme und 1920x1200 auf meinem 24"er betrachten kann, finde ich es schon angenehm, daß auf einmal alles größer ist...Andererseits mag ich natürlich die feine Auflösung, und Platz kann ich auch nie genug haben (der geht mir auf dem Notebook mit 1680x1050 eh regelmäßig aus, und daheim hab ich neben dem 24"er auch noch einen alten 17" TFT stehen, um mir am Hauptschirm gelegentlich mal Platz zu schaffen ;).
Auf den NEC wäre ich jetzt halt noch äußerst gespannt.
Ich versuch mich in den kommenden Tagen mal an der Reparatur von meiner 24" Röhre, und wenn das nicht klappen sollte kann ich eh nicht länger warten, dann wirds wohl der Dell...
-
Eure Diskussion bringt mich auf eine interessante (?) Frage: Zumal die Pixeldichte bei WQXGA-30"-Monitoren recht hoch ist (=jeder Pixel relativ klein) und durch die Größe des Displays auch ein höherer Betrachtungsabstand notwendig ist, werden die ohnehin schon kleinen Schriften ja noch aus größerer Entfernung betrachtet. Hat niemand von den 30"-Besitzern Probleme damit, oder findet das zumindest unangenehm?
Wie siehts bei Spielen aus? Wenn ich mir z.B. das fuzzikleine HUD von F.E.A.R. ansehe, war ich auf meinem 24"er manchmal geneigt die Auflösung von WUXGA runterzudrehen, um die englischen Untertitel noch rasch genug lesen zu können... -
Zitat
Originally posted by c5003153
Hallo Andi,
danke für die Info. Wundert mich aber schon ein bischen. Das Kabel hat einwandfrei, Sternenhimmelfrei an einem 19" funktioniert. Dann muss es wohl doch die Qualität sein?Gruss
Michael19" -> niedrigere Auflösung -> niedrigerer Pixeltakt -> geringere Ansprüche an die Kabelqualität.
-
Zitat
Originally posted by Crono
ich bin soeinerwieso zu klein man sitzt doch direkt davor da relativiert sich das wieder...
Is doch ungemütlich...
-
Der neue NEC ist auf der ITnT in Wien ausgestellt; der Bildeindruck war subjektiv hervorragend, obwohl ich lediglich ein Demovideo begutachten konnte. Aufgrund der Beleuchtungsverhältnisse war es mir leider nicht möglich, den Schwarzwert zu beurteilen; nachdem ich aber selbst bei der hellen Hallenbeleuchtung meinte, in dunklen Passagen einen leichten Grauschleier zu erkennen bin ich wiedermal etwas verunsichert...
-
Wie ist eigentlich der Schwarzwert im Vergleich zu einem NEC 2690WUXi oder gar einem Eizo (z.B. 2411) mit S-PVA? Ich glaube nämlich, daß der Schwarzwert - vor allem, wenn er noch dazu in Verbindung mit helleren "Inseln" in den schwarzen Balken bei Filmen steht - für mich ein äußerst entscheidender Punkt ist. Leider wurde im Test nicht wirklich darauf eingegangen, nur auf die Ausleuchtung...
Daß die Auflösung von 1680x1050 nicht direkt angeboten wird läßt sich denke ich durch den Grafikkartentreiber umgehen, oder? Kann er prinzipiell "alle" Auflösungen darstellen, mit denen man ihn beliefert, oder gibts dann Einschränkungen bei der Interpolation?
Grund: Falls die Grafikkarte bei Spielen auch für 1920x1200 zu schwach sein sollte ist der nächste Schritt runter auf 1280x800 doch ein recht dramatischer; eine "Zwischenstufe" wäre hier ausgesprochen nett...Danke!
-
Synchronization Range: 24-85Hz...
-
Ich hätte zur Abwechslung mal eine technische Frage:
Wie ist der Schwarzwert im Vergleich zu einem NEC 2690WUXi oder gar einem Eizo (z.B. 2411) mit S-PVA? Ich glaube nämlich, daß der Schwarzwert - vor allem, wenn er noch dazu in Verbindung mit helleren "Inseln" in den schwarzen Balken bei Filmen steht - für mich ein äußerst entscheidender Punkt ist.
Daß die Auflösung von 1680x1050 nicht direkt angeboten wird läßt sich denke ich durch den Grafikkartentreiber umgehen, oder? Kann er prinzipiell "alle" Auflösungen darstellen, mit denen man ihn beliefert, oder gibts dann Einschränkungen bei der Interpolation?
Grund: Falls die Grafikkarte bei Spielen auch für 1920x1200 zu schwach sein sollte ist der nächste Schritt runter auf 1280x800 doch ein recht dramatischer; eine "Zwischenstufe" wäre hier ausgesprochen nett...Danke!
-
Hallo Geist!
Ungewißheit ist einfach unangenehm. Ich bin mir sicher, daß die meisten hier bereit sind zu warten, und wenn ein Zeitrahmen genannt wird, in dem der Test vorraussichtlich erscheint, dann sollte es da auch deutlich weniger Anfragen dazu geben...
Mir wurde gesagt, daß es frühestens Ende Jänner, eher Anfang Februar werden wird: seither hab ich auch nicht mehr nachgefragt ;-). Bitte versteh das nicht als lästiges Drängeln, sondern als positive Vorfreude auf eure ausführlichen Berichte, die im Web derzeit konkurrenzlos sind... -
Zitat
Originally posted by waldbauer.com
Hallo !
In diesem subjektiven Test ging es unter anderem um NFS Carbon wo die beiden Gamer im Seitenbereich (zb. Leitplanken) Unterschiede zum Samsung gesehen haben wollen.
Oh Hallo,der Herr Waldbauer ist auch hier vertreten
Ist mit "Versatz" vielleicht der Input Lag gemeint? Oder die Bewegungsunschärfe, die bei Rennspielen zum Rand hin naturgemäß zunimmt, da dort die Geschwindigkeit, mit der sich der Bildinhalt ändert, höher ist?
Das Wort "Versatz" irritiert mich halt ein wenig...Wie schon geschrieben ist nach einem Test mit einem TN-Panel für mich persönlich offenbar der Schwarzwert am entscheidensten; nachdem der S2411W in Punkto Ausleuchtungsgleichmäßigkeit nicht die besten Noten erhielt bin ich mal gespannt, wie sich der SX2461W da schlägt; wobei der ja wieder einen schlechteren Schwarzwert haben dürfte... Ach, es ist wirklich nicht einfach, wenn man Ansprüche stellt...
-
Jop. Irgendwie ist es aber schon ärgerlich, wenn man seine Freizeit investiert, um jemandem zu helfen, und in Wirklichkeit nur verarscht wird weil diesem jemand einfach nur fad ist in seinem kleinen Schädel. Mit meinem Hinweis wollte ich nur dafür sorgen, daß weitere Antworten in diesem oder anderen Threads höchstens dem Spiel mit dem Troll dienen...
-
Zitat
Originally posted by Sailor Moon
Das local dimming ist ja unabhängig von irgendwelchen Zwischenbildberechnungen oder einem scanning backlight zu sehen. In Sachen BU tut sich da nichts. Nur sieht es auf dem Desktop mit ld teils ziemlich verboten aus (bestes Beispiel die Oberfläche von Photoshop).Gruß
Denis
Schon klar, aber mit einem local-dimming-fähigen Backlight kann man auch sehr schön ein scanning backlight realisieren. Blöderweise wahrscheinlich nicht beides gleichzeitig, oder zumindest nur mit erheblichem Aufwand... -
Zitat
Originally posted by Sailor Moon
Für den Computerbereich kannst du das eher abschreiben. Dafür müßten die Zonen sehr viel kleiner werden und im normalen "Arbeitsbetrieb" ergeben sich immer noch unschöne Effekte. Für Spiele und Filme dagegen OK.Wenn, dann bräuchte man das ja auch hauptsächlich für Spiele und Filme. Eine 120Hz-Technik wird uns da nicht weiterhelfen, solange nicht die Grafikkarten in der nativen Auflösung mindestens diese Framerate liefern können; bei Filmen gibts auch bei 60Hz schon den supertollen Videoeffekt, bei dem dann noch zusätzlich sämtliche Special Effects in sich zusammenbrechen. Da hab ich lieber Motion Blur...
Um ein bisserl den Sprung zum Topic zu schaffen: wie spieletauglich ist der Dell? Nachdem der Eizo S2411W meine zweite Wahl gewesen wäre, wenn sich 30" doch als zu groß herausstellen bin ich jetzt aufgrund diverser Reviews aber wieder verunsichert (Themen: Ausleuchtung, Reaktionsverhalten, Latenz). Bei wird z.B. sogar von einem "Panel-bedingtem Versatz" und "bewegungsbedingten Unschärfen speziell in den Seitenbereichen" (!?!) die Rede. *argl*
Gestern hab ich testweise mal CoD4 auf einem 1280x1024-TN-Panel gespielt und dann auf dem selben Rechner auf dem 24" Sony CRT; der Unterschied war wie Tag und Nacht, vor allem die kräftigen Farben und das satte schwarz der Röhre waren im Vergleich überwältigend; die Bewegungsunschärfe oder andere TFT-Nachteile fielen da eigentlich gar nicht so stark auf; das graue Schwarz des LCD nahm dem Spiel allerdings enorm viel von seiner Atmosphäre... Wobei ich dazusagen muß, daß ich das auch in einem Raum mit gedimmter Beleuchtung und über eine kräftige Soundanlage (mit diskretem, hochwertigen A/V-Verstärker) genossen habe; wobei bei dem (zugegeben kleinen) TFT kein wirklicher Genuß aufkam...