Versuche mal, reduced blanking anzuschalten.
(Was hast du überhaupt für ne Grafikkarte?)
-->
Versuche mal, reduced blanking anzuschalten.
(Was hast du überhaupt für ne Grafikkarte?)
Warum die nicht einfach lieber nen Dual- Link- DVI da einbauen, damit man den Monitor direkt bei 100 oder sogar 120Hz betreiben kann? Aber das mit der Verdoppelung hört sich trotzdem interessant an.
Ja es muss ja logischerweise flackern. Wenn alle 10 Frames ein schwarzes Bild eingefügt wird, dann hat man ein grandioses Flackern von 6 Hz. Ich liebe Fortschritt!
Nunja ich denke mit der Spielekompatibilität könnte es da noch etwas mehr Probleme geben als mit den Standard 16:10 Widescreen Auflösungen. Für Filme ist das auch eher unbrauchbar. Die anderen Nachteile haste ja selbst schon genannt, aber die reine Fläche ist natürlich super, fast doppelt soviel wie bei einem 24"er. Ich persönlich würde aber doch auf jeden Fall zu Letzterem greifen, schon allein zum Filme gucken.
ZitatOriginal von wweltiAllerdings testen wir auch bei Prad.de, mit einer ähnlichen Methode, allerdings ohne Notwendigkeit einer Serienbildfunktion. Hat sich scheinbar nur noch nicht alles so eingespielt
Die Serienbildfunktion ist eigentlich egal, es geht nur schneller damit, soviele Fotos zu schießen ;).
ZitatAllerdings muß ich sagen daß mir die Meßmethode mit der Serienbildfunktion auch nicht unbedingt allzu genau vorkommt, denn natürlich musst Du eigentlich auch die Bilder berücksichtigen, auf denen am CRT nix mehr zu sehen ist. Schließlich dauert der gesamte Zyklus die 16.6 ms, nicht nur die Periode in der auf dem CRT etwas zu sehen ist. Leider kannst Du auf den Bildern bei denen der CRT schwarz ist, nicht erkennen, ob auf beiden Monitoren gerade dasselbe Bild sichtbar ist oder nicht.
Das hat mit der Serienbildfunktion nichts zu tun, sondern mit der Belichtungszeit der Kamera, die ich mit 1ms bewusst kurz gehalten habe, damit sie keinen Einfluss auf die Bilder hat. Wenn sie größer wäre, könnte man zwar mehr auf dem CRT sehen, aber die Wahrscheinlichkeit wird genauso größer, dass der TFT während der Belichtung das Bild wechselt und man nun deswegen dieses Foto wegwerfen kann (oder dass der Elektronenstrahl nun zur Überbelichtung führt). Dass überhaupt Fotos verworfen werden, ist eigentlich unsauber, das stimmt, aber man kommt nur mit einer perfekten Kamera drumherum. Eine etwas längere Belichtungszeit von vll. 4ms könnte einen besseren Kompromiss darstellen.
ZitatWenn es Dich interessiert, kann ich Dir mal unser Testprogramm geben. Du könntest ein Testfoto schießen und dieses zurückmailen. Das fände ich sehr aufschlußreich.
Klar, warum nicht: flashbfe@gmx.de
ZitatIch halte es wie gesagt durchaus für möglich daß der Acer schneller ist als so mancher andere Monitor.
Das ist einer der drei ersten Monitortypen mit 16ms Panel aus von Anfang 2003. Ich denke, dass die meisten Monitore so arbeiteten, bevor Overdrive eingeführt wurde (reine Spekulation). Schließlich ist die Lag- Problematik noch ein sehr junges Phänomen.
Ansonsten: Der AL732 ist ja bekannt für seine "spezielle" Elektronik: An ATI Karten das Pixelfeuerwerk und an NVidiakarten ständige Bildaussetzer ;).
ZitatEdit: Noch ein wichtiges Detail! Es ist meines Wissens nach nicht unüblich, daß die Darstellungslatenz eines TFT's sich durchlaufend ändert. Das scheint kaum jemand zu wissen (obwohl ich es schon ein paarmal geschrieben habe).
Das kann schon sein, wird aber durch eine genügend große Anzahl an Messungen erfasst und erscheint dann auch in Mittelwert und Standardabweichung. Also das wäre kein Problem.
ZitatDas passiert genau dann, wenn die interne Betriebsfrequenz des TFT's nicht mit der Vertikalfrequenz synchronisiert ist, wie es leider bei nicht wenigen TFT's der Fall ist. Es wäre vielleicht wichtig erst das zu überprüfen, bevor weitergehende Tests gemacht werden.
Da man sowieso nichts dagegen machen kann, muss man es zwangsläufig mitmessen. Die Ergebnisse werden deswegen ja nicht falsch.
Meinem Vorredner kann ich mich nur anschließen. Viele Spieler freuen sich, dass das Schlierenproblem der Vergangenheit angehört, aber wissen nicht, dass nun als Austausch dafür ein neues Problem aufgetaucht ist. Und wenn ich schon sehe, wieviele sich über Funkmäuse aus ähnlichem Grund aufregen...
Ok, ich erklär dir nochmal "meine" Testmethode:
Ich habe Virtual Stopwatch genommen und auf eine Anzeige von ms eingestellt. Außerdem eine große Schrift weiß auf schwarz. Beide Monitore auf 60Hz.
Die Fotos wurden gemacht mit einer Fujifilm S9500 mit ISO 1600 und Belichtungszeit 1ms im Serienbildmodus. Damit wurden dann ca. 50 Fotos gemacht. Viele (ca. 30) wurden aussortiert, weil auf dem CRT der Elektronenstrahl schon zu weit weg war von der Stoppuhr, sodass man nichtsmehr erkennen konnte.
Bei den restlichen Fotos gab es zwei Fälle: Einmal, das die Bilder gleich waren (0ms) oder ein Unterschied von ca. 16ms, wenn der CRT-Elektronenstrahl gerade an der Uhr war. Ein Durchschnitt der Bilder mit 0ms und ca. 16ms (die genauen Werte haben etwas geschwankt) ergab dann diese ca. 6ms.
Wenn der CRT auf 100Hz oder mehr gelaufen wäre, würde die Verzögerung natürlich noch etwas größer werden, das ist klar.
So und ich würde mir jetzt von euch wünschen, dass ihr bei Prad auch so einen Test mit euren TFTs macht und nicht mit solchen Pauschalaussagen nach dem Motto "das ist eh bei jedem gleich" um euch werft.
Ok, ich lass dich dann mal in deiner selbstgesponnenen Traumwelt. Vielleicht probierst du es lieber selbst einmal aus, von Anderen scheinst du ja keine Fakten zu akzeptieren. Und wenn ich dir nun auch noch die Fotos schicken würde, würdest du es wahrscheinlich immernoch nicht glauben, weils ja in deine heile Theorie-Welt nicht reinpasst.
Rede ich gegen ne Wand oder willst du mir nicht glauben? Ich habe Fotos gemacht von einer Röhre und meinem AL732 mit 1ms Belichtungszeit.
Und es zeigen beide genau das gleiche Bild an außer, wenn der Elektronenstrahl die Zeile der Stoppuhr bei der Röhre gerade aktualisiert hat. Dann zeigt die in der Situation tatsächlich 16ms später an.
Im gemessenen(!) Durchschnitt liegt die Latenz zu einer Röhre mit ebenfalls 60Hz bei <=6ms (es waren nicht alle Bilder der Röhre auswertbar, da der Elektronenstrahl schon zu weit weg war, der Wert ist also tendenziell kleiner).
Und bei Overdrive-Monitoren sieht das nun ganz anders aus. Da sind die Latenzen leider messbar höher.
Das soll auch mal ein kleiner Ansporn für euch bei Prad als selbsternannte TFT Experten sein, selbst so eine Testmethode einzuführen.
Edit: Noch besser wäre es natürlich, die Gesamtlatenz zu messen zwischen Grafikkarte und TFT und nicht Röhre und TFT. Dadurch würde man die Latenz durch die Bildwiederholfrequenz mit einbeziehen und das Ergebnis wäre "sauberer". Aber das ist nur mit einigem Hardwareaufwand lösbar, weil die Grafikkarte irgendwie eine Messeinrichtung triggern müsste.
ZitatOriginal von GeistDie Eigenlatenz eines TFT ist eine andere Sache, jedes Display speichert min. ein Bild zwischen, bei 60 Hz liegt damit die Eigenlatenz also bei 16,66 ms.
Das stimmt nicht. Bei meinem AL732 ist der Durchschnitt irgendwo bei unter 6ms. Es gibt nur eine Verzögerung im Vergleich zu meiner Röhre, wenn bei der Röhre der Elektronenstrahl die Zeile gerade aktualisiert hat. Der größte Teil des Bildes ist aber auf beiden Monitoren nachgewiesen identisch.
ZitatEinige Geräte grade bei aufkommen von Overdrive haben 2-3 Bilder zwischengespeichert und damit hat sich die Eigenlatenz der Geräte um den entsprechenden Faktor erhöht. Bei aktuellen TFT-Monitoren mit Overdrive wird in der Regel auch nur ein Bild zwischengespeichert.
Ist der 244T für dich nicht aktuell oder ist er die Ausnahme zu deiner Regel mit seinen 45 bis 50ms und damit 3 Bildern?
Ich bin der Meinung, dass das Problem bei jedem Overdrivemonitor untersucht werden sollte.
ZitatOriginal von NeoN-MK
Ich sehe selbst bei meinem CRT einen Mauslag, liegt nicht daran das ich empfindlich bin, sondern daran, dass mein CRT uralt ist.. Wahrscheinlich würde mir der Mauslag bei dem 215TW garnicht aufallen, bzw. ich würde mich wundern das alles schneller ist
Mir fehlt noch Geld um den zu kaufen -.-
Vor allem alte CRTs können gar keine Verzögerung haben, da sie keine großartige Signalverarbeitung haben. Und bitte: Das Problem hier hat nichts mit der Maus zu tun!
Wenn du eine Verzögerung zwischen deiner Maus und deinem Bildschirm bemerkst, dann kann das zehn andere Ursachen haben, denn es hängt ja noch dein ganzer Rechner dazwischen.
Ich hab schon was im Samsung 244T Thread dazu geschrieben. Der hat (nachgemessen) durchschnittlich 45 bis 50ms (je nach Frequenz des Vergleich-CRTs) Anzeigeverzögerung. Da hilft es auch nichts, die USB Frequenz zu erhöhen.
Ich glaube das Thema betrifft viele, wenn nicht alle, Overdrive-Monitore, weil das Problem bei den älteren TFTs noch nicht vorhanden war (habe ich an meinem eigenen AL732 überprüft).
Im Prinzip hat man mit Overdrive also das Problem Schlieren durch das Problem Anzeigeverzögerung ersetzt, nur das eben letzteres nicht jedem auffällt.
Eine Lösung der Hersteller könnte sein, dass man schnellere DSPs in die Monitore einbaut, die die Overdrive-Spannungsimpulse schneller berechnen und keine Bilder zwischenspeichern.
Dieser Thread hat den 244T zum Inhalt und über den rede ich natürlich auch. Ich wollte damit sagen, dass das Thema Lag beim 244T jetzt geklärt ist und sich eine weitere Diskussion darüber kaum lohnt.
Ob man ihn nun merkt oder nicht, muss man selbst ausprobieren. Das hast du auch schon oft genug geschrieben.
Dass andere Overdrive Monitore auch laggen, sollte klar sein. Und wenn der hundertste selbsternannte Pro-Gamer nichts merkt, heißt das trotzdem noch nicht, dass nichts da ist. Es ist nunmal ziemlich sinnlos, subjektive Eindrücke über eine 40ms Verzögerung zu sammeln.
Bei mir bleibt die Hoffnung, dass das beim 245T besser wird.
Ich finde es aber mal wichtig, dass das Ganze jetzt endlich mal mit Zahlen belegt wurde und nicht nur mit subjektiven Eindrücken. Vielleicht macht es ja Samsung bei den Nachfolgern besser.
Das kann dir doch jetzt noch niemand sagen. Die ganzen Internetmagazine beachten sowas auch garnicht bei den Tests. Man muss immer warten, bis sich den mal einer kauft und zuhause selbst ein paar Messungen macht.
Prad könnte ja mal als selbsternannte LCD-Spezis den Vorreiter für solche Messungen spielen. Denn die sind mittlerweile wichtiger als die Schlierenmessungen.
Man sollte eigentlich als Ganzes messen, welche Zeit zwischen einem Farbwechsel der Grafikkarte und der realen Anzeige ist. Also Lag+Schlieren. Dann könnte man auch die Monitore mit Overdrive-Fehlkonstruktionen erkennen.
Hallo, im 3DCenter- Forum hat AlphaTier mal den Lag vom 244T gemessen:
"Also ich finde ja das man sich diese Messung an die Backe schmieren kann (ohne Genlock) da die Monitore nicht Syncron zeichnen ... das ist eine reine Glückssache ob der CRT schon einen Frame fertig hat, wenn der LCD gerade wechselt, oder umgekehrt (sieht man gut an den Bildern)
Eine Verzögerung ist definitv da ... die muss irgendwo zw. 25ms und 35ms liegen. Hier mal meine Meßreihen:
Die Genauigkeit liegt bei MAXIMAL 16.666ms (60Hz) und MINIMAL 33.333ms(2x60Hz)
60Hz/100Hz : 43, 44, 32, 62, 54, 34, 48, 76
60Hz/60Hz : 61, 76, 31, 30, 23, 53, 48, 62, 36, 33
Ich muss dazu aber sagen, das ich davon subjektiv nichts mitbekomme .. Quake4 getestet.
Vom Schwarzwert schlägt er sogar meinen alten CRT
genauso beim Kontrast und beim Farbwert
Das mag aber damit zusammenhängen das der VM510 doch schon sehr alt ist.
Also ich geb das Teil nichtmehr her ... so gutes Bild hatte ich schon länger nicht mehr
Vorallem ist es verdammt GROß hrhr. HDTV 16:9 Serien aus dem Bett aus gugn und alles sehen echt Suppa.
Meine ganzen Farbprofile waren nur verstellt, weil mein CTR auf Standart doch nur noch "Grün" ist.. jetzt hab ich beide mit der Hand eingestellt, beim CRT sogar jeden Kanal einzeln. Der 244T liefert jetzt ein sattes Glasklares Bild, der VisionMaster Pro 510 hat einen Grauschleier, den man nichtmehr wegbekommt."
Das frage ich mich auch. Vielleicht verkauft sich der 244T zu gut?
ZitatOriginal von bernaci
Ich habe das auch schon öfter hier im Forum geposted : 16:10 ist der optimale Kompromiss für alle Medienformate, dh. 4:3, 16:9 und auch für 3:2 (Kleinbildformat für Fotos) !
Bei keinem anderen Format treten weniger Flächenverluste in Form schwarzer Balken auf. Man kann es nachrechnen, und es ist wohl auch der Grund warum 16:10 überhaupt geschaffen wurde.
Ich hab das von dir auch schon mehrmals gelesen, aber ich glaube das ist nicht der Grund. So idealistisch sind gewinnorientierte Unternehmen selten ;).
Ich glaube es hat eher was mit der Integration des Bildseitenverhältnisses in die IT-Welt zu tun. 16:9 ist schließlich ein Verhältnis von 1,7777... und solche Brüche sind immer schlecht in Software zu handeln. Spätestens, wenn du mit deiner Software irgendwas pixelgenau darstellen willst, müsstest du das runden. 16:10 oder 1,6 ist dagegen eine ziemlich glatte Zahl und passt besser in die "binäre Welt". Zusätzlich hat man noch den Vorteil, z.B. bei einem 1920x1200 Display die 1600x1200er Auflösung ohne Interpolation darstellen zu können. Und so schön ein 16:9 Verhältnis zum DVD gucken auch sein mag, zum Arbeiten ist dann ein weniger breites Format doch eher wieder praktisch.
Hontra: Wenn du wirklich nur Filme von der Couch aus gucken willst, dann kauf dir lieber ein LCD-TV, die haben das bessere Größe/Preis- Verhältnis. Wenn du jedoch auch daran arbeiten willst, dann schlags dir aus dem Kopf, denn dann ist die Auflösung viel zu gering.
ZitatOriginal von fireblade
Wann kommt denn nun der 24 Zoll von Samsung... und lohnt sich noch
das warten oder soll man lieber bei nem guten 20 oder 21 Zoll zuschlagen.
Der neue 24"er von Samsung (der 245T) soll, soweit bis jetzt bekannt, keine großen Änderungen zum 244T haben. Also kannste dir auch schon jetzt überlegen, einen 24"er zu holen. Zum Zocken ist der aber nur bedingt geeignet wegen dem Anzeigelag, vielleicht macht das der Neue ja besser.
Und falls vom Neuen noch eine Version mit LED-Hintergrundbeleuchtung kommen sollte, wird der eh erstmal unbezahlbar teuer.
Wahrscheinlich. Außerdem sollte jetzt klar sein, wo der Kontrast 1:3000 herkommt. Das kriegt man nur mit dimmbaren LEDs als Hintergrundbeleuchtung hin.