Beiträge von wwelti

    Hi Jetson,


    Ok, wie's aussieht habe ich die Unterschiede in der Feldstärke wohl ein bißchen unterschätzt. Das sieht wirklich drastisch aus auf diesem Diagramm. Das zeigt, wie schwer die Länge von Schlieren mit dem bloßen Auge abzuschätzen ist, denn ich kann dermaßen große Unterschiede bei mir nicht erkennen. Und vielleicht gibt es auch hier Unterschiede zwischen den verschiedenen Panels...


    Mit den 100 ms hattest Du allerdings doch ein wenig übertrieben, denn zweimal direkt hintereinander kann es keinen Übergang von 255 nach 160 geben. Der zweite Übergang sollte vielleicht eher rückwärts von 160 nach 255 gehen. Ok, damit kämen wir wohl immer noch auf über 90 ms :)


    Mit den FFD Panels wird sich das Problem dann ja zum Glück irgendwann einmal erledigen :)


    Gruß
    Wilfried

    Zitat

    Original von Jetson
    Du darfst aber bei der Betrachtung nicht vergessen, dass die angegebenen Werte für Rise und Fall ja teilweise um Faktoren unter den tatsächlichen Werten liegen, die in der Praxis vorkommen. Sobald nur geringfügige Kontraständerungen darzustellen sind, liegen wir ja manchmal schon bei Werten die fast an 100 ms heranreichen können.


    Das kann ich zumindest bei meinem Panel nicht nachvollziehen, sorry. Für mich ist das ein anderer hartnäckiger Mythos (bis ich eines Besseren belehrt werde). Ich denke, daß man bei geringeren Kontraständerungen die Konturen des bewegten Objektes einfach _noch_ schlechter sehen kann, was zum optischen Eindruck noch schlimmerer Schlieren führt. Das heißt noch lange nicht, daß die Reaktionszeit in diesem Bereich tatsächlich schlechter ist. Und wie Du auf 100ms kommst, wüsste ich auch mal gerne :--) Es mag allerdings sein, daß es auch hier große Unterschiede zwischen den verschiedenen Fabriakten gibt. Vielleicht habe ich ja einfach das Glück, daß mein Laptop & mein Desktop Monitor diese Unart nicht haben.


    Zitat

    Original von Jetson
    Wie stark sich der S&H-Effekt nun wirklich auswirkt, können wir ja leider nicht ausprobieren, weil uns die entsprechend schnellen Flüssigkristalle (noch) fehlen. Wenn Deine These mit der Dominanz des S&H-Effekts richtig wäre, hätten wir mit den heute zur Verfügung stehenden Monitoren ja schon fast die Grenze des machbaren erreicht - bei 60 Hz.


    Ganz korrekt -- bei 60 Hz kommen wir mit schnellen TFT's durchaus schon in die Nähe der Grenze des Machbaren. Immerhin haben wir bei z.B. einem Tempo von 4 Pixeln pro Frame allein durch den S&H-Schlieren-Effekt schon mal eine Schlierenlänge von 4 Pixeln. Sehr viel mehr schliert mein Monitor bei diesem Tempo allerdings tatsächlich nicht.


    Dummerweise kommen wir bei hohen Auflösungen (1600x1200 z.B.) schon bei 60 Hz in die Nähe der spezifizierten Bandbreite von DVI, da kann man die Vertikalfrequenz nicht mehr beliebig erhöhen. Naja, da brauchen wir dann halt mehrere DVI-Kanäle, für einige Hi-End TFT's ist sowas meines Wissens nach durchaus schon gängige Praxis. (Allerdings nicht etwa um höhere Vertikalfrequenzen zu erreichen, sondern weil sie extrem hohe Auflösungen haben!)


    Viele Grüße
    Wilfried

    Hi Jetson,


    ich glaube Du unterschätzt den S&H - Schlieren-Effekt gewaltig. Eine 60stel Sekunde ist immerhin 16.666 ms lang. Es gibt viele TFT's, deren Rise- oder sogar Fall- Zeiten niedriger ist. Zudem hat der Schlieren-Effekt durch Flüssigkristall-Trägheit den "Vorteil", daß er subtiler wirkt, da es sich hier um eine teilweise exponentielle Annäherung an den Zielwert handelt. Das bedeutet, daß der gröbste Teil des Zustandswechsels innerhalb recht kurzer Zeit stattfindet. Die Übergangszeiten (jeweils Rise bzw. Fall) sind üblicherweise definiert als Zeitintervall zwischen 10% und 90% der Annäherung an den Zielwert. Wenn die Hälfte des Intervalls vorbei ist, ist der größte Teil des Übergangs dank der eher exponentiellen Charakteristik schon längst geschafft. Der S&H-Schliereneffekt wirkt hier nicht so subtil, ganz im Gegenteil. Die S&H-Schlierenränder eines bewegten Rechtecks haben einen linearen Helligkeitsverlauf -- aber das menschliche Auge funktioniert nicht linear. Wenn man die entsprechende Gamma-Korrektur mit einbezieht, wird die wahrnehmbare Helligkeitskurve für diese Schlieren nach oben gewölbt. Das bewirkt eine drastische Verschlimmerung der wahrgenommenen Schlieren (vor allem beim Weiß->Schwarz Übergang).


    Meine These ist jedenfalls, daß bei den wirklich schnellen TFT's der S&H-Schliereneffekt, zumindest was die Wahrnehmung der Schlieren angeht, dominiert. Für meinen Monitor würde ich dies auf jeden Fall bejahen. (25 ms Herstellerangabe)


    Klar, ein TFT mit 60 ms dürfte noch mehr an der Trägheit der Flüssigkristalle zu knabbern haben als am S&H-Effekt. Aber bei weniger als 30 ms sieht es auf jeden Fall schon ganz anders aus!


    Also, laßt euch nicht beirren, wenn euer Monitor die 70 oder gar 75 Hz tatsächlich auch intern mitmacht: Es ist keine Einbildung, wenn die Schlieren kürzer aussehen.



    Gruß
    Wilfried

    Ich möchte anmerken, daß es hier wirklich sehr auf's individuelle Gerät ankommt.
    Es gibt TFT's, die eine höhere anliegende Frequenz auch tatsächlich intern mitmachen. Bei denen bringt es dann _wirklich_ etwas, den Bildschirm mit einer höheren Frequenz anzusteuern!


    Ein weit verbreiteter Irrglaube ist, daß die Schlieren eines TFT's größtenteils darauf zurückzuführen sind, daß die Flüssigkristalle eben so träge sind. Weit gefehlt! Selbst wenn ein Pixel "augenblicklich", d.h. ohne meßbare Verzögerung, seinen Zustand umschalten könnte, würde das Panel immer noch einen _DEUTLICH_ sichtbaren Schlier-Effekt zeigen, ganz im Gegensatz zu einem guten Röhrenmonitor, der so gut wie gar keine Schlieren zeigt.


    Der entscheidende Unterschied zum Röhrenmonitor ist nämlich, daß ein TFT das jeweilige Bild eine volle 60stel Sekunde lang anzeigt -- ohne Unterbrechung. Deshalb sieht man bei einem Standbild auch trotz nur 60 Hz absolut kein Flimmern. (so sollte es sein... ) Beim Röhrenmonitor dagegen blitzt jeder Pixel pro Elektronenstrahldurchlauf nur extrem kurz auf -- wenn das mit nur 60 Hz geschieht, wirkt das Bild mächtig flackerig. Da dreht man dann doch lieber die Bildfrequenz auf 80 Hz oder mehr auf. Denn dann folgen die Blitze in so kurzem Abstand, daß das Auge sie nicht mehr voneinander trennen kann -- das Bild wirkt stabil, obwohl es das in Wirklichkeit nicht ist!


    Und das ist auch der entscheidende Punkt. Denn wenn das Auge z.B. einem leuchtenden Pixel folgt, der 60x pro Sekunde sich um 4 Pixel weiterbewegt, und dabei immer nur ganz kurz aufblitzt, wird es den Pixel auch nur als kleinen, scharfen Punkt sehen. Wenn der Pixel aber jeweils eine 60stel Sekunde stehen bleibt (wie beim TFT), ergibt sich ein ganz besonderer Effekt: Das Auge bewegt sich, wenn es den Pixel verfolgt, auf jeden Fall gleichmäßig mit 4 Pixeln pro 60stel Sekunde weiter. In einer solchen 60stel Sekunde bleibt der Pixel aber hell und deutlich an einem Fleck stehen. Das bedeutet, relativ zum Auge betrachtet, bewegt er sich innerhalb einer 60stel Sekunde 4 Pixel weit _gegen_ die eigentliche Bewegungsrichtung, um dann jeweils wieder zurück zur "Augenposition" zu springen. Da das Auge dies nicht mehr als einzelne Bewegungsabläufe erkennen kann, erscheint der Pixel auf eine Länge von 4 Pixeln gestreckt, und entsprechend verschwommen -- der klassische Schlieren-Effekt!


    Wenn man nun den TFT Monitor tatsächlich dazu bringen kann, intern mit z.B. 70 statt 60 Hz zu arbeiten, hat man also tatsächlich etwas gewonnen: Denn die Länge der durch DIESEN Effekt erzeugten Schlieren ist dann bei identischer Geschwindigkeit kürzer, bzw man kann z.B. eine Bewegung von 70 statt 60 Pixeln pro Sekunde bei gleich langen Schlieren ausführen.


    Meiner Erfahrung nach ist der hier beschriebene Effekt bei den heutigen TFT's mindestens genau so stark an den Schlieren beteiligt, wie die tatsächliche Trägheit der Flüssigkristalle. Also... wenn der Monitor es intern mitmacht, bringt es was!


    Die schlechte Nachricht: Es scheint, daß viele Monitore es eben _nicht_ mitmachen. Die bleiben intern stur auf 60 Hz, und wenn man sie mit einer höheren Frequenz ansteuert, machen sie sich gar nix draus. Denn das bedeutet nur, daß ihr Framebuffer (ein interner Bildspeicher im TFT) dann mit dieser höheren Frequenz geupdated wird. Das Panel selbst wird immer noch mit 60 Hz angesteuert. In diesem Falle bringt es wirklich nichts, eine höhere Frequenz einzustellen, im Gegenteil: Es werden Bilder weggelassen, und Animationen wirken abgehackter. An der Länge der Schlieren hingegen ändert sich jedoch nix.


    Also -- es kommt ganz auf den Monitor an!


    Gruß
    Wilfried

    Irgendwo habe ich mal gesehen, daß man eine höhere Auflösung einstellen konnte, als die echte Auflösung des TFT-Panels. Das wurde dann einfach 'runter-interpoliert. Das war auf einem Laptop, glaub' ich. Fragt mich aber jetzt nicht, welcher das war...
    (Nicht, daß ich irgend einen sinnvollen Anwendungszweck dafür wüßte.. :) )


    Gruß
    Wilfried

    @Basso-Basso:


    Powerstrip hat doch extra ein Feature, um per Knopfdruck in "sichere" Modi zurückzukehren, oder? Da sollte Neustart wirklich nicht nötig sein.


    Was die Parameter angeht: Der Wichtigste ist ganz klar der Pixeltakt. Den stellst Du zuerst mal so genau ein wie möglich. Die abgeleiteten Takte (Horizontal- und Vertikalfrequenz) läßt Du am Besten ganz in Ruhe, da die im Prinzip aus dem Pixeltakt UND der Anzahl Zeilen/Pixel pro Bild/Zeile gebildet werden. Also fummelst Du besser an der Größe der Rücksprung-Lücken 'rum (ich weiß auch gerade nicht auswendig, wie genau der Name der Parameter war). Natürlich kommst Du damit auch noch nicht besonders gut an die Zielfrequenz 'ran, aber Du wirst feststellen, daß die "Sprungweite" der resultierenden Vertikalfrequenz beim Schrauben an diesen Parametern nicht identisch mit der Sprungweite der Vertikalfrequenz beim Schrauben am Pixeltakt ist. Und genau diese Unterschiede kannst Du ausnutzen. Das Ganze wird damit zugegebenermaßen zu einem echten Puzzlespiel. Aber Du hast 3 verschiedene Parameter, an denen Du drehen kannst, und die Wahrscheinlichkeit daß es eine Kombination gibt, die sehr genau die Frequenz deines Monitors trifft, ist gar nicht schlecht.


    Nochmal übersichtlich: Die drei Parameter sind:


    Pixeltakt
    Anzahl der "overscan"-Pixel pro Zeile (kannst Du über einen der Parameter für das horizontale Timing verändern)
    Anzahl der "overscan"-Zeilen im Bild(einer der Parameter für das vertikale Timing)


    Diese zusätzlichen Pixel bzw. Zeilen befinden sich außerhalb des Bildrandes und werden erst gar nicht angezeigt.


    Viele Grüße
    Wilfried

    @Basso-Basso:


    Sorry, ich hatte den Thread nicht mehr verfolgt... ich meinte, alles zu dem Thema gesagt zu haben..


    Die Lösung ist ganz einfach; Du hattest sie ja selbst vorgeschlagen: Powerstrip. Ich bin sicher, es wird auch bei Dir funktionieren!
    ALLERDINGS muß ich sagen, daß die Einstellung der Frequenzen nicht so einfach ist. Der Pixeltakt läßt sich bei vielen Karten nicht aufs Hz genau einstellen, und das gilt auch für die anderen Frequenzen. Das bedeutet, Du mußt an verschiedenen Parametern 'rumschrauben, um effektiv auf eine Vertikalfrequenz zu kommen, die haargenau mit dem Monitor übereinstimmt. Es war eine ganz schöne Fummelei, aber ich hab's damals hingekriegt. Jetzt läuft nur noch einmal alle halbe Stunden ganz gemächlich ein winziger Streifen bei Mocheck (natürlich nur bei aktiviertem Flacker-Bildwechsel sichtbar!!) über den Bildschirm. Man sieht das dann auch in Spielen als Versatz. Ist aber bei weitem nicht so nervig wie dauernde Framedrops. Ausserdem kommt der Streifen ja nur alle halbe Stunden für ca. 1 Minute :)


    Viel Spaß beim Fummeln :) :)
    (Ist _wirklich_ nicht einfach hinzukriegen. Du brauchst Geduld!)


    Gruß
    Wilfried

    Faszinierend...


    Wie hast Du die Synchronisation mit der Grafikkarte so schön hingekriegt, in einem _Fenster_ ? Ist wirklich schön flüssig so die Ani...


    Und wenn ich die Maus drüberbewege, flackert sie nicht mal... :)


    Hmm bin wohl nicht so der Held mit dem Win-API. Das is aber nu mal auch so chaotisch :-/


    Gruß
    Wilfried

    Hallo,


    Ich habe mal mit Powerstrip versucht, die Vertikalfrequenzen der Grafikkarte und des Monitors genau aneinander anzugleichen.


    Leider läßt sich der Pixeltakt nicht aufs Hertz genau einstellen, sonst hätte man das sicher ziemlich einfach hinbekommen können. So musste ich ein kleines Puzzlespielchen mit Einbeziehung der Größen der horizontalen und vertikalen Rücksprung-Lücken lösen, um die notwendige Vertikalfrequenz zu erreichen... :)


    Ich hab's tatsächlich ziemlich genau hingekriegt. Allerdings weiß ich nicht, ob ich darüber glücklich sein soll. Ich musste beinahe eine Viertelstunde vor einem modifizierten (auf 1600x1200 laufenden) MoCheck ausharren, bis der "Streifen" endlich anrückte... aber nicht wie gewohnt innerhalb einer Viertelsekunde einmal über den ganzen Bildschirm, sondern ganz gemächlich, Pixel für Pixel :-). Ich hatte sogar noch Zeit ihn zu knipsen. Sieht allerdings nicht sonderlich aufregend aus...


    Naja, ich bin mir nicht sicher, ob ich die Einstellung so lassen will. Was ist besser? Der Deibel oder der Beelzebub? Entweder habe ich alle 20 Sekunden einen Pseudo-Framedrop (so ist's mit der Windows-Standardeinstellung für meine Grafikkarte), oder ich habe einmal pro Viertelstunde (oder noch länger) einen in ca. 30 Sekunden langsam über den Bildschirm laufenden Frame-Versatz. Beides ist natürlich nur bei schnellen Animationen überhaupt sichtbar, aber dort kann auch beides ein bisschen störend sein.


    Immerhin stimmen die Beobachtungen gut mit meiner Vorstellung über die interne Funktionsweise des Monitors überein. Klar, daß der Streifen sich auch langsamer bewegt, wenn die Frequenzen nahe beieinander sind. Hmm, wie kann ich das jetzt gut erklären? Daß man überhaupt einen durchlaufenden Streifen hat, liegt jedenfalls daran, daß das Updaten des Panels sehr gleichmäßig abläuft, während im VGA-Signal u.A. eine recht fette "Lücke" zwischen jeweils zwei Frames ist. Deshalb wird der "Decodierungs-Prozess" den "Update-Prozess" jeweils mehrfach überholen. Die Stelle, wo die Überholung stattfindet, ist der Streifen.


    Viele Grüße
    Wilfried

    Hallo zusammen,


    bart:


    Wie gesagt, der Effekt fällt bei Standbildern überhaupt nicht auf. Da ist es auch egal, wie weit die Frequenzen auseinanderliegen. Allerdings dürfte es dann bei MoCheck stärker auffallen (wobei der gelegentlich durchlaufende Streifen ja auch schon recht auffällig ist...). Ich frage mich allerdings, ob ein normaler TFT-Monitor 50 Hz schlucken wird: Soviel ich weiß, gibt es keinen VESA-konformen Modus mit nur 50 Hz. Versuch' es lieber mit 70 Hz, da haben wir eine genau so große Differenz zu 60 Hz :)


    Nur um es nochmal klarzustellen: Meines Wissens nach ist es hierbei völlig egal, ob der Monitor digital oder analog angeschlossen ist. Bei meiner Kombination aus LeadTek Geforce3 TI200 und Viewsonic VP201m ist es jedenfalls so. Das Timing scheint bei DVI dasselbe wie bei analogem Anschluß zu sein. Vielleicht gibt es allerdings andere Grafikkarten, die da einen Unterschied machen? Wäre interessant zu erfahren.


    Ich glaube ich muß das jetzt doch mal ausprobieren mit Powerstrip... :)


    @Basso-Basso:


    Wenn der Effekt wirklich bei Spielen überhaupt nicht auftritt, bei DVD-Filmen dagegen schon, kann ich das auch nicht erklären. Schließlich sagtest Du ja, daß es bei Anschluß eines Röhrenmonitors nicht mehr passiert. Oder, vielleicht verwendest Du für DVD-Wiedergabe einen Grafikmodus, in dem der Frequenzunterschied besonders groß ist? Es ist nämlich durchaus so, daß der Unterschied von Modus zu Modus verschieden groß ist, selbst bei standardisierten Vesa-Modi. (Siehe früheres Posting)


    Viele Grüße
    Wilfried

    Hallo zusammen,


    Weideblitz:


    Ja, meine Vermutungen sind in der Tat recht genau :)


    Hexen können auch Monitor-Hersteller nicht. Und wenn Daten auf digitaler Ebene verzögert werden, müssen sie auch irgendwo gespeichert werden, daher bin ich mir sicher, daß ein Framebuffer verwendet wird. Der Rest ist eigentlich logisch, wenn man genau darüber nachdenkt. ALLERDINGS dürfte die verwendete Terminologie nicht immer ganz korrekt sein :)


    Ich habe mal nachgeschaut: Beispielsweise sind im Referenzdesign für den Philips SAA6714 TFT-Controller 64 MBit DDR SGRAM über einen 32 Bit breiten Bus an den Controller angeschlossen. Das sind 8 Megabytes, also genug für einen einzelnen 32-Bit Bildschirm-Puffer bei 1600x1200. So wie es aussieht, übernimmt der Controller sowohl Decodierung als auch Panel-Ansteuerung, was allerdings noch nicht zwingendermaßen bedeutet, daß beides synchron läuft. Ich weiß es einfach nicht, da bräuchte man noch genauere Informationen.


    Die Seite mit den Infos zu den Philips-Controllern ist hier:


    Also noch einmal (es schien immer noch nicht ganz klargestellt zu sein):


    Wir haben 2 verschiedene "Prozesse": Decodierung und Panelansteuerung. Die Decodierung schreibt die Daten, die von der VGA-Karte kommen, in den Framebuffer. Die Panelansteuerung sendet die Daten, die sich im Framebuffer befinden, ans Panel.


    - Decodierung muß synchron zu VGA-Signal sein (versteht sich von selbst, oder?). Ist sie es nicht, ist der Monitor _kaputt_ und zeigt überhaupt kein brauchbares Bild.
    - Panelansteuerung wird bei manchen TFT-Modellen synchron, bei manchen asynchron zur Decodierung sein.
    --Wenn sie asynchron ist, sieht man das Streifen-Phänomen, aber NUR bei schnellen Animationen/Bildwechseln, NICHT bei statischen Bildern. Der Effekt ist allerdings recht subtil. Bei MoCheck haben wir den "Worst Case", ansonsten ist er weniger auffällig.
    --Wenn sie synchron ist, gibt's den Streifen-Effekt auch nicht.


    Ich schätze, die meisten Modelle machen alles synchron, und zeigen deshalb auch keine durchlaufenden Streifen bei MoCheck.


    @Basso-Basso:


    Versuch es mal mit Moorhuhn. Da gibt es sauberes Soft-Scrolling, welches man sich in aller Ruhe anschauen kann. Erscheint das Scrolling 100% clean? Oder gibt es da auch alle paar Sekunden ein ganz kurzes Rucken?


    Die meisten DVD's laufen sowieso nur mit 25 fps. Da sollte der Effekt überhaupt nicht auffallen. Wenn die DVD-Wiedergabe hakt, ist irgendwas in Deinem System nicht vernünftig konfiguriert (und das kann ziemlich haarig zu finden sein, heutzutage sind viele Systeme in der Hinsicht nicht ganz OK). Vielleicht ist DMA nicht aktiviert, oder irgendwas ist im PCI-Timing Deines Boards vergurkt, oder was weiß ich... Windows ist per se kein echtzeitfähiges Betriebssystem. Wenn es da irgendwo klemmt (und da gibt es viele Möglichkeiten), können die verschiedensten Echtzeit-Vorgänge wie z.B. DVD-Wiedergabe in Mitleidenschaft gezogen werden. -- Oder tritt das Problem nicht mehr auf, wenn Du einen analogen Monitor anschließt?


    @Jetson:


    Siehe oben. Wenn es gelegentliche kurze Aussetzer gibt, muß das noch lange nicht an der Hardware liegen. Nur, wenn das Problem verschwindet, falls Du einen anderen Monitor anschließt, kannst Du es auf den Monitor schieben :)


    Merke: Es gibt unter Windows keine Garantie, daß Animationen flüssig laufen. Da können Programme im Hintergrund laufen, da kann Autostart für CD's aktiviert sein, und es gibt noch 100 weitere Möglichkeiten, seinem System Aussetzer beizubringen.


    Viele Grüße
    Wilfried

    Hallo zusammen,


    Erstmal möchte ich klarstellen, daß dies kein "Bericht" ist. Ich bin kein Monitorhersteller, und stelle lediglich Vermutungen auf. Allerdings bin ich Softwareentwickler und glaube ein bißchen Erfahrungen mit dem Thema "saubere und unsaubere Animationen" zu haben.


    Weideblitz:


    Die Decodierung muß wohl gezwungenermaßen mit dem Signal, das von der VGA-Karte kommt, synchron laufen, sonst gibt's schließlich kein sauberes Bild.


    Was meinst Du mit "den Kartenherstellern die korrekte Taktung überlassen"? Würde die Decodierung asynchron laufen, würde das komplette Bild ständig durchlaufen (kann man bei kaputten Fernsehern bewundern :)) ) Da gibt's keine Optionen.


    Die Ansteuerung des Panels ist eine ganz andere Geschichte. Selbst wenn die komplett asynchron zur Vertikalfrequenz der VGA-Karte läuft, sollte man bei statischen Bildern keine Probleme sehen. Nur bei Animationen (ganz besonders bei so einem 2-Bilder-hin-und-her-Geflacker) kann auffallen, daß manchmal im oberen Teil des Bildes ein anderes Frame sichtbar ist als im unteren Teil. Je nach Bildinhalt kann die Trennlinie mehr oder weniger deutlich sichtbar sein. Und wenn die Frequenzen nahe beieinander liegen, wird's wohl den aus dem im vorigen Posting beschriebenen Durchlauf-Effekt geben.


    Ein "hochwertiger" Monitor sollte allerdings hier eben _NICHT_ sein eigenes Süppchen (sprich Takt) kochen, sondern sich an der Vertikalfrequenz der Grafikkarte orientieren, damit es eben KEINE Streifen-Effekte oder Framedrops gibt. Wobei, was bedeutet "hochwertig"? Wenn statische Bildqualität vor Animationen Vorrang hat, ist es möglicherweise sinnvoll, eine möglichst für das Panel optimale, feste Frequenz zu wählen?


    bart:


    Das könnte ich mir gut vorstellen. Ich sollte es mal selber ausprobieren. (Grafikkarten-Feintuning)


    Die TMDS-Chips, welche für DVI zuständig sind, sind meines Wissens nach für maximal 165 MHz spezifiziert. Allerdings _dachte_ ich, daß sie einfach immer nach dem Pixeltakt getaktet werden. Die 165 MHz reichen so noch ohne Probleme für 1600x1200 Pixel Auflösung. Das Taktsignal wird mitübertragen... Daher sollte man auch mit DVI noch ziemlich flexible Einstellungsmöglichkeiten haben. Das Timing sollte eigentlich fast genauso funktionieren wie bei Analoganschluß. Äh... ich muß es wohl mal ausprobieren :--)


    Ich schätze mal, daß nicht alle Grafikkarten haargenau dieselben Frequenzen erzeugen. Dazu kommt noch, daß die offiziellen Standard-Vesa-Modi in den meisten Auflösungen _NICHT_ haargenau gerade Frequenzen wie z.B. 60 Hz treffen, sondern meist ein kleines bißchen daneben liegen:


    z.B, einige Vesa-Modi mit Vertikalfrequenzen:
    640x480 bei 59.94 Hz,
    800x600 bei 60.317 Hz,
    1024x768 bei 60.004 Hz,
    1600x1200 bei 60.0 Hz.


    Demnach dürfte ich das Problem eigentlich gar nicht haben... :)
    Naja, schön wär's...


    Wie jetzt die einzelnen Grafikkartenhersteller damit umgehen, ist mir jedenfalls nicht klar... :)


    Der "Strich" ist, wie schon gesagt, unter normalen Umständen überhaupt nicht zu sehen. Nur bei extrem raschen Bildfolgen kriegt man unter Umständen was mit. Das verwendete Testprogramm stellt hier wohl den "Worst Case" dar.


    @Basso-Basso:


    Ich werde es mal bei Gelegenheit ausprobieren. Bis jetzt war mir die Sache relativ egal, da ich nicht so arg viel Zocke. Außerdem fällt es selbst bei CS eigentlich überhaupt nicht auf. Und Moorhuhn spiel' ich nicht :) Aber trotzdem danke für den Tip!


    Viele Grüße
    Wilfried

    Hallo,


    Vielleicht sollte ich meine Idee von der Sache ein wenig klarer darstellen.


    Heutzutage dürften alle TFT's über einen internen "Framebuffer" verfügen, also einen ganz normalen Speicher, der eine komplette Bildschirmseite in der maximal darstellbaren Auflösung speichern kann. (Vielleicht gibt es sogar Modelle, die "Double-Buffering" betreiben...)


    Nun wird dieser "Framebuffer" sozusagen von zwei verschiedenen Parteien im Monitor benutzt: Der "Decoder" schreibt immer alles, was von der VGA-Karte kommt, in den Framebuffer. Die Panel-Ansteuerung liest den Framebuffer ständig aus und frischt den Inhalt des eigentlichen TFT-Panels auf.


    Wenn nun "Decoder" und Panel-Ansteuerung nicht synchronisiert sind, kommt es zu genau den beobachteten Effekten: Gelegentlich "überholt" die Ansteuerung den Decoder (oder umgekehrt). Da die Ansteuerung wohl ein bißchen regelmäßiger als die VGA-Karte vorgeht, und keine Wartepause für den vertikalen Rücksprung einlegt, bewegt sich ihre Speicherzugriffsposition geringfügig langsamer. Also wird dieser "Überholvorgang" innerhalb weniger aufenanderfolgender Frames(60tel Sekunden) jeweils ein paarmal an leicht veränderter Position stattfinden, was für einen periodisch (z.B. alle 15 Sekunden) auftretenden, sehr schnell aufwärts oder abwärts durchlaufenden horizontalen "Streifen" sorgt.


    Aus der Periode des Streifendurchlaufes sollte sich übrigens der Vertikalfrequenz-Unterschied zwischen VGA-Karte und Monitor errechnen lassen: Läuft der Streifen alle 15 Sekunden einmal durch, beträgt der Unterschied 1/15 Hz :)


    Ob und wie die synchronisiert sind, ist einzig und allein eine Sache der Implementierung des Monitors, und normalerweise unabhängig davon, wie der Monitor angeschlossen wird. Der/Die interne(n) Signalprozessor(en) wird sowieso nicht mit dem Takt des DVI-Einganges betrieben, das wäre viel zu unzuverlässig. Also muß die Synchronisation dieser beiden Prozesse sowieso separat an einem langsamer laufenden Eingangs-Signal durchgeführt werden, höchstwahrscheinlich tatsächlich an der vertikalen Bildlücke (die es meines Wissens nach auch bei DVI gibt). Oder -- man spart sich die Synchronisation einfach. Das dürfte die einfachere Lösung sein, und dem "Otto Normalverbraucher" normalerweise nicht auffallen. Uns aber leider schon :/


    Kurz gesagt: Ich glaube, die meisten TFT-Monitore haben eine Synchronisation von Decodierung und Panel-Refresh. Die Monitore, die diese Synchronisation _nicht_ haben, zeigen das Framesprung-Problem in irgendeiner Form.


    ...Nun könnte man ein TFT-Panel rein theoretisch auch ohne Zwischenspeicherung direkt immer aus dem Eingangssignal updaten. Dies ist vielleicht eine Option, wenn der Monitor ausschließlich per Digitalanschluß mit einem festen Bildschirmmodus betrieben werden soll. Für Analoganschluß und Interpolation dürfte jedoch ein Framebuffer viele Probleme vereinfachen...


    Viele Grüße
    Wilfried

    Sorry dass ich mich so spaet melde, aber am Wochenende war ich nicht mehr online...


    Ich hab meinen ViewSonic selbstverstaendlich digital angeschlossen (bei der Aufloesung halte ich das fuer notwendig). Und das Phaenomen tritt trotzdem auf. (Es tritt auch bei analogem Anschluss identisch auf.) Das ist allerdings auch logisch, da es eigentlich kein grundlegender Unterschied ist, ob der VSync an einem analogen oder digitalen Eingangssignal ausgerichtet wird: Die "eigentliche" Synchronisation hat ja auf jeden Fall funktioniert, da man sonst ueberhaupt kein stabiles Bild haette.


    Vielmehr ist das Problem, dass der Monitor das Panel offensichtlich mit einer festen, unabhaengigen Frequenz (wohl 60 Hz) aus seinem internen Bildspeicher updated. Und das ist komplett unabhaengig davon, ob der Monitor digital oder analog angesteuert wird.


    Der besagte Laptop hat also wohl zufaelligerweise sehr genau die Updatefrequenz des Monitors getroffen? Laeuft vielleicht irgendwann mal ein Streifen durch, wenn man ein wenig laenger wartet?



    Gruss


    Wilfried

    Hallo,


    Bei meinem Viewsonic VP201m passiert genau dasselbe. Ich habe ihn trotzdem genommen... :) Und ja: Der Grund ist eine interne Synchronisation auf 60 Hz. Da die Grafikkarte normalerweise nicht haargenau dieselbe Frequenz schafft, wird immer mal wieder ein Frame übersprungen bzw. doppelt angezeigt, je nach dem, ob sie schneller oder langsamer ist.


    Unter Linux kann man vielleicht versuchen, mit Finetuning die Frequenzen so gut wie möglich aneinander anzugleichen (hab' ich nicht gemacht, da ich unter Linux eh nicht spiele... Vielleicht gibt es auch die Möglichkeit, so was unter Windows hinzukriegen. Wenn ja, würde mich das auch mal interessieren :)


    Viele Grüße
    Wilfried

    Hallo,










    Ich verwende die Pivot-Funktion meines Viewsonic VP201m regelmaessig. Ich lese oftmals Dokumente mit Formeln und anderen kleingeschriebenen Inhalten, und ich mag es nicht, dauernd hin und her scrollen zu muessen. Bei Verwendung der Pivot-Funktion habe ich 1600 Pixelzeilen zur Verfuegung, das genuegt, um selbst die kleinsten Formelzeichen bei ganzseitiger Darstellung bequem lesen zu koennen :)








    Auch finde ich es bei der Bildbearbeitung ganz praktisch. Man hat doch gelegentlich mal hochkant liegende Bilder. Ist auch schoen, wenn man die in voller Aufloesung anzeigen kann.








    MFG Wilfried

    Hallo zusammen,


    ich muß da auch mal meinen Senf zu loswerden :)


    Ich habe scheinbar noch nie das Pech gehabt, eine Grafikkarte mit schlechtem Analogausgang zu benutzen. Momentan verwende ich eine Geforce3 TI200 von Gainward, bei einer Auflösung von 1600x1200 Pixeln, an einem ViewSonic VP201m. Und überraschenderweise ist der Unterschied zwischen analogem und digitalem Anschluß nur bei sehr genauem Hinschauen sichtbar. Als ich einmal den Iiyama AU4831D (mit derselben Auflösung und Grafikkarte) im Haus hatte, war der Unterschied hingegen ziemlich deutlich.


    Wenn ich ein billiges (analoges) Monitorkabel verwende, wird die Bildqualität bei jedem Monitor übel, vor allem gibt's bei mir dann fette Schatten im Bild. Ziemlich großer Unterschied zum teureren, "fetten" Monitorkabel.


    Ausgerechnet mit DVI-Anschluß habe ich allerdings ein merkwürdies Phänomen: Immer, wenn die Grafikkarte noch kalt ist, und typische "Raster-Muster" angezeigt werden, kommt es zu seltsamen Bildstörungen, die man als "fliegende horizontale Streifen" bezeichnen könnte. Auch bei ein paar anderen Gelegenheiten kommt es gelegentlich mal vor, die genaue Systematik, die dahintersteckt ist mir nicht 100%ig klar. Allerdings ist die Häufigkeit des Phänomens direkt von der Temperatur der Grafikkarte abhängig. Die Temperatur des Monitors hat _nichts_ damit zu tun. Daher denke ich mal, daß der DVI-Ausgang der Grafikkarte nicht so toll ist.


    Letztlich habe ich einen Verkäufer im Media-Markt dazu gebracht, reihenweise verschiedene TFT's analog oder digital direkt an einem Computer anzuschließen. Bei den billigeren Modellen gibt's ja normalerweise nur Analoganschluß. Unverständlicherweise scheint der dann oftmals auch nix zu taugen: Das Bild synchronisiert sich nur schlecht (so daß ein Pixel von der Grafikkarte nicht immer genau auf einem Monitorpixel landet), und ist manchmal instabil. (Flackern, durchlaufende Streifen) Ein etwas teureres Modell (Hyunday ImageQuest 17"er, 1280x1024) hatte dann auch einen DVI-Eingang. Da war das Bild denn auch perfekt. Doch die Überraschung: Bei analogem Anschluß war beim besten Willen kein Unterschied zu bemerken! Alle Pixel perfekt scharf und 1:1 abgebildet, nicht die geringste Instabilität, keine Schatten.


    Der Monitor selbst hat durchaus auch gewisse Nachteile. So ist die Helligkeitsverteilung nicht besonders, und der Blickwinkel erst recht nicht. Trotzdem, für einen 17" TFT war er recht günstig. Mein Vater hat ihn sich dann gekauft, da er einen neuen Monitor brauchte. Auf "Luxus" wie gleichmäßigeHelligkeitsverteilung und großen Blickwinkel legt er keinen Wert. Er hat jetzt eine Grafikkarte mit DVI (Radeon 9000) und einen Monitor mit DVI. Trotzdem ist das Teil analog angeschlossen. Naja, DVI-Kabel kosten auch Geld... :) Aber wozu ein DVI Kabel kaufen, wenn die Bildschärfe und Stabilität auch analog perfekt sind? (Ich habe auch mal mein DVI Kabel geholt und verglichen, aber es war absolut _KEIN_ Unterschied zu erkennen.)


    Fazit:


    Die einfache Formel "Analoganschluß ist immer schlechter als DVI" kann man in der Praxis nicht so verallgemeinern. Vielmehr kommt es auf die Qualität und das Zusammenspiel der einzelnen Komponenten an:


    - Billige TFT's scheinen grundsätzlich ein Problem mit der Darstellungsqualität zu haben: Sie haben keinen DVI-Eingang, und der Analogeingang ist oftmals miserabel.
    - Billige Analogkabel haben oftmals eine miese Übertragungsqualität. Doch das heißt nicht, daß man ein 5 cm dickes Hi-End Kabel mit vergoldeten Anschlüssen braucht. Das beim ImageQuest mitgelieferte Kabel wirkt keineswegs besonders teuer, und trotzdem kann ich keinen Makel an der Übertragungsqualität feststellen.
    - DVI bietet letztendlich vor allem den Vorteil, daß man garantiert ein scharfes und perfekt justiertes Bild hat. Doch man kann sich durchaus auch Probleme einfangen: z.B. Nicht funktionierende Grafikmodi (Dos-Box), oder Grafikkarten, die gelegentlich Müll in den DVI-Ausgang einstreuen.
    - Auch billige Grafikkarten können eine hervorragende Analog-Qualität haben. Ich habe da eine alte Matrox Productiva G100, die am Imagequest ein Bild liefert, das ich nicht von DVI unterscheiden kann. Dasselbe kann ich von der Radeon 9000 sagen, die jetzt dauerhaft mit diesem Bildschirm verwendet wird.


    Gruß
    Wilfried

    Hallo,


    Na das ist ja eine lustige Idee :) Dann wird also das DVI-Protokoll sozusagen unterminiert... naja ist ja eh digital, dem Kabel kann ja egal sein, welche Bedeutung die Bits haben :) Die Grafikkarte ist natürlich darauf ausgelegt, tatsächliche Frames anzuzeigen, und wird darum 60x pro Sekunde einen kompletten "Datensatz" für ein Bild übertragen. Allerdings reicht das nicht für ein komplettes Bild, wenn statt 8 Bit 10 Bit pro Subpixel übertragen werden. Da muß er dann einfach immer mal wieder ein paar Bilder unter den Teppich kehren :)


    Das kann natürlich nur funktionieren, wenn Du einen ziemlich speziellen Monitor-Treiber verwendest, der auch die Grafikkarte "übers Ohr haut". Kannst Du das bestätigen?


    Ich frage mich gerade, welche Software überhaupt mehr als 8 Bit pro Farbkomponente unterstützt... Und verwenden die dann auch ganz spezielle Treiber oder Protokolle? Normale Windows-Anwendungen werden die höhere Farbtiefe wohl kaum ausnutzen können!


    Wieso er dann allerdings auch bei analoger Ansteuerung ruckelt, will mir nicht einleuchten. Und vor allem -- warum ist es bei der Flash-Animation aufgetreten, aber nicht beim Testprogramm? Wurde in der selben Auflösung getestet?


    Monitore sind schon ein faszinierendes Thema... :)


    Es gibt da ja einiges an merkwürdigen Effekten. Vielleicht sollte man mal ein etwas umfassenderes Testprogramm machen :)


    Viele Grüße
    Wilfried

    Hallo BobbyX,


    Danke für diese Information. Verwunderlich ist die Sache allerdings schon, ich frage mich wirklich, wie so ein Fehler überhaupt "funktionieren" kann.


    Das bedeutet, bei Deinem Iiyama AU4831D fährt das Auto perfekt "flüssig" ? (im Testprogramm aus diesem Thread)


    Sollten Dir weitere Besonderheiten mit dem Gerät auffallen, so würde mich das auch interessieren.


    Viele Grüße
    Wilfried