Hertz verus Latenz

  • Eine Frage an die Technik-Freaks unter euch. Was ist denn nun enscheidender?


    Die Hertzzahl des Monitors "entspricht" der FPS-Zahl, die die Grafikkarte liefert -> beides muss hoch sein, sonst limitiert jeweils der kleinere Wert. Dann gibt es noch die Latenzzeit. Ich zitiere mal: "Die Latenz ist ein wichtiger Wert für Spieler, wir ermitteln sie als
    Summe der Signalverzögerungszeit und der halben mittleren
    Bildwechselzeit. Bei 60 Hz Bildfrequenz messen wir eine recht lange
    Signalverzögerung von 18,2 Millisekunden, offenbar speichert der VG278HE
    intern stets ein Bild zwischen. Bis zur Soll-Helligkeit
    vergehen dann im Durchschnitt zwar nur noch weitere 2,1 Millisekunden
    (TraceFree 100), dennoch beträgt die mittlere Gesamtlatenz insgesamt
    schon ziemlich lange 20,3 Millisekunden."
    Quelle:


    Die hohe Latenz bis 60Hz beim Asus ist dann von welcher Bedeutung?. Die Latzenz beträgt 20,2 Millisekunden - um wieviel Hertz wird dann das Bild verzögert, wenn das Spiel >=60FPS liefert & ich habe einen Monitor mi einer Latenz bei 60Mhz von 5, dann erhalte ich 55 Mhz angezeigter Frames? Und der Asus liefert dann nur 39,7Mhz, also 60-20,3?


    Wer bringt Licht ins Dunkel?

  • Du bringst da etwas durcheinander, die Signalverzögern beeinflusst die Hertzzahl nicht. 60 Hz werden auch bei dem Asus mit 60 Hz angezeigt.


    Latenz ist die Zeit, die das Gerät benötigt um nach einer Aktion eine Reaktion zu beginnen. Die Reaktionszeit ist die Zeit, die das Gerät benötigt, um die Reaktion abzuschießen.


    Der Monitor zeigt das Bild daher 20 Millisekunden nach dem eigentlichen Ereignis an. Hast du ein Gerät mit einer Gesamtlatenz von nur 5 Millisekunden, würdest du das Bild entsprechend 15 Millisekunden früher sehen.

  • o.k., hört sich interesssant an ;). 1 Hertz ist ja = 1000 ms ->


    20.000 ms benötigt der Samsung VG278HE pro Bildwechsel(ist das die Aktion von der dur sprichst?) länger bis 60 Hertz. Also ein Spiel, welche smit 60FPS läuft benötigt dann pro darfgestelltem FPS 20 Hertz länger. Also stellt er nur 40 Hertz vom Spiel dar. So richtig?


    Mal zum Vergleich. Beim AOC G2770PQU ist der Wert viel besser - nur 8,2 ms. Die Bildlaufzeit beträgt 3,5ms bei 60Hz: "Der Durchschnittswert für unsere 15 Messpunkte beträgt 3,5 Millisekunden" Quelle: Bei 144Hz sind es 4,1ms: "Der Durchschnittswert für unsere 15 Messpunkte beträgt 4,1 Millisekunden". Quelle:
    "Die Latenz ist ein wichtiger Wert für Spieler, wir ermitteln sie als
    Summe der Signalverzögerungszeit und der halben mittleren
    Bildwechselzeit. Beim AOC G2770PQU messen wir mit 7,2 Millisekunden bei
    60Hz und 144Hz eine kurze Signalverzögerung. Die halbe mittlere
    Bildwechselzeit ist mit 1 Millisekunde sehr kurz, insgesamt macht das
    8,2 Millisekunden."
    Quelle:
    Bei 60Hz gilt dann 3,5ms+7,2ms=10,7ms. Dann ist der AOC also wesentlich schneller als der ASUS? Genau: 20,3ms-10,7ms=9,6ms.


    In der Übersicht stehen bei den Monitoren "immer" 3 Werte:
    sehr geringer Lag
    Bildaufbauzeit
    Reaktionszeit
    Quelle:
    Was davon ist das wichtigste? Und was davon steht für welchen Wert? Was steht für die Hertzzahl, was für die Latenzzeit etc.?


    Danke sehr.

    4 Mal editiert, zuletzt von o0Pascal0o ()

  • Also wenn du schon so rechnen möchtest, dann müsstest du doch rechnen 60 Hz = 60.000 ms abzüglich 20 ms = 59.980 also 59,98 Hz oder nicht ?(

  • stimmt - ich hatte immer 20Hz gerechnet nicht 20ms, oder benötigt der Samsung pro Hz 20ms länger? Also bei 60 FPS = 60*20ms=1200ms=1,2Hz. Also 60Hz-1,2Hz=58,8Hz.


    In beiden Fällen würde dieser Wert aber kaum ins Gewicht fallen. Warum wird er dann so ausführlich in den Testberichten ausgewertet?

  • Ich glaube hier geht ziemlich was durcheinander:

    1 Hertz ist ja = 1000 ms

    Nein, überhaupt nicht. 1 Hertz sind 1/s also 1/(1000 ms).


    Damit macht auch der Rest keinen Sinn.


    Und das Dezimaltrennzeichen ist hier Punkt oder Komma?

  • Ich versuche es nochmal anders zu erklären. Der Monitor gibt immer 60 Hz wieder, nur im Fall vom Asus eben um 20 ms verschoben. Wenn du so willst, gibt er die ersten 20 ms nichts wieder, also 0 Hz und ab da dann konstant 60 Hz.


    Der AOC hat nur eine Verzögerung von 8 ms, zeigt das erste Bild daher schon nach 8 ms an. Würde man beide Monitore nebeneinander betreiben, würde der AOC das Bild daher im Vergleich immer 12 ms früher anzeigen.


    Wenn du ein Hardcoregamer bist und dein Gegner auch und du kannst ihn 12 ms früher sehen, kann das eventuell die Zeit sein, die du benötigst um schneller zu sein und zu gewinnen. Daher wird der Bereich so genau vermessen.


    In 99 % aller Fälle dürfte es aber völlig egal sein, ob der Monitor 20 oder 10 ms hat, da kommt es in den Spielen auf ganz andere Sachen an, aber Spieler glauben eben gerne, dass sie den Unterschied spüren können und wollen entsprechend Geräte kaufen, die eine möglichst schnelle Reaktionszeit haben.

  • Das Dezimaltrennzeichen ist ein ",".


    Zitat

    1 Hertz sind 1/s also 1/(1000 ms).

    1 durch Sekunde? Jetzt wird´s kompliziert...

    Ich versuche es nochmal anders zu erklären. Der Monitor gibt immer 60 Hz wieder, nur im Fall vom Asus eben um 20 ms verschoben. Wenn du so willst, gibt er die ersten 20 ms nichts wieder, also 0 Hz und ab da dann konstant 60 Hz.

    Dankeschön. Und dann konstant 60Hz? Aber konstant 60Hz und bei jedem Hz 20ms verspätet? Sonst schaltet man das Spiel ein und die ersten 20ms kommt nix bzw. bleibt das Bild gleich bim Asus & ab da sind die Monitore identisch - das kann ja nicht sein.


    Und wie bringe ich jetzt die Bildlaufzeit von 3,5ms(bei 60Hz, overdrive mittel) beim AOC dazu in Verhältnis?

    2 Mal editiert, zuletzt von o0Pascal0o ()