In der Reportage "Inputlag" wurde eine Methode zur Messung vorgestellt, die ein 100k€ Scope mit 13GHz Bandbreite benötigte, das nur für den Zeitraum der Reportage leihweise zur Verfügung stand. Das wirft die Frage auf, wie die Messungen jetzt eigentlich durchgeführt werden.
Ein wesentlich preiswerteres Scope ist nicht ausreichend, um auf TMDS-Bitmuster zu triggern. Dazu kommt, daß die Methode so nur für HDMI/DVI funktioniert, bei DualLink (für hohe Auflösungen benötigt) wird es schon komplizierter (weil Daten abwechselnd auf die Links verteilt werden), bei Displayport noch mehr (mehrere LVDS-Lanes, die nicht mehr direkt Pixeln zugeordnet sein müssen). Dazu muß die gewählte Art der vertikalen Abtastlücke ("reduced blanking" oder CEA-861 usw.) berücksichtigt werden, weil das die Messung beeinflussen kann.
Da bei neueren Tests von 27-Zöllern mit 2560x1440 Pixeln die Latenz laut Beschreibung bei nativer Auflösung und Zuspielung über Displayport gemessen wird, wären Details zur aktuellen Meßmethode aufschlußreich. Nicht zuletzt, weil die Meßergebnisse teils deutlich von denen anderer Seiten abweichen und die Behauptung im Raum steht, daß die Prad-Messungen exakt (weil direkt gemessen) seien. Dazu müßte aber die in der Reportage vorgestellte Meßmethode entsprechend angepaßt worden sein und es müßte ein Highend-Scope mit >10GHz Bandbreite und komplexen Triggeroptionen dauerhaft zur Verfügung stehen.
Irgendwie beschleicht mich aber der Verdacht, daß das nicht der Fall ist - zumal in den Testberichten Latenz und Schaltzeit immer getrennt gemessen und am Ende aufaddiert werden. Bei einer direkten Messung wäre das ja genau umgekehrt: man würde die Gesamtverzögerung vom Ende der Abtastlücke bis zum Anstieg der Helligkeit messen und dann über Subtraktion der Schaltzeit die reine Latenz ausrechnen.