Eine leistungsfähige Grafikkarte, ein teurer Messsensor und Spezial-Software werden die Monitortests bei PRAD insbesondere im Bereich der Lag- und Reaktionszeitmessungen schrittweise verbessern. Wir geben vorab schon ein paar Einblicke.
Um die neuen, hohen Bildwiederholraten von 144 Hz und mehr möglichst ohne Latenz auszutesten, benötigt man zunächst eine leistungsfähige Grafikkarte mit HDMI 2.1.
Grafikkarte mit viel Power
Unsere Wahl bei der Grafikkarte fiel auf die ASUS GeForce RTX 3090, die sogar zwei Ausgänge mit HDMI 2.1 besitzt. Dass daneben obendrein drei DisplayPorts in Version 1.4 verfügbar sind, ist natürlich für Monitortests ungemein praktisch und liegt auch an dem Design mit 2,9 Höheneinheiten, das auf gute Kühlung und Langlebigkeit hin optimiert wurde.
Obwohl mittlerweile die Nachfolger-Grafikkarte GeForce RTX 4090 mit abermals mehr Leistung in Sicht ist, bieten ihre Anschlüsse jedoch auch nur dieselbe Bandbreite wie die RTX 3090, zumal deren Rechenleistung für unsere Zwecke mehr als ausreichend ist. PCI Express 4.0 und 750 Watt Stromaufnahme sind kein Pappenstiel, aber deuten schon an, wie viel Leistung die Karte mit ihren über zehntausend Rechenkernen (10 496 CUDA-Cores) und 24 GB GDDR6X-VRAM in Reserve hat.
Für unsere zukünftigen Monitortests ist die ASUS ROG Strix GeForce RTX 3090 aus mehreren Gründen die richtige Wahl:
- Die Hardware ist auf einen besonders zuverlässigen Betrieb ausgelegt.
- Die Anschlüsse sind vielfältig und entsprechen neuesten Spezifikationen. Das erlaubt zukünftig sogar Tests von 8K-Monitoren.
- Die Leistungsfähigkeit der Karte reduziert die Gefahr von unnötigen Latenzen bei der Ansteuerung im System, ohne dabei den Stromverbrauch und Anforderungen an den Rest vom PC in unnötige Dimensionen zu katapultieren.
Der Messsensor
Während wir bislang mit Lichtsensor (Phototransistor) und Oszilloskop die einzelnen Reaktions- sowie die Lag-Zeiten mit vielen Messwiederholungen und in sehr viel Handarbeit bestimmen, sollen die zukünftigen Messungen präziser und schneller vonstattengehen.
Mit einem Phototransistor ist es beispielsweise nicht möglich, absolute Helligkeiten bei verschiedenen Monitoren treffsicher zu ermitteln – man misst eher relative Helligkeitssprünge (etwa von 20 auf 80 %), wie sie auch in unseren Diagrammen zu sehen sind.
Konventionelle Messgeräte zur Bestimmung der Lichtmenge und -farbe können die absoluten Helligkeiten recht zuverlässig messen, brauchen aber abhängig von der Helligkeit bis zu mehrere Sekunden pro Messung. Für Messungen der Reaktionszeit ist das deutlich zu langsam, weshalb wir – wie auch andere Publikationen, die Monitore testen – bislang immer den Weg der Photodiode am Oszilloskop gegangen sind. Kommerzielle Geräte wie beispielsweise der Leo Bodnar Video Signal Input Lag Tester – den wir als Vergleichsgerät gelegentlich zur Validierung von Messungen gern einsetzen – arbeiten ebenfalls mit einem Phototransistor, in diesem Fall in Kombination mit einem für diese Messung spezialisierten Arduino-Board.
Der neue Messsensor unserer Wahl ist hingegen das CA-410 von Konica Minolta. Der Sensor kostet zwar über 10.000 Euro, deckt aber einen Helligkeitsbereich von 0,001 bis 3000 cd/m² bei bis zu 3 kHz Sampling-Frequenz ab. Das sind bis zu 3000 Messpunkte pro Sekunde, die sich auswerten lassen. Die auf diese Weise möglichen Messungen erlauben uns stark erweiterte und wesentlich genauere Aussagen zu allen wesentlichen Parametern in den Bereichen Input-Lag, Reaktionszeiten oder auch Bildflimmern.
Die Mess-Software
Da der Sensor allein noch kein Messverfahren definiert, baut unser Messlabor beziehungsweise Florian Friedrich von FF Pictures gerade das entsprechende Messsystem auf. Es besteht aus einer Kombination aus Hardware (ASUS GeForce RTX 3090 in einem leistungsfähigen Rechner und dem Messsensor CA-410 von Konica Minolta) und Spezial-Software. Die leistungsfähige Grafikkarte von ASUS ist nicht nur wegen der HDMI-2.1-Anschlüsse ein wichtiges Element, sondern auch, weil die Rechenleistung zum schnellen Rendern der benötigten Testbilder mit geringstmöglicher Latenz gebraucht wird.
Wie bereits im Artikel „Dynamische Hintergründe für genauere Display-Messungen“ erwähnt, ist das den Messungen zugrundeliegende InnoPQ-Testsystem von FF Pictures auf die Messung mit dynamischen Signalen ausgelegt. Das bedeutet, dass wir in Zukunft bei der Messung von Reaktionszeiten und anderen Display-Parametern auch bewegte Hintergründe in Erwägung ziehen, wofür wiederum die Rechen-Power der Grafikkarte hilfreich ist.
Durch die Wiederholung der Messung mit Mittelwertbildung sowie das Feststellen der Minimal- und Maximalwerte erreichen wir letztlich eine Genauigkeit, die in einigen Fällen über die Messgenauigkeit des Sensors bei der Einzelmessung hinausgeht.
Ausblick
Aktuell befindet sich unser Messverfahren noch in der Erprobungsphase und wird vor finaler Einführung eine Weile lang parallel zu den bisherigen Messungen getestet. Sobald die Ergebnisse aussagekräftiger und zuverlässiger sind als unser bisheriges Verfahren, setzen wir bei den Messungen gänzlich auf das neue Verfahren.
Welche Wünsche haben Sie als Leser an unsere Diagramme und Messungen im Bereich Reaktionszeiten und Input-Lag? Wir freuen uns sehr über qualifizierte Kommentare und zündende Ideen für noch bessere Tests.
Weiterführende Links zum Thema
ASUS ROG Strix GeForce RTX 3090
Dynamische Hintergründe für genauere Display-Messungen
gefällt es