PCGH Monitor Reaktionszeit Input Lag verstehen

VitaliTy

Komplett-PC-Aufrüster(in)
Hallo zusammen,

ich möchte gerne die Angaben zu den Monitor Tests der PCGH verstehen, dies fällt mir jedoch nicht so leicht wie Anfangs gedacht.
Daher hoffe ich ihr könnt mir dazu helfen.

In dem Artikel lese ich folgendes:
Im Prinzip ist die Reaktionszeit Teil des Input Lags, wenn auch nur ein recht geringer.

Hier folgendes:

Den einen Input Lag gibt es nicht

Meistens wird der Input Lag im Zusammenhang mit Displays genannt. Einfach weil die alten 60-Hz-LCDs und erst recht alte TVs ohne Gaming Modus sich noch ordentlich Zeit gelassen haben. Aktuelle Gaming-Monitore, egal ob billige oder teure, haben meist eine so geringe Verzögerung, dass sich der Otto Normalzocker kaum drum scheren muss. Ohne Bildaufbauzeit sind es fast immer einstellige Millisekunden-Werte, das haben unsere jahrelangen Messungen ergeben.

Hier beim Monitor Test folgendes:
Die Reaktionszeiten hingegen sind mit durchschnittlich 7,8 ms bestenfalls durchschnittlich. Trotz der 144 Hz ist der LC-M40 daher nichts für Schlieren-sensible Hochfrequenzspieler. E-Sportler sind aber ohnehin keine Fans des Ultrawide-Formats. Dem Otto Normalgamer dürfte das auch egal sein. Dafür ist der Input Lag mit 7,4 ms angenehm niedrig.

Was übersehe ich hier, denn das widerspricht sich.
Wenn die Reaktionszeiten Teil des Input Lags sind kann ja der Input Lag nicht geringer sein als die Reaktionszeiten.
 
Die Diskrepanz ergibt sich wahrscheinlich daher, dass PCGH den Input Lag mehr oder weniger dediziert mit dem Leo Bodnar misst und dabei eine Art Idealwert bei der Reaktionszeit verwendet. Bei der Messung der Reaktionszeit wird eher der Worstcase gemessen.
 
Es kommt immer drauf an, wie man den Inputlag definiert.
Für viele ist es die Zeit zwischen Eingabe an zb der Maus und der sichtbaren Reaktion am Monitor.
Für mich ist es die reine Verarbeitungszeit des ankommenden Signals im Scaler des Monitors.
Leichter zu messen ist halt ersteres.
Dabei muss man dann aber auch sehen, dass dann der Inputlag im oberen Bereich des Monitors kürzer ist als im unteren Bereich.
Das gilt aber wiederum hauptsächlich, wenn man einen gesyncten Bildaufbau misst.
Eine endgültige Aussage ist deswegen schwierig.

Die beste Methode für einen selber ist immer noch ausprobieren.
Du merkst selber am besten, ob es für dich passt.
Du kannst dann aber auch anhand deiner persönlichen Erfahrung in Tests gucken, wie dein jeweiliger Monitor da abgeschnitten hat.
Daran kannst du dann meist ableiten, wie ein anderer Monitor sich verhält, wenn er mit dem selben Test beim gleichen Tester gemessen wurde.
 
Genau, grundsätzlich fängt das Problem bei der fehlenden Definition an, sodass man die Werte verschiedener Tester ohne weiteres nicht vergleichen kann.
Was man unterm Strich festhalten kann ist, aktuelle, dedizierte Monitore, erst recht wenn sie Richtung Gaming designt sind, sind von der Bildausgabe so schnell, dass die keine Rolle mehr spielt, außer vielleicht für professionelle Spieler.
Ander sieht es abseits davon aus. Fernseh- oder Displays für mobile Geräte haben teilweise einige Frames Latenz, weil andere Features offenbar Priorität bei der Entwicklung haben.
 
Was übersehe ich hier, denn das widerspricht sich.
Wenn die Reaktionszeiten Teil des Input Lags sind kann ja der Input Lag nicht geringer sein als die Reaktionszeiten.
Gute, berechtigte Frage, erkläre ich gern. Also:

Wir wissen eben nicht, wie viel und welche Reaktionszeit in der Input-Lag-Messung enthalten ist. In der Messung des Input Lags mit dem Leo-Bodnar-Tool ist nur eine Reaktionszeit eines Schwarz-Weiss-Wechsels enthalten. Wir nehmen für die Reaktionszeiten mehrere (20) Werte für den Durchschnitt her, weswegen die Unschärfe schon allein dadurch entstehen kann.

Wie im Reaktionszeiten-Artikel erklärt, variiert außerdem der Wert je nach dem, wie man diese misst, also ob standardmäßig 10-90% oder anderweitig. Kurzum: Wir wissen es nicht, wie das Leo-Bodnar-Tool die Reaktionszeit des Farbwechsels integriert, also ob (irgendwo) bei der kleinsten Änderung des Schwarzwertes schon (ziemlich warscheinlich bei solchen widersprüchlichen/niedrigen Werten) oder eben erst dann wenn der Wechsel auf Weiß (fast) abgeschlossen ist. Das Tool spuckt nur einen Wert aus und wir können nicht die Reaktionszeit davon isolieren, wie auch immer die dort integriert ist.

Ja, es ist Definitionssache, ob man den Input Lag mit oder ohne Reaktionszeiten sieht. Ich finde, sie gehört dazu, rein theoretisch eben. Prakitsch sind es zwei vollkommen unterschiedliche Messungen mit unterschiedlichen Tools, daher kann man beide eben praktisch nicht unter einen Hut stecken oder vergleichen. Leider. Ich weiß, tftcentral macht das gern. Aber ich halte die Kombination von zwei ungenauen Werten unterschiedlicher Messmethoden für einen umso mehr ungenaueren Wert. Daher lasse ich das sein.

Der Leo-Bodnar-Lag ist nur eine einzige Stichprobe, aber kommt dem reinen Scaler-Lag am oberen Bildrand eben am nächsten.

Deswegen messe ich auch zusätzlich mit dem Nvidia LDAT. Prakitsches Szenario zwar, aber hier wird der ganze System-Lag gemessen. Aussagekraft also nur relativ. Immerhin wird dort erwähnt, dass die Reaktionszeit integriert ist bis zum 90-prozentigen Niveau. Den Lag kann ein Monitor mit Nvidia Reflex zwar aufschlüsseln, aber nur bei "sich selbst", weil dort das Messtool integriert ist, die Reaktionszeit selbst wird dort aber auch nicht vom Monitor-Lag getrennt, was in einer praktischen Messung bislang einfach nicht geht.

Tatsächlich wird die neue Version des LDAT (laut Nvidia kriege ich bald eins^^) auch die Reaktionszeiten messen können. Ich werde damit also wohl Lag inkl./und Reaktionszeit mit ein und demselben Tool und hoffentlich auch Messvorgang messen können, sodass ich das viel verständlicher rüberbringen kann und solche (berechtigten) Verständnisfragen erst gar nicht aufkommen.

Hoffe geholfen zu haben und es einigermaßen verständlich rübergebracht zu haben^^
 
Zurück