(1) Wir operieren unter der Annahmen, dass wir nicht durch Maus oder Joypad limitiert sind. Für das Beispiel haben beide 0ms Lag.
(2) Wir nehmen ein Spiel das bei 100fps läuft.
(3) Andere Quellen von Lag betrachten wir am Ende.
Unter nativen Bedingungen ist alles klar, das Spiel erhält alle 10ms ein Update. Immer wenn ein Frame fertig ist, frägt die Engine den Zustand des Controller ab (Knopf gedrückt nicht gedrückt, Entfernungen in X und Y Richtungen) und lässt das in das nächste Frame mit einfließen. Die Qualität der Maus und deren Polling Rate spielt keine Rolle. Egal wie gut die Maus ist, bei 20fps ist es immer schwammig.
Unter 100fps DLSS 2.0 sollte sich das Spiel exakt so anfühlen wie mit Nativ 100fps. Es wird zwar nicht das ganze Bild berechnet, aber es wird überhaupt ein Bild berechnet. Und in ein berechnetes Bild kann der Zustand des Controllers einfließen. Will heißen, unser Lag ist weiter 10ms.
Mit 100fps bei DLSS3.0 ändert sich das. Denn nur 50fps werden berechnet. Will heißen, der Controllerinput wird nur noch alle 20ms abgefragt. Klar das Spiel hat 100fps, aber 50% davon werden nicht berechnet, die werden erfunden. Diese Erfindung reagiert nicht auf Controllereingaben, also stellen die sich hinten an.
Der wundervolle Framtimegraph im Artikel zeigt das wundervoll. Das Spiel auf dem Schirm ist für den Beobachter so flüssig wie der gelbe Balken, aber in Sachen Inputlag spielt es sich wie der blaue DLSS2.0 Balken. Nun mag das beim Sprung von 60fps auf 120fps nicht auffallen, gemeinerweise müsste man das bei 20fps und 40 fps testen. Denn 20fps mit der Maus sind grauenvoll, 40 spürbar anders. 40fps nur dank DLSS3.0, sollten das volle Grauen der internen 20fps mit Zwischenframes entblößen.
Die anderen Quellen von Lag sind immer oben drauf. Nvidia kann immer den Controller-Lag, Monitor-Lag und sonstiges 1000 mal pro Sekunde abrufen und in einer Grafik verwursten. Die wirkliche Königsfrage ist, wie oft wird der Zustand der Welt anhand von Controllereingaben berechnet. Wenn eine Nvidia 60fps berechnet hat man immer 16ms gefühlten Input, wenn es 20fps sind hat man immer gefühlte 50ms Input. Egal wie viele fps erfunden werden. Ich behaupte auch nicht Igor oder die PCGH hätten falsche gemessen, sie haben einfach nicht dort gemessen wo es schmerzt.