Input-Latenz: Moderne Systeme reagieren langsamer als ein Apple-IIe-Rechner von 1983

schon alleine mal die rams angeguckt? die cl timings? die werden von jeder generation größer und nicht weniger, die wachsen mit der geschwindigkeit der rams.:ugly: und früher gabs auch nur 1 cpu-kern. heute hat jeder 4-8.

tjoa nen lkw diesel beschleunigt auch langsamer als nen motorrad. :ugly:

hast du argumente/quellen für deine behauptung?

Die Latenzzeiten der RAMs sind relative Angaben - bezogen auf den Takt. Ein 4000 MHz CL20 hat also so viel Latenz wie ein 2000 MHz CL10-RAM. Vor 15 Jahren hatten RAMs eine Cache Latency von 3 bei 400 MHz. Demnach hat sich an der Speicherlatenz also gar nicht mal so viel getan - aber maßgeblich schlechter ist sie definitiv nicht geworden. Man hat eher um das Problem herumentwickelt - mit maßgeblich komplexerer Logik sowie Multithreading.
Verständlich ist auch, dass ein Monitor mit aktiver Ansteuerung langsamer ist, als ein Röhrenmonitor. Dennoch möchte heute keiner mehr den monochromen Röhrenmonitor haben. Heutige Monitore sind aber dank 120+ Hz wieder deutlich schneller geworden, als dies noch vor 5 Jahren der Fall war.
gRU?; cAPS
 
Die Latenzzeiten der RAMs sind relative Angaben - bezogen auf den Takt. Ein 4000 MHz CL20 hat also so viel Latenz wie ein 2000 MHz CL10-RAM. Vor 15 Jahren hatten RAMs eine Cache Latency von 3 bei 400 MHz. Demnach hat sich an der Speicherlatenz also gar nicht mal so viel getan - aber maßgeblich schlechter ist sie definitiv nicht geworden. Man hat eher um das Problem herumentwickelt - mit maßgeblich komplexerer Logik sowie Multithreading.
Verständlich ist auch, dass ein Monitor mit aktiver Ansteuerung langsamer ist, als ein Röhrenmonitor. Dennoch möchte heute keiner mehr den monochromen Röhrenmonitor haben. Heutige Monitore sind aber dank 120+ Hz wieder deutlich schneller geworden, als dies noch vor 5 Jahren der Fall war.
gRU?; cAPS

meinst wohl gleiche speichergeschwindigkeit/perfomance?
 
Krass waren ja gewisse Arcades in Spielhallen der 80er bis 90er, die hatten 200 bis 500MHz CRTs und sehr direkte Inputverarbeitung. So ein Geschirr bzg. Latenz vermessen wäre mal interessant.
 
Ich glaub da ist bei seinen Messungen was schief gelaufen. Das ist zu viel Input Lag für 165Hz Monitor mit 1000 Hz Maus.
Ich glaub ich messe es mal bei meinem Rechner.

Das deckt sich mit meiner Erfahrung.
Hab damals mal den Input Lag selbst gemessen.
Bei Natural Selection 2 mit 120 fps, 144 Hz Monitor (LG 24GM77) und ner Logitech G500 auf 1000Hz war ich unter 30ms
Kamera hatte 480 fps

Edit:
Hab noch nen anderes Video von CS:Go gefunden, bei dem das Spiel sogar nur auf 60fps lief.
Trotzdem war der Input Lag zwischen 8 und 12 frames (der 480 fps Kamera). Entspricht im Mittel dann ca 21ms.
Video ist in ner zip im Anhang (mov wird nicht unterstützt)
Anhang anzeigen 144hz.zip
 
Zuletzt bearbeitet:
Wenn man sich mal die gestarteten Dienste von Windows anschaut, ist es doch ganz klar. Zig oder hundert aktive Prozesse sind normal bei Windows.
 
Da sagt der Taskmgr aber auch etwas anderes.
Ah ja, was sagt denn dein Task-Manager? Meiner gibt das wieder was ich hier gesagt habe. Nennenswert CPU Zeit beanspruchen nur Prozesse von Anwendungen, die auch tatsächlich genutzt werden. Chrome oder Steam zum Beispiel. Der Rest ist entweder komplett bei null oder minimal darüber.
 
Hm, kein DOS Rechner in der Liste. Wär interessant zu wissen, wie viel Input Lag durch Dosbox erzeugt wird.
Das Problem bei modernen Systemen ist sicher auch, dass zuviel Kram im Hintergrund läuft.
 
Vielleicht mal wieder Zeit Windows abspecken, sowie damals bei WinXP mit nLite. Oder Windows könnte noch eine "Gaming Edition" herausbringen, wo alles auf eine möglichst niedrige Latenz ausgelegt ist.
 
Spielt nicht auch die extremen Stromsparmechanismen eine Rolle? Es wird hier teilweise gesagt, dass so viele Prozesse im Hintergrund laufen, aber die liegen doch eher nur rum und lassen die CPU aufs Minimum runtertakten, dieses Runtertakten gab es doch so damals gar nicht, oder? Da lag immer "volle Power" an, auch wenn im Vergleich zu heute lächerlich waren aber im Vergleich zur Forderung extrem viele Ressourcen frei.
 
Vielleicht mal wieder Zeit Windows abspecken, sowie damals bei WinXP mit nLite. Oder Windows könnte noch eine "Gaming Edition" herausbringen, wo alles auf eine möglichst niedrige Latenz ausgelegt ist.
Wenn Windows nicht gerade mit zig Tools und Software zugemüllt und dazu noch der Autostart brechend voll ist, ist Windows nicht die Ursache! Erst recht nicht, wenn es auf einer SSD installiert wurde.
 
Spielt nicht auch die extremen Stromsparmechanismen eine Rolle? Es wird hier teilweise gesagt, dass so viele Prozesse im Hintergrund laufen, aber die liegen doch eher nur rum und lassen die CPU aufs Minimum runtertakten, dieses Runtertakten gab es doch so damals gar nicht, oder? Da lag immer "volle Power" an, auch wenn im Vergleich zu heute lächerlich waren aber im Vergleich zur Forderung extrem viele Ressourcen frei.

Bestimmt; so steht hier Low Latency Audio | Microsoft Docs in den FAQs, dass niedrige Latenz einen höheren Stromverbrauch nach sich zieht.

Wenigstens nennt PCGH explizit die "Input-Latenz". Auf Golem.de heißt es "System-Latenz" - so als gäbe es nur eine Art von Latenz am PC.
 
Zurück