Ich kann ebenfalls bestätigen, dass man bei manchen Spielen (z.B. Unreal Tournament 2003/2004) sogar einen Unterschied zwischen 60 und 85 Fps an der MAUS bemerkt. Ich betone nochmals man bemerkt es an der verzögerten Eingabe der Maus, das Bild ist aber bei 50-60 FPS jedoch absolut flüssig. Würde ich also die Szene mit 60 Fps oder mit 85+ Fps nur anschauen (nicht selbst steuern) wäre das Bild absolut gleich flüssig.
Wichtige Frage an die Experten hier im Forum bezüglich des Input-Lags: Wenn ich das richtig verstehe rechnen Dual-GPU-Lösungen (GTX690, SLI, Crossfire etc.) mindestens 2 Bilder im voraus per AFR-Technik. Bedeutet dies, dass z.B. 60 Fps auf einer GTX690 dieselbe Latenz haben wie 30 Fps auf einer GTX 680? Wenn ja, bräuchte man ja 120 FPS auf Multi-GPUs um dasselbe Spielerlebnis zu erreichen wie auf einer einzelnen GPU bei 60 FPS- damit wären Multi-GPU-Lösungen zum AKTIV spielen ja ziemlich nutzlos oder?
Zum Thema Motion Blur in Spielen: Ich schalte wenn möglich diesen Effekt immer ab. Bei Unreal Tournament III bin ich über Wochen an der Schlierenbildung verzweifelt, weil ich dachte die Reaktionzeit meines Monitors wäre zu hoch. Schließlich entdeckte ich den Punkt Motion Blur in den Grafiksettings und siehe da, alle Schlieren weg, der Effekt macht auf Dauer Seekrank
Desweiteren frisst Motion Blur eine Menge Leistung, schaltet mal bei Crysis (Warhead) MotionBlur ab im Menue oder pere Konsolenbefehl ("Motionblur 0"), ich habe im Benchmark 20-30% mehr FPS. Ich kann echt nicht nachvollziehen weshalb wir alle Monitore mit niedrigen Latenzzeiten kaufen, um dann die Schlieren per Grafikkarte auf Kosten der Leistung wieder einzufügen. Motion Blur ist auch absolut NICHT realistisch wie weiter oben schon von anderen erläutert, man kann nämlich z. B. bei Crysis keinen Punkt mehr fixieren, geschweige denn irgendetwas klar sehen.