News Redfall: PC-Version "inakzeptabel schlecht"

Wir wollten es auf der XSX (dank GPU "kostenlos") im Coop spielen, Kumpel hatte es nen Tag vorher angetestet und sein Kommentar war: "Machen wir nach dem ersten großen Patch"

Siehe letzten Halo Teil da wurde ein Coop Modus beworben und am Ende komplett gestrichen.
Erster Halo Teil ohne CooP Modus.

Sowas find ich schlimmm, weil ein Produkt mit einem Feature verkauft wurde was letzlich nicht geliefert wurde.
 
So, hab jetzt mit nem Kollegen die Story durch. Hat ca. 14Std gedauert. Mein Kollege will unbedingt nochmal einen Durchgang auf dem neuen Schwierigkeitsgrad machen, ich bin da noch nicht so begeistert von. :lol:

Aber der eine Durchgang hat im Koop schon Spaß gemacht.
 
Was mich bei einigen Spielen immer nervt ist, wenn Bewegungsunschärfe keine eigenständige Option, sondern Teil der Option "Post-Processing" ist. Gibt viele, welche Motion Blur nicht ausstehen können, deshalb ist dies besonders dumm.
 
Wenigstens gibt es Redfall als Beigabe zu den leistungsstarken RTX Karten.
Auf AMD Karten ist es vermutlich eine Dia Show.
 
Wenigstens gibt es Redfall als Beigabe zu den leistungsstarken RTX Karten.
Auf AMD Karten ist es vermutlich eine Dia Show.
Das Problem liegt nicht an den GPUs, sondern an der CPU, welche nicht richtig genutzt wird.
Aber mit den RTX4000er Karten wo es beiliegt, kann mann DLSS-FG aktivieren, welche die FPS beinahe verdoppeln ohne die CPU zusätzlich zu belasten. :fresse:
Wenn man dann noch ein FPS Limit z.b. 60 oder 90 FPS via Nvidia Systemsteuerung einstellt, dann ist es butterweich...bis auf den paar großen Laderucklern... Mit guter CPU geht auch 120FPS.

Und was die Latenz angeht, ich habe das Spiel nicht einmal ohne DLSS-FG gespielt und habe nicht einmal gemerkt ob das Spiel träge ist oder so. Mich würde Ruckeln eher stören in Shootern. :D
 
Dieses Spiel ist leider einer der perfekten Kandidatan für DLSS-FG...
Mit FG kann man in 120FPS sehr flüssig spielen ohne große Ruckler.

Natürlich kann es nicht Sinn der Sache sein, das DLSS-FG die fehlende Optimierung gerade biegen muss, vorallem wenn nur ein Bruchteil der Karten DLSS-FG unterstützt.

Aber so dumm es klingt, das ist ein Argument FÜR DLSS-FG, welches auch bei schlechten Launches Spiele gut spielbar machen...
Bei Jedi Survivor hätte es genauso gut geholfen...
Dummerweise merkt man die Spikes trotzdem noch - nicht bei der Framerate, aber bei der Latenz. Die spiked dann nämlich auch.

Ist leider kein Allheilmittel. Kann Performance-Murcks ein bisschen überdecken, aber halt auch nicht komplett eliminieren.

Kann man z.B. hier sehen. Die roten Ausreißer sind Latenz-Spikes, die durch kurzfristiges CPU-Limit bei Nachladen/Streamen/Gegnerspawn entstehen.

(aus dem aktuellen Heft bzw. Plus-Artikel)


Disclaimer: Das merkt natürlich nicht jeder. Aber das Problem bei Frametime-Spikes (auch, wenn die KI die etwas ausbügelt): Man kann sie nicht nur sehen, sondern auch fühlen. Kommt halt darauf an, wie sehr. Ich merke die da unten zum Beispiel. Aber ich bin da vielleicht auch ein bisschen Mimöschen (wenn auch sicherlich weniger als so mancher blutjunger E-Sport-Athlet. ;) )

1683537870708.png


Was mich bei einigen Spielen immer nervt ist, wenn Bewegungsunschärfe keine eigenständige Option, sondern Teil der Option "Post-Processing" ist. Gibt viele, welche Motion Blur nicht ausstehen können, deshalb ist dies besonders dumm.

Müsste eigentlich bei der UE4 per Config-File gehen. Genaueres hab ich da aber spezifisch nicht ausprobiert, kann also nichts Genaueres dazu sagen. Aber eventuell funktioniert das hier (GameUserSettings):

[SystemSettings]
r.MotionBlur.Max=0
r.MotionBlurQuality=0
r.DefaultFeature.MotionBlur=0

Kann ich allerdings nicht garantieren, bei machnen UE4-Titeln (insbesondere MP) ist das gelockt und man muss es erst mit Tools/Cheats freihacken. Geht wahrscheinlich auch, aber mühselig.

Gruß,
Phil
 
Zuletzt bearbeitet:
markiert jetzt auch nur noch den bisherigen tiefpunkt einer langen entwicklung, die wir uns schon anschauen.
 
Dummerweise merkt man die Spikes trotzdem noch - nicht bei der Framerate, aber bei der Latenz. Die spiked dann nämlich auch.

Ist leider kein Allheilmittel. Kann Performance-Murcks ein bisschen überdecken, aber halt auch nicht komplett eliminieren.

Kann man z.B. hier sehen. Die roten Ausreißer sind Latenz-Spikes, die durch kurzfristiges CPU-Limit bei Nachladen/Streamen/Gegnerspawn entstehen.
Ist das mal mit einem FPS Limit getestet worden? Wen jetzt CPU oder GPU nicht mehr am Limit sind, sondern noch Luft haben.
 
Ist das mal mit einem FPS Limit getestet worden? Wen jetzt CPU oder GPU nicht mehr am Limit sind, sondern noch Luft haben.
Naja das hilft nur bei einem durch die GPU provozierten CPU limit. (Also wenn du sehr viele FPS hast und dadurch ins CPU limit kommst).
Bei den klassikern wie Streaming, Draw Call Massaker durch viel Geometrie , und Shader Compiling hilft ein FPS limit leider nicht.

Redfall z.b auf meinem 5600X ist mit FG zwar sonst flüssiger, wenn aber die CPU zum flaschenhals wird ist durch die zusätzliche Latenz von FG es schlimmer als ohne.

Kurz in Zahlen ohne FG im GPU limti ca 80 FPS
mit 135 oder so. Sieht besser aus Spielt sich aber nicht smoother.
im CPU limit bei kurzen 30-45 FPS wirkt es mit FG noch viel träger als Ohne.

FG im CPU limit ist nach meiner Erfahrung bis jetzt völlig sinnlos.
 
Kurz in Zahlen ohne FG im GPU limti ca 80 FPS
mit 135 oder so. Sieht besser aus Spielt sich aber nicht smoother.
im CPU limit bei kurzen 30-45 FPS wirkt es mit FG noch viel träger als Ohne.

FG im CPU limit ist nach meiner Erfahrung bis jetzt völlig sinnlos.
Aber wenn man ein FPS Limit von 120 oder 90 hat, dann würde die CPU bei ca 60 bzw 45FPS intern laufen.
Wenn deine CPU dann 80 FPS kann, hast du 20 bzw 35FPS "Luft". Also in Zeiten wo die CPU kurz mehr belastet wird, geht die FPS nicht runter. Oder irre ich mich da?

Ich meinte auch nicht, das mal FG mit einem I3-12100 oder so nutzen sollte...

Um es nochmal zu veranschaulichen, was ich meinte:
CPU ohne FG läuft bei 70-80FPS. CPU MIt FG läuft bei sagen wir 130-140FPS.
Dann setzt man ein 120FPS Limit und die CPU läuft dann nicht mehr am Limit. Dadurch sollten Spikes doch geglättet werden.
Erreicht die CPU keine 60FPS sondern ~50, müsste man das Limit runterschrauben z.b. auf 90.
Mit der CPU bei 30FPS sollte man aber abwägen, ob man FG überhaupt nutzt. Denn DANN kann die Latenz bemerkbar werden...
 
Aber wenn man ein FPS Limit von 120 oder 90 hat, dann würde die CPU bei ca 60 bzw 45FPS intern laufen.
Wenn deine CPU dann 80 FPS kann, hast du 20 bzw 35FPS "Luft". Also in Zeiten wo die CPU kurz mehr belastet wird, geht die FPS nicht runter. Oder irre ich mich da?

Ich meinte auch nicht, das mal FG mit einem I3-12100 oder so nutzen sollte...

Um es nochmal zu veranschaulichen, was ich meinte:
CPU ohne FG läuft bei 70-80FPS. CPU MIt FG läuft bei sagen wir 130-140FPS.
Dann setzt man ein 120FPS Limit und die CPU läuft dann nicht mehr am Limit. Dadurch sollten Spikes doch geglättet werden.
Erreicht die CPU keine 60FPS sondern ~50, müsste man das Limit runterschrauben z.b. auf 90.
Mit der CPU bei 30FPS sollte man aber abwägen, ob man FG überhaupt nutzt. Denn DANN kann die Latenz bemerkbar werden...
Ist halt wie gesagt eine frage der art des CPU limits. Und ob wir von Max FPS reden oder von 0.2% lows.

bei deiner Methode habe ich dann halt keine Schwankungen zwischen 140 und 120 FPS mehr weil ich ja auch 120 FPS glätte das kann sich runder anfühlen.
Gegen 0.2 Lows von sagen wir mal 60 FPS hilft das leider auch nicht.
 
Ich freue mich dass ich dieses Spiel nicht gekauft habe, denn bei diesen technischen Problemen vergeht mir jede Lust. Wenn sogar sehr aktuelle Top Prozessoren nicht mehr die optimale Darstellung schaffen, ist jede Investition in neue Spiele unnötig. Eine Wartezeit von 4 bis 6 Monaten für Patches ist, wie bei fast jedem Spiel, die beste Idee um ein funktionierendes Programm zu bekommen. Ich wünsche den frühen Käufern wie immer starke Nerven und viel Geduld, es kann nur besser werden.
 
Ist das mal mit einem FPS Limit getestet worden? Wen jetzt CPU oder GPU nicht mehr am Limit sind, sondern noch Luft haben.
Hab ich auch getestet, ja. Funktioniert (zumindest im Rahmen, aber damit kommt man tendenziell aus solchen Situationen). Und es ist auch generell nützlich, um z.B. die obere Aktualisierungsrate des Monitors nicht zu überschreiten und es senkt außerdem auch sonst die maximalen Latenzen.

Gruß,
Phil
 
Hab ich auch getestet, ja. Funktioniert (zumindest im Rahmen, aber damit kommt man tendenziell aus solchen Situationen). Und es ist auch generell nützlich, um z.B. die obere Aktualisierungsrate des Monitors nicht zu überschreiten und es senkt außerdem auch sonst die maximalen Latenzen.

Gruß,
Phil
Ich hatte im Kopf das man so ca 2 FPS unter der Maximal Hertzahl seinen Monitors bleiben soll für die Besten Latenz mit G-Sync (vermutlich auch Freesync).
Aber sobald man im Treiber den Sync modus auf enhanced stellt ist das doch so oder so gegeben (bei Nvidia) jedenfalls.
 
Zurück