News Unreal Engine 5.4: Demo zeigt 40 Prozent bessere CPU-Performance als mit UE 5.0

PCGH-Redaktion

Kommentar-System
Teammitglied
Durch die Unreal Engine 5.4 zeigt die Techdemo The Matrix Awakens eine massive Verbesserung in der CPU-Performance. Aber auch bei der Grafikkartenleistung darf man sich freuen.

Was sagt die PCGH-X-Community zu Unreal Engine 5.4: Demo zeigt 40 Prozent bessere CPU-Performance als mit UE 5.0

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Schön und gut. Aber bei meinem Standard 8 Kerner war nie die CPU in der Bringschuld. Es war eigentlich immer die Heftige Grafiklast der Spiele. Wenn sich dort ein wenig Fortschritt zeigt wäre es gut.
 
Wie kommst du darauf dass es um die CPU geht?
Die höhere Leistung wird hauptsächlich durch eine bessere Nutzung/Auslastung der GPU erzeugt (erkennbar an höherer Leistungsaufnahme der GPU bei gleicher Szene und gleichem Takt).
Ich vermute, er bezieht sich auf die Überschrift

"Demo zeigt 40 Prozent bessere CPU-Performance als mit UE 5.0"​

 
Ok, hab ich gar nicht gesehen, ich bin instant aufs Video gesprungen :ugly:

Naja, offenbar hat die neue Version Vorteile in der Ausnutzung von CPU und GPU, wobei ich rein von den Videos den Vorteil eher auf der Grafikkartenseite gesehen hätte.
 
Ich finde schon länger das UE 5 zu Leistungshungrig ist für das, was dann tatsächlich auf dem Bildschirm rumkommt.
Ich glaube mal, was gelesen zu haben das dieses Lumina viel Leistung benötigt, kenne mich dann aber doch zu wenig aus in der Materie. Remnant 2 ein UE 5 Titel ist ohne DLSS fast nicht Spielbar in manchen Situationen.
 
Wie kommst du darauf dass es um die CPU geht?
Die höhere Leistung wird hauptsächlich durch eine bessere Nutzung/Auslastung der GPU erzeugt (erkennbar an höherer Leistungsaufnahme der GPU bei gleicher Szene und gleichem Takt).

Die höhere Auslastung der GPU ist die folge eines reduzierten CPU-Limits.

Praktisch geht die GPU Last immer automatisch auf 100%, wenn keine andere Komponente im System oder ein FPS Limit bremst.
Ist die GPU-last unter 99% limitiert folglich die CPU bzw. etwas was mit der CPU zu tun hat (kann auch I/O oder RAM sein)

Außerdem kann man es gegenprüfen, wenn man mit einer schnelleren CPU testet und dann die performance steigt oder aber wenn man die Auflösung reduziert und die performance nicht steigt. In beiden Fällen bestätigt sich damit das CPU Limit.

In wahrscheinlich 99% der Fälle kann man davon ausgehen, dass ein CPU Limit vorherrscht, wenn die GPU-Last <99% ist. Das ist ein sehr zuverlässiger Indikator.
 
Naja.. Optimierungen täten der Unreal Universal Engine schon ganz gut..
Man fragt sich doch schon teilweise wo der Hardware Hunger gegenüber der Optik eines Spieles her kommt.
Je nach Spiel hat man schon die Zweifel ob die Optik den massiven Hardware Hunger rechtfertigt.. der oft nur durch massives upscaling und Framegen ausgeglichen werden kann.
So das selbst highend Karten im Bereich rtx4080+ ihre Probleme bekommen flüssige 60fps darzustellen.

Nicht umsonst stellt sich in den letzten Publikationen immer mehr die Frage nach optimisierung und ob die Entwickler ihre Faulheit einfach mit Upscaling und Co ausgleichen.

Auch RT sehe ich eher kritisch.. da sich viele (wenn auch nicht alle)Effekte optisch kaum von guten Raster effekten unterscheiden.. aber bedeutend mehr Ressourcen fressen..
Da wünsche ich mir schon teilweise eine Differenzierung nach Sinn und Ressourcen Verbrauch anstatt stures RT weil man es kann.. vor allem wenn es optisch nur am FPS-Tacho einen Unterschied macht
 
Zuletzt bearbeitet:
Für alle die Bock auf Lesen haben:

Der Kanalbetreiber hat in seinen comments einen Zusammenfassung seiner Benchmarks gepostet:

A few important notes:

1. Both builds were compiled using the default settings without any custom optimizations. The only exception is that UE 5.4 build has a custom UI for graphics settings and DLSS support. Both builds are using Hardware Lumen as well.

2. CPU performance is the biggest improvement in UE 5.4. In my case it's not just "15 more FPS", but rather an impressive up to 40% CPU performance boost depending on a scene, which is a lot and very welcome.

3. GPU performance is also improved, but to be fare, measuring GPU performance difference is not 1:1 accurate because UE 5.4 has a lot of new features and the existing ones were also improved. For example, UE 5.0 build does not have a proper support for Virtual Shadow Maps, it does not support the "Hit Lighting" feature for Hardware Lumen (UE 5.4 feature only) and the overall quality of Lumen GI is worse in UE 5.0. However, even with new features enabled, UE 5.4 still runs faster than UE 5.0 (up to 20% better GPU performance).

4. Shader compilation:
- UE 5.0 build does not have any shader pre-compilation steps, it compiles shaders during gameplay and the demo will stutter like crazy for the first ~10 minutes.
- UE 5.4 build handles shader compilation very differently: it does have a short shader pre-compilation step, which compile only a small portion of shaders, while the rest of the shaders are compiled during gameplay using different method: it doesn't compile them all the time until all shaders were compiled, but rather compile them in chunks when traversing through the game world, which helps to avoid shader compilation stutter, but it will drop the framerate for a few seconds (depending on how fast your CPU is) when you reach a certain points in the game world.
- The new shader compilation method is supported in Unreal Engine 5.3 and above, but the developers also have an option to implement a classic shader pre-compilation process, where all shaders are compiled before gameplay.

Viel Spaß beim Lesen.
 
Für alle die Bock auf Lesen haben:

Der Kanalbetreiber hat in seinen comments einen Zusammenfassung seiner Benchmarks gepostet:

A few important notes:

1. Both builds were compiled using the default settings without any custom optimizations. The only exception is that UE 5.4 build has a custom UI for graphics settings and DLSS support. Both builds are using Hardware Lumen as well.

2. CPU performance is the biggest improvement in UE 5.4. In my case it's not just "15 more FPS", but rather an impressive up to 40% CPU performance boost depending on a scene, which is a lot and very welcome.

3. GPU performance is also improved, but to be fare, measuring GPU performance difference is not 1:1 accurate because UE 5.4 has a lot of new features and the existing ones were also improved. For example, UE 5.0 build does not have a proper support for Virtual Shadow Maps, it does not support the "Hit Lighting" feature for Hardware Lumen (UE 5.4 feature only) and the overall quality of Lumen GI is worse in UE 5.0. However, even with new features enabled, UE 5.4 still runs faster than UE 5.0 (up to 20% better GPU performance).

4. Shader compilation:
- UE 5.0 build does not have any shader pre-compilation steps, it compiles shaders during gameplay and the demo will stutter like crazy for the first ~10 minutes.
- UE 5.4 build handles shader compilation very differently: it does have a short shader pre-compilation step, which compile only a small portion of shaders, while the rest of the shaders are compiled during gameplay using different method: it doesn't compile them all the time until all shaders were compiled, but rather compile them in chunks when traversing through the game world, which helps to avoid shader compilation stutter, but it will drop the framerate for a few seconds (depending on how fast your CPU is) when you reach a certain points in the game world.
- The new shader compilation method is supported in Unreal Engine 5.3 and above, but the developers also have an option to implement a classic shader pre-compilation process, where all shaders are compiled before gameplay.

Viel Spaß beim Lesen.
Interessant, aber da bleibe ich dann doch lieber bei der classic shader pre-compilation.
 
Wie kommst du darauf dass es um die CPU geht?
Wegen der Überschrift... Aber generell scheint es einfach nur effizientere GPU Nutzung (faster draw calling etc) zu sein.
Damit landet halt alles schneller bei der GPU, diese wird offenbar auch besser ausgenutzt.

Ich hoffe auf ein baldiges Upgrade von Stalker 2& SDK, das die Änderungen übernimmt
 
Naja.. Optimierungen täten der Unreal Universal Engine schon ganz gut..
Man fragt sich doch schon teilweise wo der Hardware Hunger gegenüber der Optik eines Spieles her kommt.
Je nach Spiel hat man schon die Zweifel ob die Optik den massiven Hardware Hunger rechtfertigt.. der oft nur durch massives upscaling und Framegen ausgeglichen werden kann.
So das selbst highend Karten im Bereich rtx4080+ ihre Probleme bekommen flüssige 60fps darzustellen.

Nicht umsonst stellt sich in den letzten Publikationen immer mehr die Frage nach optimisierung und ob die Entwickler ihre Faulheit einfach mit Upscaling und Co ausgleichen.

Auch RT sehe ich eher kritisch.. da sich viele (wenn auch nicht alle)Effekte optisch kaum von guten Raster effekten unterscheiden.. aber bedeutend mehr Ressourcen fressen..
Da wünsche ich mir schon teilweise eine Differenzierung nach Sinn und Ressourcen Verbrauch anstatt stures RT weil man es kann.. vor allem wenn es optisch nur am FPS-Tacho einen Unterschied macht

UE5 nutzt eben mit Lumen und Nanite zwei sehr performanceintensive Features.

Der Vorteil von Lumen bzw. RT ist eben, dass alles dynamisch berechnet wird. Das ermöglicht völlig neue Spiele.

Bei rasterized Lighting ist die Beleuchtung komplett statisch und wird mit einer Lightmap per offline Render erzeugt und dann ins Spiel gebracht. Das ermöglicht realistische globale Beleuchtung, hat aber den großen Nachteil, dass so eine Lightmap sehr ungenau ist und nicht jeden Stein und jedes Objekt erfassen kann (falls doch würde es unmengen an VRAM brauchen) und wenn man die Tageszeit im Spiel ändert, müssen für jede Lichtstimmung neue Lightmaps erzeugt werden und überblendet werden. Außerdem dürfen die Entwickler keine Objekte mehr in der Spielwelt bewegen, sobald die Lightmaps einmal generiert wurden, da sonst Beleuchtung und Schatten nicht mehr zu den objekten passen. Interaktive Physik und Zerstörung will man dann natürlich auch vermeiden, um eben falsche Beleuchtung zu vermeiden. Zumal es hässlich aussieht, wenn dynamische Objekte nicht mit der Globalen Beleuchtung interagieren und wie ein Fremdkörper wirken.

Das ganze Rasterized Lighting ist ein elendig großes Gebilde aus aufwändigen Tricksereien, die Entwickler und Spieler limitieren. Verzichtet man auf einige der Tricks leidet sofort die Optik massiv.

RT hebt all diese Limitierungen auf, weil letztendlich das Licht live am Rechner in Echtzeit simuliert wird. Vergleicht man jetzt ein rasterized Game und ersetzt das rasterized Lighting durch RT wird sich optisch erstmal nicht allzu viel ändern, weil die Entwickler sich immer einen RT oder gar Pathtraced Render als Vorlage nehmen und die Rasterversion dann so bauen, dass es möglichst ähnlich aussieht. Aber sobald man Spiele von Grund auf mit RT entwickelt, ergeben sich ganz neue Möglichkeiten und Freiheiten. Alleine schon sowas wie das Öffnen einer Türe um dann zu sehen, wie das Licht von draußen den ganzen Raum flutet und indirekt ausleuchtet - ohne RT ist das gar nicht möglich oder müsste in extrem aufwändiger Kleinarbeit gebaut und gescriptet werden.

Rastergrafik ist einfach ne Sackgasse.

Ich denke der Hybrid RT ansatz der aktuell gefahren wird ist extrem sinnvoll, weil er endlich viele Limitierungen und Probleme auflöst und erlaubt den Realismus weiter zu erhöhen.

Pathtracing wäre dann der letzte Schritt, wenn mal genug Leistung dafür da ist, halte ich aber aktuell für verschwendete Performance. Lumen mit Hardwarebeschleunigung sieht jetzt schon meist besser aus, als das Pathtracing in Cyberpunk, einfach weil Lumen besser optimiert ist und effektiver mit den Ressourcen umgeht, während Pathtracing selbst mit jüngsten Optimierungen mehr einem Bruteforce Ansatz gleicht und auch die Bildqualität bzw. Bildschärfe in mitleidenschaft gezogen wird, da starkes denoising genutzt werden muss DLSS Ray Reconstruction macht zwar mittlerweile einen sehr guten Job, aber wenn man sich dann mal ein reines Rasterized Game wie z.B. God of War anschaut, dann sieht man erst wie viel schärfer die Grafik ohne PT sein kann.. Auch Black Myth Wukong büßt massivst Bildschärfe durch das aktivieren von "Full RT" ein, aber das hat noch kein RR. Es zeigt aber das Problem.

Zudem sieht man ja auch, dass die Performance der UE5 weiter optimiert wird. Die Anforderungen steigen also nicht unbedingt, sondern reduzieren sich oder stagnieren schlimmstenfalls.

Ich denke daher wer aktuell ne GPU auf dem level einer 4070 für 1440p oder 4080 für 4K hat, der wird mit etwas Upscaling und FG sicher die UE5 games der nächsten 3-4 Jahre problemlos und mit ordentlichen Frameraten spielen können. Alle anderen müssen dann eben Settings reduzieren oder mehr Upscaling nutzen. Wird ja auf Konsole auch gemacht.
 
Wie kommst du darauf dass es um die CPU geht?
Die höhere Leistung wird hauptsächlich durch eine bessere Nutzung/Auslastung der GPU erzeugt (erkennbar an höherer Leistungsaufnahme der GPU bei gleicher Szene und gleichem Takt).
Die spielt da schon eine gewisse Rolle. Aber vielleicht eher in dem Sinn, was sie gleichzeitig handeln kann. Es gibt da - bzw. teils gab es - eher verwaltungstechnische Umstände, die das Ganze ausgebremst haben. Dazu Sachen wie Streaming, Ressourcen-Handhabung und zum Teil Compiling zur Laufzeit, sich überschneidende (Nanite-)Instanzen, die Probleme gemacht haben... und das hat darüber hinaus auch das (insbesondere Hardware-)Raytracing beeinflusst.

Da haben sie über die letzten Versionen mehrere Flaschenhälse gelöst. Das löst Performance, vor allem verhindert es aber harte "Grenzen". Probleme, die verhindern, dass man die Features vernünftig nutzen kann. Wie bislang etwa Hardware-Lumen. Nanite mit voller Ausbaustufe ist auch so ein Problem.

Wenn man in der Dev-Guide ein paar Versionen zurückgeht, findet man ein paar solcher vorherige Engstellen. Das kann man dann etwa mit der 5.5 vergleichen.

Wenn du hier z.B. runterscrollst... (und Versionen vergleichst)
https://dev.epicgames.com/documenta...ine/lumen-performance-guide-for-unreal-engine


Gruß,
Phil
 
Zuletzt bearbeitet:
Es ist nunmal sehr kompliziert, auf mehrere Kerne zu verteilen... simpel erklärt: ein if - then ist am einfachen auf einem Kern... wenn "if" erst auf einem anderen Kern berechnet werden muss, wird "then" auf dieses Ergebnis warten
- jetzt ist aber so, dass zu viel berechnet werden muss, das warten auf "if" Ergebnis auf einem Kern länger dauert, als das Ergebnis aus einem anderen zu fischen...
EXTREM schwierig zu optimieren, was schneller ist... Wo was berechnet wird, ohne das alles auf ein Ergebnis warten muss...

Geht X NPC nach links oder rechts, wird das andere NPSs beeinflussen... diese Beeinflussung kann aber erst berechnet werden wenn sich X NPC entschieden hat.

Deswegen kann auch DOOM mit 500 fps laufen - da werden Gegner einfach Gespawned, haben kein "Leben" das hunderte andere beeinflussen kann, und das erst berechnet werden muss.
Jede einzelne Entscheidung muss auch gespeichert und ausgelesen werden...
Butterfly Effekt... ein nach Links abbiegen von einem NPC kann eine Schlägerei im Dorf auslösen, weil das viele andere Konsequenzen nach sich zog...

Um zum Punkt zu kommen: wir haben ein CPU Bottleneck weil die RTX 4090 GPU warten muss, wie sich X NPC entscheidet, um dann das Bild zu rendern.

Eine RTX 4050 kommt im gleichen Szenario mit dem Rendern nicht hinterher -> GPU bottleneck

Ein Tool das anzeigt, wer auf wen warten muss...

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Remnant 2 ein UE 5 Titel ist ohne DLSS fast nicht Spielbar in manchen Situationen.
Remnant 2 nutzt kein Lumen sondern Nanite. Die beiden Techniken sind stets optional und keine Pflicht bei der UE5.

PCGH Andreas Link schrieb:
Die Unreal Engine 5.4 bietet nun nämlich zum Beispiel Unterstützung von Virtual Shadow Maps, Hit Lighting für Hardware-Lumen und mehr.
Da hat Herr Link mal wieder hervorragend recherchiert. Virtual Shadow Maps oder kurz VSM sind bereits seit Version 5.0 aus dem Jahre 2022 ein Feature der Unreal Engine ... :klatsch:
 
Mich graust es bei vielen Spielen aktuelle wenn da die UE zum Einsatz kommt. Ehrlich da gibt man teilweise so viel Geld für teure HW aus und bekommt dank der Ruckel Engine oft kein 100% flüssiges Spiel Erlebnis. Je nach Spiel kannst du manchmal auch mehre Minuten warten bis du Spielen kannst weil die Shader-Kompilierung noch nicht durch ist...

Ja schick kann sie aussehen aber da hört es auch irgendwie wieder auf.
 
Zurück