News Unreal Engine 5.4: Demo zeigt 40 Prozent bessere CPU-Performance als mit UE 5.0

dank der Ruckel Engine oft kein 100% flüssiges Spiel Erlebnis.
das war die 4.x ... die 5.x ruckelt bei mir nicht. Dank 4070Ti (non-S) kann ich in WQHD gut spielen.

die neue lastet alle Kerne meines 5900X aus beim Shaderkompilieren ... das geht irre schnell und der Frametime-Graph zeigt dann meist eine Linie ohne Spikes ... außer da läuft wieder haufenweise zeug im Hintergrund :).
 
das war die 4.x ... die 5.x ruckelt bei mir nicht.
Schau dir die Demo mal an der passenden Stelle an:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

...dann weißt du was gemeint ist. Diese Shaderruckler sind schon fast ein markenzeichen der UE5 geworden. Gut dass da mit der 5.4 wohl deutlich nachgebessert wurde.
 
Nach dem Update von UE 5.3 auf UE 5.4 haben sich viele über die deutlich schlechtere Performance beschwert.
 
Nach dem Update von UE 5.3 auf UE 5.4 haben sich viele über die deutlich schlechtere Performance beschwert.
Okay, und?
Du postest so völlig Kontextlos irgendwas negatives.
Warum hat sich die Performance verschlechtert?
Liegt das an der Engine oder sind die Entwickler zu unfähig?

Es ist nämlich nicht bei jedem so:
 
"Unreal Engine 5.4: Demo zeigt 40 Prozent bessere CPU-Performance als mit UE 5.0"

Also laut Video waren es ca. 10 % (40 vs. 44 FPS) bei 5.0 vs. 5.4.
40% sind/waren es inkl. DLSS ... :gruebel:
 
Okay, und?
Du postest so völlig Kontextlos irgendwas negatives.
Warum hat sich die Performance verschlechtert?
Liegt das an der Engine oder sind die Entwickler zu unfähig?

Es ist nämlich nicht bei jedem so:

Scheinbar hast du den Kontext noch erkannt, bravo.
 
Schau dir die Demo mal an der passenden Stelle an:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

...dann weißt du was gemeint ist. Diese Shaderruckler sind schon fast ein markenzeichen der UE5 geworden. Gut dass da mit der 5.4 wohl deutlich nachgebessert wurde.
Naja gut, ohne Shader Vorkompilierung würde nicht nur die UE an Stutter leiden, daher ist es so wichtig dass vor dem Spielstart Shader kompiliert werden.
Aber schön dass sich das mit 5.4 offenbar drastisch verbessert, ich habe mir schon Sorgen gemacht dass gerade künftige große UE5 Titel wie The Witcher 4 dadurch sehr leiden würden.
 
Sehe da bisschen bessere auslastung der CPU. Aber auch einige merkwürdigkeiten.

Das fängt bei dem Video Thumbnail an(im Video bei 3:29). Die viel zu krasse Spiegelung zeigt die Frau angestrahlt von der Sonne, obwohl sie garnicht von der Sonne angestrahlt wird.
Bei 3:16 wird sie bei beiden Versionen von der Sonne angstrahlt, bei 5.0 ist die Spiegelung aber falsch, weil da die Sonne fälschlicherweise von hinten strahlt. Irgendwas stimmt bei beiden nicht.

Bei dem Verbesserten Shader Cache sieht man es sehr gut im vergleich, das die Frau sehr viel dunkler ist bei den Haaren und am Rücken. Aber nicht nur sie sondern auch andere NPC´s , man kann kaum noch Details erkennen (zu starkes AO?).
Btw Shader Cache bei 5.4 verbraucht das game 2 Gb mehr Ram direkt am anfang. Ist das wirklich ein Engine ding oder nur eine "Game Optimierung"?

Bei 4:20 ist dieses starke, merkwürdige glitzern bei 5.0 sehr störend. Das hat sich mit 5.4 gebessert, dafür fehlt das "strahlen" bei den Lampen (was ich als schick empfinde) auch der Bloom bei den Wolkenkratzern ist irgendwie anders. Es sieht klarer aus, aber in den Punkten nicht besser. Es flackert bei 5.4(4:26)auch eine Textur? unter der Mülltonne und die vordere Bank wirkt komisch angestrahlt.

Bis auf die leicht verbesserte CPU auslastung , bin ich nicht sicher ob da sonst etwas besser wegen der Engine ist.
Aber immerhinn.
 
Bei rasterized Lighting ist die Beleuchtung komplett statisch und wird mit einer Lightmap per offline Render erzeugt und dann ins Spiel gebracht. Das ermöglicht realistische globale Beleuchtung, hat aber den großen Nachteil, dass so eine Lightmap sehr ungenau ist und nicht jeden Stein und jedes Objekt erfassen kann[...]
Die 90er haben angerufen und wollen ihre Beleuchtung zurück.
Pathtracing wäre dann der letzte Schritt, wenn mal genug Leistung dafür da ist, halte ich aber aktuell für verschwendete Performance. Lumen mit Hardwarebeschleunigung sieht jetzt schon meist besser aus, als das Pathtracing in Cyberpunk, einfach weil Lumen besser optimiert ist und effektiver mit den Ressourcen umgeht, während Pathtracing selbst mit jüngsten Optimierungen mehr einem Bruteforce Ansatz gleicht
Dir ist bewusst, dass Pathtracing eine Optimierung des klassischem Raytracings ist? Bei normalem RT wirfst du die Strahlen ohne große Logik in die Szene, bei PT machst du eine statistische Auswertung mit anschließender Fehlerkorrektur, welche Strahlen am Meisten zu einem Pixel beitragen. Viel mehr Berechnung aber viel, viel weniger Strahlen. Wenn dir Rechenzeit egal ist, sehen beide Verfahren irgendwann gleich aus.
 
Unreal in der fünften Version ist einfach Bloatware. Wenn Nanite bereits schon um die 5 ms Cpu Zeit braucht...
Und wenn ich es richtig verstanden habe kann man ab 5.4 die alte LOD nicht mehr verwenden. Und selbst mit Nanite gibt es Pop-ins, wie man immer wieder schön in Fortnight sehen kann.
Momentan Spiele ich Witchfire das noch auf der UE4 läuft und habe einfach mal die 4 fache Fps gegenüber jedem UE5 Titel. Und keine Pop-ins weil die Entwickler LOD im Griff haben.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Unreal in der fünften Version ist einfach Bloatware. Wenn Nanite bereits schon um die 5 ms Cpu Zeit braucht...
Der nächste, der einfach nur sein Narrativ bestätigt haben will und Dinge nicht kritisch hinterfragt.
Die benötigte Rechenzeit für Nanite ist fixed. Das heißt, dass es egal ist, wie komplex die Szene ist bzw. wie viele Objekte enthalten sind, sie steigt nicht weiter an. Ohne Nanite ist das aber der Fall.
Für komplexe Szenen ist Nanite das beste, was es aktuell gibt. Nanite outperformed hier alles, aber wenn sie eben nicht so komplex sind, dann wirkt sich Nanite negativ aus.

Der Typ aus dem Video wird von echten Entwicklern (er selbst ist keiner) übrigens im UE Forum zerrissen.
Seine Beispiele sind Realitätsfern und performen mit Nanite schlechter, weil er entweder das gleiche Mesh x mal dupliziert oder immer nur eine Hand voll nutzt. Logisch, dass Nanite dann schlechter abschneidet, aber er hat es, genau wie du nicht verstanden.

Hier der Thread und die Erklärung, wie Nanite funktioniert und wieso bzw. wann es besser ist:

tl;dr:
Nanite ist nicht die Allheilslösung für alles, aber für grafisch anspruchsvolle Spiele mit komplexen Szenen.
 
Der nächste, der einfach nur sein Narrativ bestätigt haben will und Dinge nicht kritisch hinterfragt.
Die benötigte Rechenzeit für Nanite ist fixed. Das heißt, dass es egal ist, wie komplex die Szene ist bzw. wie viele Objekte enthalten sind, sie steigt nicht weiter an. Ohne Nanite ist das aber der Fall.
Für komplexe Szenen ist Nanite das beste, was es aktuell gibt. Nanite outperformed hier alles, aber wenn sie eben nicht so komplex sind, dann wirkt sich Nanite negativ aus.

Der Typ aus dem Video wird von echten Entwicklern (er selbst ist keiner) übrigens im UE Forum zerrissen.
Seine Beispiele sind Realitätsfern und performen mit Nanite schlechter, weil er entweder das gleiche Mesh x mal dupliziert oder immer nur eine Hand voll nutzt. Logisch, dass Nanite dann schlechter abschneidet, aber er hat es, genau wie du nicht verstanden.

Hier der Thread und die Erklärung, wie Nanite funktioniert und wieso bzw. wann es besser ist:

tl;dr:
Nanite ist nicht die Allheilslösung für alles, aber für grafisch anspruchsvolle Spiele mit komplexen Szenen.
Das Video war nur ein Beispiel. Das Geflimmer ist doch schon eine Katastrophe, das wiederum von verschwommen TAA Versionen abgedeckt wird und dann wieder mit einem Schärfefilter versehen. Siehe Black Myth Wukong. Nicht umsonst kam auf Github gleich am ersten Tag eine Mod zum einstellen des Filters.

Das geht irgendwie alles in die falsche Richtung.
Wenn ich mit angepassten Einstellungen auf 1440p mit meiner 4080 bereits schon DLSS Q einschalten muß um dauerhaft 60 Bilder halten zu können läuft etwas schief.
 
Das Video war nur ein Beispiel. Das Geflimmer ist doch schon eine Katastrophe, das wiederum von verschwommen TAA Versionen abgedeckt wird und dann wieder mit einem Schärfefilter versehen. Siehe Black Myth Wukong. Nicht umsonst kam auf Github gleich am ersten Tag eine Mod zum einstellen des Filters.
Von was für einem Geflimmer redest du? Nanite sorgt nicht für flimmern. Du wirfst hier einiges durcheinander und redest wirr.

Das geht irgendwie alles in die falsche Richtung.
Nein, es geht in die richtige Richtung, nämlich vorwärts.

Wenn ich mit angepassten Einstellungen auf 1440p mit meiner 4080 bereits schon DLSS Q einschalten muß um dauerhaft 60 Bilder halten zu können läuft etwas schief.
Dann hast du vor 4-6 Jahren also gar nichts gespielt?
Denn mit einer 80er Karte konnte man vor noch gar nicht all zu langer Zeit von 60 FPS in WQHD mit max Settings nur träumen. RDR2 lief bspw. auf der 2080 TI mit unter 40 FPS in 1080p.

Also ich habe keine Ahnung an welche Erinnerungen du dich da klammerst, aber sie entsprechen nicht der Realität.
 
Legenden besagen, dass man die Grafik manuell anpassen kann. Dann gibt's auch mehr fps. Entweder wird gejammert, weil die Hardware zu langsam ist oder die Spiele die Hardware nicht auslasten. Ich persönlich finde die UE auch etwas overhyped und benötigt etwas Feinschliff.
 
@ElliotAlderson Du hast recht und ich meine Ruhe. Durch die Art wie du mich ansprichst, ist es es mir nicht Wert mich großartig zu Unterhalten.
Das gebe ich noch mit auf den Weg:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Für mich ist die Diskussion damit beendet.
 
Nanite ist recht "teuer" weil es Geometrie abhängig von der Displayauflösung berechnet. Dafür sind die Kosten aber fix, völlig egal wie komplex die Szene ist oder wie detailliert die Objekte sind. Es werden volldynamisch immer nur so viele dreiecke berechnet wie nötig, ohne dafür das komplette Asset zu laden. Zudem braucht es keine LoDs und damit gibt's auch keine LoD übergänge mehr. Nanite ermöglicht praktisch unlimitierte Details. Das ist neben Raytracing ebenfalls so eine "heiliger Grahl" den man schon seit ewigkeiten sucht.
Dass die Virtual Shadowmaps all diese feinen Details auch noch verschatten können, ohne dass die Shadowmaps den VRAM sprengen oder die performance unspielbar machen ist der nächste Meilenstein.


Der Punkt ist halt, dass durch die Tatsache, dass die Kosten für nanite fix sind die kosten mit steigender GPU leistung irgendwann gegen null gehen. Das ist langfristig auch der Clou an dem ganzen.

Der Bengel in dem Video hat nichts davon verstanden. Jeder weiß, dass man geometrie ohne Nanite schneller berechnen kann. Nanite wäre auf Hardware von vor 15-20 jahren schließlich nicht möglich gewesen. Aber das ist ja auch nicht das Ziel von Nanite. Nanite umgeht das Bottleneck auf das wir recht zeitnah stoßen werden und ist genauso wie Raytracing eine Schlüsseltechnologie für Games mit echter next-gen Grafik. Ohne diese Technologien wäre entsprechend bessere Grafik gar nicht denkbar, weil sie mit traditionellen Methoden noch SEHR viel mehr Ressourcen kosten würde.

Leider erwarten leute bei gut optimierten und effizienten Ansätzen (was bei Lumen und Nanite definitiv zutrifft) dass diese auch absolut gesehen besonders schnell laufen. Das eine hat aber mit dem anderen nichts zu tun.

Gute Optimierung muss nicht mit guter Performance einhergehen. Wenn ich morgen ein 100% fotorealistisches Spiel veröffentliche, das auf einer 4090 mit 20 FPS läuft, dann ist es sicher verdammt gut optimiert (weil es sonst eben sehr viel langsamer laufen würde), aber eben nicht performant im Sinne der Erwartungshaltung des Spielers.
 
Zuletzt bearbeitet:
Zurück