Naja.. Optimierungen täten der Unreal Universal Engine schon ganz gut..
Man fragt sich doch schon teilweise wo der Hardware Hunger gegenüber der Optik eines Spieles her kommt.
Je nach Spiel hat man schon die Zweifel ob die Optik den massiven Hardware Hunger rechtfertigt.. der oft nur durch massives upscaling und Framegen ausgeglichen werden kann.
So das selbst highend Karten im Bereich rtx4080+ ihre Probleme bekommen flüssige 60fps darzustellen.
Nicht umsonst stellt sich in den letzten Publikationen immer mehr die Frage nach optimisierung und ob die Entwickler ihre Faulheit einfach mit Upscaling und Co ausgleichen.
Auch RT sehe ich eher kritisch.. da sich viele (wenn auch nicht alle)Effekte optisch kaum von guten Raster effekten unterscheiden.. aber bedeutend mehr Ressourcen fressen..
Da wünsche ich mir schon teilweise eine Differenzierung nach Sinn und Ressourcen Verbrauch anstatt stures RT weil man es kann.. vor allem wenn es optisch nur am FPS-Tacho einen Unterschied macht
UE5 nutzt eben mit Lumen und Nanite zwei sehr performanceintensive Features.
Der Vorteil von Lumen bzw. RT ist eben, dass alles dynamisch berechnet wird. Das ermöglicht völlig neue Spiele.
Bei rasterized Lighting ist die Beleuchtung komplett statisch und wird mit einer Lightmap per offline Render erzeugt und dann ins Spiel gebracht. Das ermöglicht realistische globale Beleuchtung, hat aber den großen Nachteil, dass so eine Lightmap sehr ungenau ist und nicht jeden Stein und jedes Objekt erfassen kann (falls doch würde es unmengen an VRAM brauchen) und wenn man die Tageszeit im Spiel ändert, müssen für jede Lichtstimmung neue Lightmaps erzeugt werden und überblendet werden. Außerdem dürfen die Entwickler keine Objekte mehr in der Spielwelt bewegen, sobald die Lightmaps einmal generiert wurden, da sonst Beleuchtung und Schatten nicht mehr zu den objekten passen. Interaktive Physik und Zerstörung will man dann natürlich auch vermeiden, um eben falsche Beleuchtung zu vermeiden. Zumal es hässlich aussieht, wenn dynamische Objekte nicht mit der Globalen Beleuchtung interagieren und wie ein Fremdkörper wirken.
Das ganze Rasterized Lighting ist ein elendig großes Gebilde aus aufwändigen Tricksereien, die Entwickler und Spieler limitieren. Verzichtet man auf einige der Tricks leidet sofort die Optik massiv.
RT hebt all diese Limitierungen auf, weil letztendlich das Licht live am Rechner in Echtzeit simuliert wird. Vergleicht man jetzt ein rasterized Game und ersetzt das rasterized Lighting durch RT wird sich optisch erstmal nicht allzu viel ändern, weil die Entwickler sich immer einen RT oder gar Pathtraced Render als Vorlage nehmen und die Rasterversion dann so bauen, dass es möglichst ähnlich aussieht. Aber sobald man Spiele von Grund auf mit RT entwickelt, ergeben sich ganz neue Möglichkeiten und Freiheiten. Alleine schon sowas wie das Öffnen einer Türe um dann zu sehen, wie das Licht von draußen den ganzen Raum flutet und indirekt ausleuchtet - ohne RT ist das gar nicht möglich oder müsste in extrem aufwändiger Kleinarbeit gebaut und gescriptet werden.
Rastergrafik ist einfach ne Sackgasse.
Ich denke der Hybrid RT ansatz der aktuell gefahren wird ist extrem sinnvoll, weil er endlich viele Limitierungen und Probleme auflöst und erlaubt den Realismus weiter zu erhöhen.
Pathtracing wäre dann der letzte Schritt, wenn mal genug Leistung dafür da ist, halte ich aber aktuell für verschwendete Performance. Lumen mit Hardwarebeschleunigung sieht jetzt schon meist besser aus, als das Pathtracing in Cyberpunk, einfach weil Lumen besser optimiert ist und effektiver mit den Ressourcen umgeht, während Pathtracing selbst mit jüngsten Optimierungen mehr einem Bruteforce Ansatz gleicht und auch die Bildqualität bzw. Bildschärfe in mitleidenschaft gezogen wird, da starkes denoising genutzt werden muss DLSS Ray Reconstruction macht zwar mittlerweile einen sehr guten Job, aber wenn man sich dann mal ein reines Rasterized Game wie z.B. God of War anschaut, dann sieht man erst wie viel schärfer die Grafik ohne PT sein kann.. Auch Black Myth Wukong büßt massivst Bildschärfe durch das aktivieren von "Full RT" ein, aber das hat noch kein RR. Es zeigt aber das Problem.
Zudem sieht man ja auch, dass die Performance der UE5 weiter optimiert wird. Die Anforderungen steigen also nicht unbedingt, sondern reduzieren sich oder stagnieren schlimmstenfalls.
Ich denke daher wer aktuell ne GPU auf dem level einer 4070 für 1440p oder 4080 für 4K hat, der wird mit etwas Upscaling und FG sicher die UE5 games der nächsten 3-4 Jahre problemlos und mit ordentlichen Frameraten spielen können. Alle anderen müssen dann eben Settings reduzieren oder mehr Upscaling nutzen. Wird ja auf Konsole auch gemacht.