News Unreal Engine 5: Kein natives 4K mit ausreichender Performance aufgrund der Einschränkungen der Engine.

PCGH-Redaktion

Kommentar-System
Teammitglied
Wer Unreal Engine 5-basierte Spiele in 4K-Auflösung spielen will, muss auf Upscaling-Lösungen zurückgreifen, um eine vernünftige Performance zu erreichen. Laut Jacob Sutton, Mitbegründer von Infuse Studio, liegt das an der Engine selbst.

Was sagt die PCGH-X-Community zu Unreal Engine 5: Kein natives 4K mit ausreichender Performance aufgrund der Einschränkungen der Engine.

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Wird schon so kommen dass sich die Industrie auf upscaling ausruht.
Bei Rennspielen zum Beispiel mag es ja noch ok sein, aber in Shootern werden durch DLSS und Co soviel Details einfach nicht gerendert... Beispiel: Man schleicht sich durch Gras oder Büsche an Gegner ran, sieht diese aber nicht mehr sobald kein vollständiges Sichtfeld mehr auf diese besteht.
Werden diese dann wieder gerendert, stehen die auf einmal woanders, GG.
Es ist aktuell einfach keine sinnvolle Alternative zu nativ.
 
Ihr braucht doch nur weiterhin WERBUNG für die 4090 und noch besser für 5090 machen, dann klappt das auch mit der UE5.x in 4K inkl. Pathtracing mit mind. 60 FPS (dank dem ganzen zuschaltbarem Krempel) ... :cool:
Alles unterhalb der Speerspitze ist doch eh Kindergeburtstag. :bday:
 
Wird schon so kommen dass sich die Industrie auf upscaling ausruht.
Bei Rennspielen zum Beispiel mag es ja noch ok sein, aber in Shootern werden durch DLSS und Co soviel Details einfach nicht gerendert... Beispiel: Man schleicht sich durch Gras oder Büsche an Gegner ran, sieht diese aber nicht mehr sobald kein vollständiges Sichtfeld mehr auf diese besteht.
Werden diese dann wieder gerendert, stehen die auf einmal woanders, GG.
Es ist aktuell einfach keine sinnvolle Alternative zu nativ.
Ich vermute eher der Gegner hat sich bewegt während du ihn nicht im Sichtfeld hattest .. :schief:
In welchem Spiel willst du sowas denn beobachtet haben ? Das angezeigte Bild und ALLE anderen Vorgänge im Spiel (Position von Gegnern, Physik, Soundquellen,..) sind zwei paar Schuhe die unabhängig voneinander von GPU oder CPU berechnet werden. Wie soll dich auch sonst ein NPC von hinten angreifen wenn immer nur berechnet wird was du siehst ?
 
Bei Rennspielen zum Beispiel mag es ja noch ok sein, aber in Shootern werden durch DLSS und Co soviel Details einfach nicht gerendert... Beispiel: Man schleicht sich durch Gras oder Büsche an Gegner ran, sieht diese aber nicht mehr sobald kein vollständiges Sichtfeld mehr auf diese besteht.
Der Bildausschnitt ist mit Upscaling der gleiche wie ohne. Und da durch Upscaling ein besseres Anti Aliasing statt findet als es TAA je könnte, sieht man auch die feinen Details in der Ferne, die man voerher nicht gesehen hat bzw detailärmer.

Topic: Ich verstehe die Aussage des Artikels aber auch nicht. Erst wird behauptet, das die Last wegen der Engine zu hoch sei und am Ende des Artikels ist es doch nur der Hardwarehunger.
 
@Werbegeschaedigter

Es wird mal wieder nonsense verbreitet. DLSS und die meisten anderen Upscaling Mechanismen rendern MEHR Details, nicht weniger.

Was Du da schreibst von "kein vollständiges Sichtfeld" entbehrt jeder Grundlage und auch jeder Sinnhaftigkeit. Am Sichtfeld ändert ein Upscaling nun mal überhaupt gar nichts.
Achso, du willst mir also erzählen dass Gegner hinter Büschen mit upscaling gerendert werden? Tja, da erzählst du Nonsens oder spielst keine Shooter, oder dir entgehen einfach kleinere Details.🤷🏼‍♂️
Wenn ich auf Gegner zulaufe, die sich in dem MITTLEREN Bereich meines Bildschirms befinde, werden diese nur gerendert wenn nichts im Weg ist! Befindet sich ein Busch zwischen mir und dem Gegner, den man durch Lücken noch sehen könnte, wird dieser nicht mehr gerendert! Oft genug erlebt, unabhängig von der Qualität des DLSS! Ich spreche hier nicht vom FoV...
 
Achso, du willst mir also erzählen dass Gegner hinter Büschen mit upscaling gerendert werden? Tja, da erzählst du Nonsens oder spielst keine Shooter, oder dir entgehen einfach kleinere Details.🤷🏼‍♂️
Ja, das will ich. Genauso wie dünne Linien (wie Leitungen an einem Strommast), die beim Rasterizing auf einmal Lücken bekommen, weil die Linie kleiner ist als ein Pixel, aber durch DLSS/FSR tatsächlich wieder vollständig erscheinen. Das ist der selbe Effekt.

Denn: Es wird zwar mit einer geringeren Auflösung gerendert - was natürlich erst mal Details verschluckt - aber (und das scheinen die wenigsten zu berücksichtigen), es wird bei modernen Upscaling jedes Frame um einen Bruchteil eines Pixels versetzt gerendert - jedes Frame in eine andere Richtung verschoben. Dadurch "erscheinen" bei jedem weiteren Frame wieder Details, die vorher verschluckt wurden, je nachdem wie sie auf das Pixelraster zu liegen kommen.

Anschließend werden die Frames (über den AI Mechanismus) verrechnet, so dass die Informationen aller Frames genutzt werden, um am Ende MEHR Details als bei einem Native Rendering sichtbar zu machen.

Ich weiß nicht, wie oft ich das schon geschrieben habe, aber irgendwie hat sich in den Köpfen festgesetzt "Upscaling = Weniger Details". Aber das ist eben nicht korrekt.

Wenn Dein Gegner kleiner ist als ein Pixel (bzw. die Lücke in den Gräsern, durch die man ihn sieht), würde er bei native auch nur eher zufällig sichtbar. Bei Upscaling wird er auf jeden Fall sichtbar.
 
Topic: Ich verstehe die Aussage des Artikels aber auch nicht. Erst wird behauptet, das die Last wegen der Engine zu hoch sei und am Ende des Artikels ist es doch nur der Hardwarehunger.
Da bin ich ganz bei dir. Vor allem, weil man ja mit der UE5 arbeiten kann ohne Lumen auch im Spiel aktiv zu nutzen. Demnach sollten Vorteile wie bessere Mehrkernunterstützung greifen, aber nicht pauschal alles höhere Anforderungen erzeugen, nur weil die Engine die Möglichkeit für mehr Aufwand bietet.
 
Ja, das will ich. Genauso wie dünne Linien, die beim Rasterizing auf einmal Lücken bekommen, aber durch Upscaling wieder vollständig erscheinen. Das ist der selbe Effekt.

Denn: Es wird zwar mit einer geringeren Auflösung gerendert - was natürlich erst mal Details verschluckt - aber (und das scheinen die wenigsten zu wissen), bei modernen Upscaling wird jedes Frame um Bruchteile eines Pixels versetzt gerendert. Dadurch "erscheinen" bei jedem weiteren Frame wieder Details, die vorher verschluckt wurden, weil sie kleiner sind als ein Pixel.

Anschließend werden die Frames (über den AI Mechanismus) verrechnet, so dass am Ende MEHR Details als bei einem Native Rendering sichtbar sind.

Ich weiß nicht, wie oft ich das schon geschrieben habe, aber irgendwie hat sich in den Köpfen festgesetzt "Upscaling = Weniger Details". Aber das ist eben nicht korrekt.
Wenn ich es eben selbst so erlebe, dass so manche Dinge einfach verschluckt werden, dann ist das einfach so.🤷🏼‍♂️
Vielleicht liegt es an meiner Grafikarte der 3000er Generation, vielleicht ist mit einer 4000er wieder besser.🤷🏼‍♂️
Fakt ist, in dem von mir beschrieben Szenario ist einfach so, egal was du mir erzählen willst.🤷🏼‍♂️
 
Ja, das will ich. Genauso wie dünne Linien, die beim Rasterizing auf einmal Lücken bekommen, aber durch Upscaling wieder vollständig erscheinen. Das ist der selbe Effekt.

Denn: Es wird zwar mit einer geringeren Auflösung gerendert - was natürlich erst mal Details verschluckt - aber (und das scheinen die wenigsten zu wissen), bei modernen Upscaling wird jedes Frame um Bruchteile eines Pixels versetzt gerendert. Dadurch "erscheinen" bei jedem weiteren Frame wieder Details, die vorher verschluckt wurden, weil sie kleiner sind als ein Pixel.

Anschließend werden die Frames (über den AI Mechanismus) verrechnet, so dass am Ende MEHR Details als bei einem Native Rendering sichtbar sind.

Ich weiß nicht, wie oft ich das schon geschrieben habe, aber irgendwie hat sich in den Köpfen festgesetzt "Upscaling = Weniger Details". Aber das ist eben nicht korrekt.
Kann ich persönlich nicht nachvollziehen. Am Anfang, als quasi alles nur spatial upsampling war, da ging das noch, aber seit locker drei Jahren kann man upsampling eigentlich nicht mehr googlen, ohne eine Erklärung wie deine zu finden.
Wenn ich es eben selbst so erlebe, dass so manche Dinge einfach verschluckt werden, dann ist das einfach so.🤷🏼‍♂️
Vielleicht liegt es an meiner Grafikarte der 3000er Generation, vielleicht ist mit einer 4000er wieder besser.🤷🏼‍♂️
Fakt ist, in dem von mir beschrieben Szenario ist einfach so, egal was du mir erzählen willst.🤷🏼‍♂️
Also der Effekt tritt mit DLSS auf, ohne aber nicht?
 
Wenn ich es eben selbst so erlebe, dass so manche Dinge einfach verschluckt werden, dann ist das einfach so.🤷🏼‍♂️
Kannst Du denn belegen, was verschluckt wird? Mit Beispielen, am besten Screenshots?

Denn: Der Mensch fühlt oft Dinge und ist sicht gaaaaanz sicher, wenn die Realität einfach eine andere ist. Es ist kein Zufall, dass man von optischen Täuschungen spricht und von Bildern, die das Hirn völlig falsch interpretiert. Die Optik des Menschen ist nicht unfehlbar, ganz im Gegenteil.
Kann ich persönlich nicht nachvollziehen. Am Anfang, als quasi alles nur spatial upsampling war, da ging das noch, aber seit locker drei Jahren kann man upsampling eigentlich nicht mehr googlen, ohne eine Erklärung wie deine zu finden.
Wäre ja schön, wenn es alle wissen würden. In den Foren behaupten immer noch jede Menge Leute, dass Upscaling unschärfer wäre und Details verschlucken würde.
 
Kann ich persönlich nicht nachvollziehen. Am Anfang, als quasi alles nur spatial upsampling war, da ging das noch, aber seit locker drei Jahren kann man upsampling eigentlich nicht mehr googlen, ohne eine Erklärung wie deine zu finden.

Also der Effekt tritt mit DLSS auf, ohne aber nicht?
Ganz genau, dieses Phänomen erlebe ich nur mit DLSS, ist dieses ausgeschaltet gibt es dieses Problem nicht.
 
Wäre ja schön, wenn es alle wissen würden. In den Foren behaupten immer noch jede Menge Leute, dass Upscaling unschärfer wäre und Details verschlucken würde.
An der Stelle muss ich mich teilweise mit einschließen. Denn ich finde einen unvollständigen, scharfen Pixel auch als angenehmer, als einen vollständigen, gediegenen/weichgespülten Inhalt der zwar grundsätzlich mehr zeigt, aber so wirkt als wenn die Tiefe fehlt. Beispielsweise feine Linien im Hintergrund, denen dann irgendwie die Abgrenzung fehlt. Also Kontrast. Wenn man dann nachschärft, greift das auch bei nahen Objekten und das will man ja vielleicht gar nicht.
 
@Cleriker

... denn Deine Optik versucht auf harte Kanten scharf zu stellen. Weswegen ein 320x200 Bild als Superscharf empfunden wird (es hat ja nur scharfe Kanten), aber eben dennoch wesentlich weniger Informationen enthält.

Für mich ist Schärfe nicht wie hart die Kontraste sind und wie sichtbar eckig die Pixel sind. Sondern wieviele Details ein Bild hat.

Das Problem ist, dass der Mensch harte Kontraste nutzt, um seine Optik "scharfzustellen". Aber das ist am Monitor nicht nötig. Dennoch haben manche Menschen das ungute Gefühl, das Bild wäre unscharf, nur weil harte Kontraste und Pixelkanten fehlen.
 
Exakt das! Ich weiß das alles, gehöre aber dennoch zu der Sorte. Ich kann meinen Augen einfach nicht angewöhnen das zu ignorieren. (Anm.: Ich mag auch keine Aquarelle, da kommt mir nach wenigen Sekunden das Schaudern.)

Ich unterscheide stark zwischen Detailreichtum und Schärfe(-eindruck). Was du beschreibst, ist Detailreichtum, nicht Schärfe.

Mir fällt gerade auf, dass das auch so ein Punkt ist, der oft beim Für und Wider zum Thema Upsampling auftaucht und die Diskutierenden gern gleiche Begriffe nutzen für unterschiedliche Dinge und zu großen Teilen nur deshalb unterschiedlicher Meinung zu sein scheinen.
 
Zuletzt bearbeitet:
Zurück