News Unreal Engine 5: Kein natives 4K mit ausreichender Performance aufgrund der Einschränkungen der Engine.

Ergibt keinen sinn. Vorher wird gesagt wegen der engine und dann wegen den hardwar hunger. Also eine 5090 könnte das dann auch nicht nativ? 1080p nativ auch dann oder was reden die?
Ich verstehe der Artikel auch nicht ganz. Warum bekommt man keine flüssige FPS mit der UE5 Engine hin? Es soll an der Engine selbst liegen, an was denn genau? Gilt das auch für eine Zukünftige RTX 9090?? Wird die auch nicht im stande sein 4K nativ ein UE5 spiel welches 2024/25 auf den Markt kommt flüssig zu rendern?
 
@Cleriker

Ich verstehe Dein Dilemma. Aber das würde auch bedeuten, dass Du Anti-Aliasing grundsätzlich ablehnen müsstest. Rasterisierung, also eine Quantifizierung des darzustellenden Bildes auf ein Pixel-Raster, wird immer eine "illusion von Schärfe" einbringen (nämlich eben dieses Raster) und was noch schlimmer ist: Ein total ekelhaftes Flimmern bei Bewegung. Ich muss Dir nicht erklären warum.
 
Assetto Corsa, CoD ,Uncharted,Forza Motorsport,
Sobald man da selbst DLAA anmacht fangen dünne Linien an zu schwimmen,bzw zeigen Doppelkonturen,in Bewegung wohlgemerkt.
Und wieso muss man mit Belegen kommen,wenn es viele so sehen.
Glaubt es oder nicht.
Aber unterlasst es unsere Glaubwürdigkeit in Frage zustellen. Gehört sich nicht.
 
Sobald man da selbst DLAA anmacht fangen dünne Linien an zu schwimme,bzw zeigen Doppelkonturen,in Bewegung wohlgemerkt.
Da musst Du nichts belegen, das glaube ich Dir sofort. Das hat auch nichts mit "dünnen Linien" zu tun, sondern ist einfach der bekannte Effekt, wenn bei bewegten Objekten der Bewegungs-Vektor nicht korrekt für das Upscaling erfasst wird. Ob so etwas auftritt oder nicht, hängt meist an der DLSS/FSR Implementierung im Spiel selbst ab. Der Algorithmus (DLSS, XeSS oder FSR) reagiert ebenfalls unterschiedlich empfindlich auf fehlende Vektor-Daten.

Das hat aber nunmal GAR nichts mit dem zu tun, was hier sonst diskutiert wurde.
 
oh mein gott das soll also echt die zukunft sein. Naja das problem habe ich ja auch schon beim videoumwandeln auch. Die gpu bekommt das einfach nicht so richtig hin. Da fehlt auch die tiefe und alles ist so drisst und Details gingen da ebenso verloren. Ich kann es daher auch leider nachvollziehen was ihr damit meint. Ich kann da leider auch nix dran ändern. Bei anime Sachen kann man es ja noch verschmerzen wie bei anime games oder neben dem noch Filme sowie Serien aber nicht bei realistischen Sachen weil da passt das ja echt nicht gut kann man so sagen.
Und wirklich jedes games was realistisch ist wird am ende ebenso das selbe Problem haben. Ich habe ein animiertes game von 2005 da stört das auch jetzt noch immer nicht.
Ich mache da unterschiede zwischen realen und anime bzw Animation games sowie auch alles andere wie serie und Filme.
Oder darf man das nicht mit einander vergleichen?

ich sehe da halt ähnliche Probleme. Ist mir halt nur so aufgefallen weil ich mich darin wieder finde.
 
Solange das LOD gut genug ist, sehe ich kein Problem für das Nutzen von Upsamplern.

Die Games müssen dann halt nur von Haus aus in 720p Nativ ordentlich ausschauen, damit Upsamplen auch noch vernünftig funzt.
1080p auf 2160p ist keine Problem, aber die Frage ist eher wie schauts in FHD@TSR-66%...75% aus!?
(wenn man ein paar Games mehr verkaufen will, sollten auch die kleinen Grakas noch ordentlich funzen)

Da muss ich mal wieder Phil loben, der neuerdings auch Optimieren für kleine Grakas testet!
In ARK hatte ich glaube ein ähnliches TSR eingestellt.
 

Anhänge

  • ARC@1800p custom.jpg
    ARC@1800p custom.jpg
    1,3 MB · Aufrufe: 16
Zuletzt bearbeitet:
Na dann hau mal ein paar Screenshots, oder besser noch ein Video raus. Sollte ja ein leichtes sein.

Das wäre eine echte Sensation, denn du wärst der Erste der sowas beobachten konnte ;)
Für wen hältst dich eigentlich, meine Glaubwürdigkeit infrage zu stellen? Ich muss mich vor dir bestimmt nicht für irgendwas rechtfertigen, oder dir irgendwelche Beweise liefern. Glaub es oder nicht, schön wenn es bei dir nicht auftritt.🤷🏼‍♂️
 
Für wen hältst dich eigentlich, meine Glaubwürdigkeit infrage zu stellen? Ich muss mich vor dir bestimmt nicht für irgendwas rechtfertigen, oder dir irgendwelche Beweise liefern. Glaub es oder nicht, schön wenn es bei dir nicht auftritt.🤷🏼‍♂️
Es klingt halt extrem ungewöhnlich und ist auch technisch nicht zu erklären.

Weswegen ich (und viele andere hier) eher davon ausgehen, dass Du ein anderes Problem (vermutlich Verbindungs- oder Serverprobleme) auf DLSS / FSR geschoben hast. Denn die von Dir beschriebenen Effekte klingen halt eher nach Netzproblemen als nach etwas, was Upscaling verursachen könnte.
 
Es klingt halt extrem ungewöhnlich und ist auch technisch nicht zu erklären.

Weswegen ich (und viele andere hier) eher davon ausgehen, dass Du ein anderes Problem (vermutlich Verbindungs- oder Serverprobleme) auf DLSS / FSR geschoben hast. Denn die von Dir beschriebenen Effekte klingen halt eher nach Netzproblemen als nach etwas, was Upscaling verursachen könnte.
Wie ich schon sagte, das Problem tritt mit DLSS auf, ohne nicht, klingt nicht wirklich nach Verbindungsproblemen.
 
Wie Du willst. Wenn das was Du beschrieben hast, nicht nach Verbindungsproblemen klingt (Gegener ist auf einmal wo ganz anders) dann weiß ich auch nicht.

Wer sich nicht helfen lassen will....
 
Wenn ich auf Gegner zulaufe, die sich in dem MITTLEREN Bereich meines Bildschirms befinde, werden diese nur gerendert wenn nichts im Weg ist! Befindet sich ein Busch zwischen mir und dem Gegner, den man durch Lücken noch sehen könnte, wird dieser nicht mehr gerendert! Oft genug erlebt, unabhängig von der Qualität des DLSS! Ich spreche hier nicht vom FoV...

Wie Du willst. Wenn das was Du beschrieben hast, nicht nach Verbindungsproblemen klingt (Gegener ist auf einmal wo ganz anders) dann weiß ich auch nicht.

Wer sich nicht helfen lassen will....
Das ist sehr wahrscheinlich ein visueller Bug, würde es an der Verbindung oder dem Server liegen, wäre die lokale Einstellung Bedeutungslos.
Movement kann ich weiterhin hören, also der Gegner ist da, bewegt sich, wird aber einfach nicht gerendert wenn der Busch da ist.
 
Das ist sehr wahrscheinlich ein visueller Bug, würde es an der Verbindung oder dem Server liegen, wäre die lokale Einstellung Bedeutungslos.
Movement kann ich weiterhin hören, also der Gegner ist da, bewegt sich, wird aber einfach nicht gerendert wenn der Busch da ist.
Wenn das so ist, kannst Du das wunderbar nachstellen und in einem Video aufzeichnen.

Es geht hier gar nicht so her darum, ob wir Dir das glauben oder nicht. Wenn der von Dir beschriebene Effekt nachvollziehbar sein sollte, wäre das eine sehr bedenkliche Sache und müsste entweder schnellstens gefixt werden oder, wenn das nicht geht, würde es bei MP Spielen diese Technik ausschließen.

Bevor man aber diesen Schluss ziehen kann, braucht man nachvollziehbare Belege.
 
Wenn das so ist, kannst Du das wunderbar nachstellen und in einem Video aufzeichnen.

Es geht hier gar nicht so her darum, ob wir Dir das glauben oder nicht. Wenn der von Dir beschriebene Effekt nachvollziehbar sein sollte, wäre das eine sehr bedenkliche Sache und müsste entweder schnellstens gefixt werden oder, wenn das nicht geht, würde es bei MP Spielen diese Technik ausschließen.

Bevor man aber diesen Schluss ziehen kann, braucht man nachvollziehbare Belege.
Bei dem Vorgang wende ich mich direkt an Nvidia, dann ist gleich da wo es hingehört.👍
Wenn von deren Seite nichts passiert, thematisiere ich es hier erneut.👍
 
Das ist ja schaurig was hier diskutiert wird
Und der originale Unterstellung des Entwicklers im Artikel is so auch nicht ganz bodenständig.

Ich will auch gar nicht auf @Werbegeschaedigter eingehen und die anderen Kommentare zu seiner Erfahrung.
Aber falls das seine Auffassung ist, dann sollte das aufgezeichnet werden.
Das hat nichts damit zu tun deine Glaubwürdigkeit in Frage zustellen. Ich spreche hier als Entwickler selbst und einen Fehler den man selbst nicht nachstellen kann, kann man auch nicht beheben. Auj wenn er noch so real ist.
Aber ich denke der Fehler den du beschreibst liegt am Frustrum-Culling oder Occlusion Culling, das nicht vorhandene Objekte erst reingeladen werden müssen bevor sie gerendert werden, passiert das zu langsam oder schlichtweg garnicht, kannst du CoD oder etc. kann es durch aus sein das du vor einem Gegner stehst, aber dieser nicht auf deinem Bildschirm angezeigt wird.
Selbst wenn du ihn hörst.
Da haben hier andere schon richtig geteilt das Rendering, Audio und andere Systeme separat und Parallel zum Rendering laufen.
Nur leider dabei nicht die Pipeline verstehen.

Dazu wollte hier nun mal meinen Senf dazu geben...
Unreal Engine hat viele neue (und optionale) Features wie zum Beispiel die erwähnte Lumen Lichtberechnung und Nanite-Mikropolygon Technologie. (keine LODs mehr im traditionellen Sinne)

Beide sind grundlegend von der Auflösung abhängig, dass heißt bei höherer Auflösung werden bei Lumen mehr Lichtstrahlen berechnet (Rays-Per-Pixel) und bei Nanite schlichtweg mehr polygone dargestellt als bei niedriger Auflösung.
Das ist eine komplett neue Generation von Rendering und nicht wie vorher einfach nur mehr pixel im Pixel-Shader berechnet.
Nein, die gesamte Welt mit Nanite hat mehr Polygone, das gesamte Licht wird mit mehr Lichtstrahlen berechnet.
Höhere Auflösungen müssen weit mehr stemmen als nur mehr "Pixel zu berechnen".

Zu Lumen, das ist eine Scren-Space basiertes Raytracing pro Pixel schon klar dass wenn man von 1080 zu 4k die Grafikkarte in die Knie geht wenn man Naiv dann auch 4mal mehr RayTracing statt findet.
Und bei Nanite genauso, wenn nun 4 mal mehr Polygone berechnet werden müssen.
Das ist eine ganz andere Liga als bisherige Rendering Technologien.
Nanite nutzt hier sowohl die GPU aber vorallem die CPU als Rasterizer, für Polygone kleiner als 4 Pixel. GPU Hardwarebeschleunigung ist ausgelegt auf große Polygone da Pixel in einem 2x2 cluster berechnet werden. (GPUs sind dafür einfach gebaut)
Heißt bei Spielen wie z.B. Remnant 2 ist der bottleneck nicht die GPU sondern meist die CPU, da Remnant 2 fast ausschließlich auf Nanite setzt und Photoscans mit kleinen Polygonen verwendet. Heißt von 1080p zu 4K nativ zu render macht die CPU nun 4 mal so viel arbeit.
Aber nicht nur für das Rendering hat das einfluss. Die gesamte Pipeline wird schwerer zu berechnen. Occlusion und vorallem Frustrum-Culling (das entfernen von Polygonen die nicht sichtbar sind bevor man Compute, Vertex, Geo, und Pixel-Shader berechnet muss nun auch 4 mal so viel tun.

Das problem liegt in der Skalierung.
Unreal Engine gibt Entwicklern alle Möglichkeiten dies selbst einzustellen oder diese Einstellungen dem Nutzer zu überlassen.
Soweit ich weiß hat Remnant und andere Spiele aber keinerlei GrafikOptionen die z.B. die RayTracing qualität anzupassen, die Anzahl der Polygone anzupassen weder noch wird eine Anpassung dynamisch vorgenommen obwohl das in UnrealEngine mit einem Scale-Factor möglich ist.
Man könnte ja meinen das wenn ich die gleiche Anzahl von Polygonen möchte in 1080p und in 4k das ich diesen auf 0.25 stellen kann. Und somit die gleichen detailgrad zu rendern aber mit höherer Auflösung.
Das ist Schlichtweg faule oder uninformierte entwickler und aber auch nicht wie Nanite gedacht war zu funktionieren. Denn so wird nichtmehr pro Pixel ein Polygon gerendert sonder 4 Pixel fallen auf 1 Polygon.
(Ob man das nun sieht ist eine andere Frage siehe Upscaler)

Hier auch ARK als Beispiel, den Asset-Flip des jahrhunderts, heranzuziehen ist schlichtweg idiotisch. Das Team besteht aus einer handvoll amateuren, das kann man einfach nicht anders ausdrücken.
Selbst Remnant 2 ist ein eher kleines Entwickler Studio und zudem eines der ersten Spielen die auf UE5 basieren mit fast allrn neuen Features aktiviert.
Ob man diese Features überhaupt nutzt ist eine Entscheidung die man als Entwickler trifft, zudem sind viele dieser garnicht mehr nur für VideoSpiele sondern auch für Film produktion ausgelegt.
Anders sieht aus bei etablierten Entwicklern aus wie z.b. Embark, die The Finals machen, aus DICE/Battlefield Veteranen bestehen und solche Anpassungen vorgenommen haben.

Wenn ein "Entwickler" sagt, "das liegt an der Engine" höre ich nur Skill-Issue und nichts weiter.

Die Frage ob man dann jetzt für alles Upscaling verwenden muss ist an dieser Stelle fehl am Platz, da das grundlegende Problem ein anderes ist.
Aber kommen wir mal zu Upscalern.
Früher gab es MSAA (Multi-Sample Anti-Aliasing, das pro pixel mehrere pixel im offset gerendert hat um kanten glatten darstellen zu können, aber am allerbesten war immer noch SSAA (Super-Sampling).
Was schlichtweg heißt du renderst mit höhrer Auflösung und skalierst das Bild wieder herunter.
Stell dir dass nunmal vor mit Nanite.
Da werde dann naiv mehr polygone berechnet als du Pixel überhaupt auf dem Bildschirm hast.
Heißt neue Technik muss ran.
MSAA funktioniert zwar noch, aber ist bereits überholt von Techniken die mehrere Frames als Input nehmen um tempär ein stabileres Bild zuliefern. EPIC hat sein eigenes TAA hierzu entwickelt.

Dann kommen wir zu den neuen Deep-Learning algorithmen die versprechen noch besser zu seien.
Da sie nicht nur das bewegte Bild, sonder in DLSS v1 auch einen trainiertes Model verwenden das pro Pixel wert erkennen können was "falsch" ist, und diese bereiche "wiederherstellen".
Neuere Versionen funktionieren hier aber auch schon wieder ganz anders.
DLSS heute benutzt den gesamten Framebuffer, Motion-Vectors und hat zugriff auf den Gesamten Geometry-Buffer um genau herauszufinden was an welche Stelle gehört. DLSS 3 mehr oder weniger führt die gesamte Rendering Pipeline aus um ein Bild zu produzieren ohne es zu berechnen, da das trainierte Model schon weiß was es mit den Daten anzufangen hat, das sind dan einfache lineare Matrix Multiplikationen die auf der Grafikkarte viel ychneller berechnert werden können als es "wirklich zu rendern".

Dann kommen wir zu FrameGeneration, da wie oben beschrieben alles zur berechnung eines gesamten Frames ohne hin zur Verfügung steht, können gesamte Frames erstellt werden.

Nun kommen wir zu Assetto Corsa, etc. etc. alle games bei denen dies nachgeliefert wurde und wie auch alle sehen es nicht richtig funktioniert.
Warum, kann jeder für sich selbst Spekulieren.
Aber man sieht an Spielen wie Cyberpunk 2077 dass es eigentlich funktionieren sollte.
(Hier hat NVidia selbst mit gearbeitet um es zu implementieren)

heißt, es muss entweder nicht richtig gemacht worden sein, oder es schlichtweg fehlen dem Modell Daten die es für die korrekte anwendung benötigt.
(Viele Spiele haben eine Forward Rendering Pipeline die schlichtweg diese Daten nicht liefern kann, egal wie lange du es dazu bringen willst)

So, wo lässt uns das stehen?
Sind alle unfähig und Dumm?
Natürlich nicht, aber muss das ganze etwas differenziert sehen und nicht alles auf "die Engine" schieben oder neue Technologien direkt in die Mülltonne schmeißen nur weil sie in deinem Spiel nicht funktionieren.
Dafür gibt es ja Grafik Einstellungen.
Aber es sollte mehr geben.
Vorallem für Lumen und Nanite ind Unreal Engine Spielen, das Kommandozeilen befehle die existieren, ignoriert und nicht dem Spieler angeboten werden, kann einfach nicht sein.
Das "Entwickler" meinen es liegt an der Engine kann einfach nicht sein.
Und das Spieler sich mit solchen Kleinigkeiten herumschlagen ohne das einfach einer mal die Dokumentation ließt kann auch nicht sein.

Deswegen, gebt Spielern mehr optionen, und informiert euch als Entwickler selbst und eure Spieler gleichermaßen.
Dann müsste man nicht sowas wie diesen Thread hier finden.

Bis zum nächsten Mal,
Ciao
Nach dem durchlesen sind mir paar Schreibfehler aufgefallen, da ich das hier in 10min aufm Handy im Zug abgetippt habe.
Fight me.

Auch habe ich das Interview gesehen, und der Netwickler sagt mehr oder weniger was ich hier sage, "es liegt an der Engine" ja, hat er gesagt, aber mit dem Hintergrund dass es eine grundlegend neue Technik ist.
Nichts dazu dass es unmöglich wäre das alles Einzustellen.

@PCGH Do better
Es kann auch nicht sein das ihr einen Satz aus dem Kontext reißt und suggestive Überschriften und somit Misst in die Welt setzt.
Da könnt ihr euch noch lange wie ihr wollt hinter "Journalismus berichtet nur das was andere gesagt haben" verstecken.

Aber tja, daran stirbt euer Verlag und Journalismus an sich ja eh schon lange.
 
Zuletzt bearbeitet:
Das ist ja schaurig was hier diskutiert wird
Und der originale Unterstellung des Entwicklers im Artikel is so auch nicht ganz bodenständig.

Ich will auch gar nicht auf @Werbegeschaedigter eingehen und die anderen Kommentare zu seiner Erfahrung.
Aber falls das seine Auffassung ist, dann sollte das aufgezeichnet werden.
Das hat nichts damit zu tun deine Glaubwürdigkeit in Frage zustellen. Ich spreche hier als Entwickler selbst und einen Fehler den man selbst nicht nachstellen kann, kann man auch nicht beheben. Auj wenn er noch so real ist.
Aber ich denke der Fehler den du beschreibst liegt am Frustrum-Culling oder Occlusion Culling, das nicht vorhandene Objekte erst reingeladen werden müssen bevor sie gerendert werden, passiert das zu langsam oder schlichtweg garnicht, kannst du CoD oder etc. kann es durch aus sein das du vor einem Gegner stehst, aber dieser nicht auf deinem Bildschirm angezeigt wird.
Selbst wenn du ihn hörst.
Da haben hier andere schon richtig geteilt das Rendering, Audio und andere Systeme separat und Parallel zum Rendering laufen.
Nur leider dabei nicht die Pipeline verstehen.

Dazu wollte hier nun mal meinen Senf dazu geben...
Unreal Engine hat viele neue (und optionale) Features wie zum Beispiel die erwähnte Lumen Lichtberechnung und Nanite-Mikropolygon Technologie. (keine LODs mehr im traditionellen Sinne)

Beide sind grundlegend von der Auflösung abhängig, dass heißt bei höherer Auflösung werden bei Lumen mehr Lichtstrahlen berechnet (Rays-Per-Pixel) und bei Nanite schlichtweg mehr polygone dargestellt als bei niedriger Auflösung.
Das ist eine komplett neue Generation von Rendering und nicht wie vorher einfach nur mehr pixel im Pixel-Shader berechnet.
Nein, die gesamte Welt mit Nanite hat mehr Polygone, das gesamte Licht wird mit mehr Lichtstrahlen berechnet.
Höhere Auflösungen müssen weit mehr stemmen als nur mehr "Pixel zu berechnen".

Zu Lumen, das ist eine Scren-Space basiertes Raytracing pro Pixel schon klar dass wenn man von 1080 zu 4k die Grafikkarte in die Knie geht wenn man Naiv dann auch 4mal mehr RayTracing statt findet.
Und bei Nanite genauso, wenn nun 4 mal mehr Polygone berechnet werden müssen.
Das ist eine ganz andere Liga als bisherige Rendering Technologien.
Nanite nutzt hier sowohl die GPU aber vorallem die CPU als Rasterizer, für Polygone kleiner als 4 Pixel. GPU Hardwarebeschleunigung ist ausgelegt auf große Polygone da Pixel in einem 2x2 cluster berechnet werden. (GPUs sind dafür einfach gebaut)
Heißt bei Spielen wie z.B. Remnant 2 ist der bottleneck nicht die GPU sondern meist die CPU, da Remnant 2 fast ausschließlich auf Nanite setzt und Photoscans mit kleinen Polygonen verwendet. Heißt von 1080p zu 4K nativ zu render macht die CPU nun 4 mal so viel arbeit.
Aber nicht nur für das Rendering hat das einfluss. Die gesamte Pipeline wird schwerer zu berechnen. Occlusion und vorallem Frustrum-Culling (das entfernen von Polygonen die nicht sichtbar sind bevor man Compute, Vertex, Geo, und Pixel-Shader berechnet muss nun auch 4 mal so viel tun.

Das problem liegt in der Skalierung.
Unreal Engine gibt Entwicklern alle Möglichkeiten dies selbst einzustellen oder diese Einstellungen dem Nutzer zu überlassen.
Soweit ich weiß hat Remnant und andere Spiele aber keinerlei GrafikOptionen die z.B. die RayTracing qualität anzupassen, die Anzahl der Polygone anzupassen weder noch wird eine Anpassung dynamisch vorgenommen obwohl das in UnrealEngine mit einem Scale-Factor möglich ist.
Man könnte ja meinen das wenn ich die gleiche Anzahl von Polygonen möchte in 1080p und in 4k das ich diesen auf 0.25 stellen kann. Und somit die gleichen detailgrad zu rendern aber mit höherer Auflösung.
Das ist Schlichtweg faule oder uninformierte entwickler und aber auch nicht wie Nanite gedacht war zu funktionieren. Denn so wird nichtmehr pro Pixel ein Polygon gerendert sonder 4 Pixel fallen auf 1 Polygon.
(Ob man das nun sieht ist eine andere Frage siehe Upscaler)

Hier auch ARK als Beispiel, den Asset-Flip des jahrhunderts, heranzuziehen ist schlichtweg idiotisch. Das Team besteht aus einer handvoll amateuren, das kann man einfach nicht anders ausdrücken.
Selbst Remnant 2 ist ein eher kleines Entwickler Studio und zudem eines der ersten Spielen die auf UE5 basieren mit fast allrn neuen Features aktiviert.
Ob man diese Features überhaupt nutzt ist eine Entscheidung die man als Entwickler trifft, zudem sind viele dieser garnicht mehr nur für VideoSpiele sondern auch für Film produktion ausgelegt.
Anders sieht aus bei etablierten Entwicklern aus wie z.b. Embark, die The Finals machen, aus DICE/Battlefield Veteranen bestehen und solche Anpassungen vorgenommen haben.

Wenn ein "Entwickler" sagt, "das liegt an der Engine" höre ich nur Skill-Issue und nichts weiter.

Die Frage ob man dann jetzt für alles Upscaling verwenden muss ist an dieser Stelle fehl am Platz, da das grundlegende Problem ein anderes ist.
Aber kommen wir mal zu Upscalern.
Früher gab es MSAA (Multi-Sample Anti-Aliasing, das pro pixel mehrere pixel im offset gerendert hat um kanten glatten darstellen zu können, aber am allerbesten war immer noch SSAA (Super-Sampling).
Was schlichtweg heißt du renderst mit höhrer Auflösung und skalierst das Bild wieder herunter.
Stell dir dass nunmal vor mit Nanite.
Da werde dann naiv mehr polygone berechnet als du Pixel überhaupt auf dem Bildschirm hast.
Heißt neue Technik muss ran.
MSAA funktioniert zwar noch, aber ist bereits überholt von Techniken die mehrere Frames als Input nehmen um tempär ein stabileres Bild zuliefern. EPIC hat sein eigenes TAA hierzu entwickelt.

Dann kommen wir zu den neuen Deep-Learning algorithmen die versprechen noch besser zu seien.
Da sie nicht nur das bewegte Bild, sonder in DLSS v1 auch einen trainiertes Model verwenden das pro Pixel wert erkennen können was "falsch" ist, und diese bereiche "wiederherstellen".
Neuere Versionen funktionieren hier aber auch schon wieder ganz anders.
DLSS heute benutzt den gesamten Framebuffer, Motion-Vectors und hat zugriff auf den Gesamten Geometry-Buffer um genau herauszufinden was an welche Stelle gehört. DLSS 3 mehr oder weniger führt die gesamte Rendering Pipeline aus um ein Bild zu produzieren ohne es zu berechnen, da das trainierte Model schon weiß was es mit den Daten anzufangen hat, das sind dan einfache lineare Matrix Multiplikationen die auf der Grafikkarte viel ychneller berechnert werden können als es "wirklich zu rendern".

Dann kommen wir zu FrameGeneration, da wie oben beschrieben alles zur berechnung eines gesamten Frames ohne hin zur Verfügung steht, können gesamte Frames erstellt werden.

Nun kommen wir zu Assetto Corsa, etc. etc. alle games bei denen dies nachgeliefert wurde und wie auch alle sehen es nicht richtig funktioniert.
Warum, kann jeder für sich selbst Spekulieren.
Aber man sieht an Spielen wie Cyberpunk 2077 dass es eigentlich funktionieren sollte.
(Hier hat NVidia selbst mit gearbeitet um es zu implementieren)

heißt, es muss entweder nicht richtig gemacht worden sein, oder es schlichtweg fehlen dem Modell Daten die es für die korrekte anwendung benötigt.
(Viele Spiele haben eine Forward Rendering Pipeline die schlichtweg diese Daten nicht liefern kann, egal wie lange du es dazu bringen willst)

So, wo lässt uns das stehen?
Sind alle unfähig und Dumm?
Natürlich nicht, aber muss das ganze etwas differenziert sehen und nicht alles auf "die Engine" schieben oder neue Technologien direkt in die Mülltonne schmeißen nur weil sie in deinem Spiel nicht funktionieren.
Dafür gibt es ja Grafik Einstellungen.
Aber es sollte mehr geben.
Vorallem für Lumen und Nanite ind Unreal Engine Spielen, das Kommandozeilen befehle die existieren, ignoriert und nicht dem Spieler angeboten werden, kann einfach nicht sein.
Das "Entwickler" meinen es liegt an der Engine kann einfach nicht sein.
Und das Spieler sich mit solchen Kleinigkeiten herumschlagen ohne das einfach einer mal die Dokumentation ließt kann auch nicht sein.

Deswegen, gebt Spielern mehr optionen, und informiert euch als Entwickler selbst und eure Spieler gleichermaßen.
Dann müsste man nicht sowas wie diesen Thread hier finden.

Bis zum nächsten Mal,
Ciao
Nach dem durchlesen sind mir paar Schreibfehler aufgefallen, da ich das hier in 10min aufm Handy im Zug abgetippt habe.
Fight me.

Auch habe ich das Interview gesehen, und der Netwickler sagt mehr oder weniger was ich hier sage, "es liegt an der Engine" ja, hat er gesagt, aber mit dem Hintergrund dass es eine grundlegend neue Technik ist.
Nichts dazu dass es unmöglich wäre das alles Einzustellen.

@PCGH Do better
Es kann auch nicht sein das ihr einen Satz aus dem Kontext reißt und suggestive Überschriften und somit Misst in die Welt setzt.
Da könnt ihr euch noch lange wie ihr wollt hinter "Journalismus berichtet nur das was andere gesagt haben" verstecken.

Aber tja, daran stirbt euer Verlag und Journalismus an sich ja eh schon lange.
Alles gelesen, als sehr interessant empfunden. Zumindest werfe ich hier keine Technologie in die Tonne, sondern schilderte lediglich meine Erfahrungen.
Auflösung ist bei mir lediglich fullHD, Bedarf nach 4k habe ich aktuell nicht, kommt irgendwann mal mit einem Upgrade.
Der künstliche FPS Push FrameGeneration -zumindest laut Game Settings- wurde auch verwendet, aber in meinen Versuchen brachte eine Aktivierung/Deaktivierung dessen nichts, außer Änderungen der FPS.
Zur Info: aktuell eine RTX 3050 > meines Wissens nach kein DLSS 3 Support, oder mittlerweile doch?
Ja, das Teil ist Schrott und war vor 2 Jahren lediglich ein Notkauf, 4070 ersetzt diese in den kommenden Wochen.

Punkt 1: Das Problem ist für mich jederzeit reproduzierbar und in den nächsten Tagen -endlich Urlaub- setze ich mich an die Dokumentation dieser und sende meine Erfahrungen direkt an Nvidia sowie Publisher/dev Studio.

Punkt 2: Das von mir beschriebene Szenario, hat alles geladen, ich sehe und höre den Gegner (direkte und freie Sichtlinie, somit geladen) vor mir, gehe zum Beispiel in die Hocke, dadurch besteht keine freie Sichtlinie, Gegner ist visuell "verschwunden", Sound weiterhin hörbar. Stehe ich nun wieder auf, ist er wieder da. Wichtig >>> der Busch verdeckt die Sicht nicht komplett, es bestehen Lücken durch die man Bewegungen sehen könnte.
 
Zuletzt bearbeitet:
@NV-BZI ok das entsteht also wenn fps nicht limitert und so werden.WIe sieht es aber aus wenn man einen frame Limiter rein haut,wird dann das Problem bessser oder ändert das nix dran.Also wenn ich nun 60 oder 144 fps als maximum setze und so?
 
@NV-BZI ok das entsteht also wenn fps nicht limitert und so werden.WIe sieht es aber aus wenn man einen frame Limiter rein haut,wird dann das Problem bessser oder ändert das nix dran.Also wenn ich nun 60 oder 144 fps als maximum setze und so?
Habe nichts von fps limiter geschrieben.
Die Framerate zu limitieren kann höchstens die Frametimes stabilisieren. Extra FPS bekommst du dadurch nicht. Es auf 60 usw weit unter dem was deine Graka liefern kann zustellen wird lediglich die Auslastung reduzieren.
Alles gelesen, als sehr interessant empfunden. Zumindest werfe ich hier keine Technologie in die Tonne, sondern schilderte lediglich meine Erfahrungen.
Auflösung ist bei mir lediglich fullHD, Bedarf nach 4k habe ich aktuell nicht, kommt irgendwann mal mit einem Upgrade.
Der künstliche FPS Push FrameGeneration -zumindest laut Game Settings- wurde auch verwendet, aber in meinen Versuchen brachte eine Aktivierung/Deaktivierung dessen nichts, außer Änderungen der FPS.
Zur Info: aktuell eine RTX 3050 > meines Wissens nach kein DLSS 3 Support, oder mittlerweile doch?
Ja, das Teil ist Schrott und war vor 2 Jahren lediglich ein Notkauf, 4070 ersetzt diese in den kommenden Wochen.

Punkt 1: Das Problem ist für mich jederzeit reproduzierbar und in den nächsten Tagen -endlich Urlaub- setze ich mich an die Dokumentation dieser und sende meine Erfahrungen direkt an Nvidia sowie Publisher/dev Studio.

Punkt 2: Das von mir beschriebene Szenario, hat alles geladen, ich sehe und höre den Gegner (direkte und freie Sichtlinie, somit geladen) vor mir, gehe zum Beispiel in die Hocke, dadurch besteht keine freie Sichtlinie, Gegner ist visuell "verschwunden", Sound weiterhin hörbar. Stehe ich nun wieder auf, ist er wieder da. Wichtig >>> der Busch verdeckt die Sicht nicht komplett, es bestehen Lücken durch die man Bewegungen sehen könnte.
Danke für deinen Zuspruch^^
Und Bitte fühl dich nicht von allem angesprochen was ich schrieb, lediglich den Absatz in dem ich dich erwähnt habe.
Durch deine erneute Schilderung ist das ganz klar Occlusion-Culling.
Büsche und Vegetation werden immer noch mit großen transparenten Flächen/Polygone simuliert. Wir sind noch weit entfernt Jedes einzelne Blatt zu modellieren und als eigenständiges Mesh zu rendern, dass ist höchsten in Offline Rendern der Fall. Heisst, selbst wenn du durch eine "Lücke" im Busch schauen kannst, hast du tatsächlich ein großes Polygon im Gesicht was deine Sicht eigentlich verdecken sollte, aber durch die Textur mit transparenz durchlässig ist.
Beim Occlusion-Culling werden Objekte, in deinem Fall Gegner, nicht gerendert, wenn sie hinter einer wand etc stehen. Das ein Busch dies auslösen kann ist grundsätzlich ein Bug aber nichts neues, und sehr leicht zu beheben, man muss lediglich ein Flag/Tag diesem Asset hinzufügen dass es vom Prozess ignoriert wird ist in Unreal eingebaut und buchstäblich eine Checkbox die vergessen wurde.
Aber bitte Aufzeichnen und als bug reporten, dass typische "es funktioniert aber auf meinem PC", oder in deinem Falle eben dass es nicht so funktioniert wie es sollte, ist ein Klassiker.
Aber vorallem bei Vegatation Hand-habt man meist hunderte bis tausende verschiedener Assets und dann nur aufgrund einer Aussage sich auf die suche nach dem einen Busch im Spiel zu machen der anscheinend Probleme macht ist Horror für alle Beteiligten. 😅 Spreche aus Erfahrung, dass sowas ohne wenigstens einen Screenshot entweder gaanz hinten angestellt wird oder gleich ganz ignoriert wird vom QA Team.

Zur Verwirrung über DLSS3, das ist ein ganzes Software paket, FrameGeneration und DLAA sowie RayReconstruction sind alle separat in der SDK, Denoiser für spezielle Zwecke wie SSR (Screen-Space-Reflections) etc. pp. auch und können von entwicklern eingesetzt werden.
Auch wenn deine GraKa keine FrameGeneration supported kann trotzdem DLSS3 verwendet werden, oder naja der Teil der von deiner Hardware unterstützt wird.
 
Zuletzt bearbeitet:
Zurück