Minecraft RTX analysiert: Bildqualität, Leistung, Speicherhunger, DLSS und mehr

Was hat das PBR zu tun?

PBR ist eine Material-Pipeline, das hat nichts damit zu tun ob man jetzt nen Rasterizer oder Pathtracer nutzt.
Pixar-Filme nutzen auch PBR.

Und ja, der Pathtracer wird auf alles angewendet, auch die normale Geometrie. Das ist ja das besondere hier. Natürlich ist das ganze wegen der unreifen Hardware noch eingeschränkt (Caching der Bounces, aggressives temporales filtering) aber reines Pathtracing ist es trotzdem.
Du schreibst Unsinn, so wie der große Teil hier. Pathtracing wird zu 40% auf das niedriger aufgelöste Bild angewendet und innerhalb von drei Denoisingspasses rekonstruiert. Von einer Vorlage aus, die ohne RTRT erstellt wird oder entsprechend berechnet wird. 8 Bouncepasses werden nur auf Glas und Wasserreflektionen angewandt, um realtime Rechenzeit zu sparen. Ein Fullframepathtracing würde die Berechnungszeit einzelner Bilder (Frametimes) deutlich erhöhen. Man fokussiert also wie in BFV die Raytracer auf bestimmte Bildbereiche und alles andere geht zu Lasten der Weitsicht.

PBR liefert vor allem Informationen über die Oberflächenbeschaffenheit und der Großteil der Berechnungen von DLSS v2.0 wird von den Shadern übernommen und nicht den Tensorcores, wie hier ständig behauptet wird. Genau darum muss man auch die Ressourcen balanciert verteilen.

Das kannst du gerne anzweifeln, ändert aber an der reinen Umsetzung nichts.

Kannst du mal kurz erklären was bei dir ein Pathtracer ist? Der wird überhaupt nicht zur Erstellung auf Geometrieanteile angewendet, sondern expliziert zur Darstellung der GI, also einem Beleuchtungsmodell. Was hat das bitte mit der Erstellung von Geometrie zu tun, die ist schon da! Sonst ließe sich Pathtracing nie auf alte Spiele mit gleichem Inhalt anwenden. Der Geometrieanteil wird auch nicht verändert, sondern das Beleuchtungsmodell auf Basis von Raytracingmethoden.

Es kommt zu großen Teilen ein Spatiofiltering zum Einsatz das temporal einzelne Denoisingpasses berücksichtigt. Da das Denoising je nach Pass, Bildinhalt und Raytracer variiert, variiert auch die daraus resultierede Bildqualität je nach Frame und Szene (in den Standbildern sieht man das kaum und nicht umsonst werden schön dunkle Szenen abgebildet). Bei 24 Chunks bricht die Framerate massiv ein, so dass man oft nur 8 Chunks Sichtweite zulässt, zusätzlich gibt es ein Vertexlimit pro Frame unter Pathtracer (wie ich schon geschrieben habe).

Was ist dort jetzt eine visuell positive Steigerung gegenüber der Rasterization? Es ist genauso wie ich beschrieben haben und geht zu Lasten anderer Pipelines in der Bilddarstellung. Das Pathtracing wird hier nicht zur Erstellung der Geometrie genutzt. Also absolut nichts neues und kaum Fortschritte mit den gleichen Beschränkungen wie schon bekannt.

Den ganzen Marketingwust den hier vermeintliche Experten posten, muss man überhaupt nicht Ernst nehmen, wobei das immer die Gleichen sind.
 
Zuletzt bearbeitet von einem Moderator:
@ZeroZerp: Hier, hab mal ein Video gemacht von GRB, welches Reflexionen mit klassischen Mitteln zeigt. Es doch genau so gut. Wozu braucht man Raytracing? :ugly:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Schau dir mal das Digitalfoundry-Video an. Da wird deutlich, dass sich eben doch etwas verbessert: Man kann seine Gebäude so beleuchten, wie man es möchte. In Echtzeit veränderbar. Das ist einfach cool und in dieser Form einzigartig. Natürlich kann man das auch klein- oder wegen der ganzen Performance-Kniffe schlechtreden, die Richtung der Entwicklung ist jedoch goldrichtig. :daumen:

MfG
Raff

Dafür sieht man halt weniger weit. Ich kann der Sache nichts abgewinnen.
 
Also wenn also wenn schon die neuen Konsolen besser sind, ja was soll ich den da soo viel Geld Ausgeben? Ich Spiele ja gar kein Minecraft ; )
 
Dafür sieht man halt weniger weit. Ich kann der Sache nichts abgewinnen.
Will man hier nicht lesen, auch nicht das die Tensor Cores lediglich einen Ground Truth Abgleich berechnen und das Denoisuing vor allem Reflektionen die mit einer festen Bouncesanzahl berechnet, weichzeichnet und um Artefakte auszublenden. Alles nicht sichtbar für den einen oder anderen. 8GiB VRAM frisst das Spiel ab jetzt zum Frühstück, wenn du mehr als 20 Chunks unter Pathtracing abbilden willst. Aber was soll's, haben ja alle eine 2080ti im Rechner und was geht mich die Armut der anderen an!
 
@ZeroZerp: Hier, hab mal ein Video gemacht von GRB, welches Reflexionen mit klassischen Mitteln zeigt. Es doch genau so gut. Wozu braucht man Raytracing? :ugly:

Das wirkt auf mich auch immer ein wenig befremdlich, wenn man hier mit der Lupe und 4- Facher Vergrößerung mindere Qualität, Artefakte oder sonstwas sucht und das dann ...
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
...offenbar als ganz normal und tolerabel empfindet.

Das ist halt leider Messen mit zweierlei Maß und zeugt einfach von der extremen Voreingenommenheit, die bei einigen Usern vorliegt...

Die müssen sich halt mit gewalt ihre alte Grafik so lange schön reden, bis sie dann letztendlich selber in den Genuss kommen ;)

Wirst sehen, wenn die Konsolen und Big Navi erschienen sind. Dann ist plötzlich alles in Butter und die Technik "plötzlich" ausgereift und brauchbar ;)

LG
Zero
 
Wirst sehen, wenn die Konsolen und Big Navi erschienen sind. Dann ist plötzlich alles in Butter und die Technik "plötzlich" ausgereift und brauchbar ;)

LG
Zero
Was sollen die anders oder besser können? Framedoubeling vllt.. Das ist der übliche Sarkasmus von gaussmath, den du falsch verstanden hast.

Falls du wissen willst woran es hier happert, es ist der Cudakernel also reines Compute. Die Rechenleistung ist auf eine bestimmte Anzahl Threads pro Block beschränkt und allokiert in der maximum size constant mem Anteile, die auch in ihrer Dimension beschränkt sind, wobei unter Spatialfilter die CPU als Host dienen muss und das Ganze wahrscheinlich stark ausbremst, weil sie auch RTX Funktionen berechnen muss, sie wartet halt.

Das wird bei AMD vermutlich anders gelöst, wobei ihnen dabei die hardwaretechnische Berechnungstiefe fehlt, was auch am Inhalt zu sehen sein wird. Auch dort wird das Outputimage Beschränkungen unterliegen müssen.
 
Ich mein - wenn man schon falsch liegt, dann kann man auch so wie du den ganzen Weg gehen und wirklich von vorn bis hinten 100% gequirlte ****** von sich geben.
Du hast jetzt bereits mehrfach bewiesen das du weder lesen kannst noch die Wahrheit akzeptierst - was suchst du dann noch hier? Geh doch bitte zurück in deine Hütte.



Nope - wie bereits zigg mal erleutert wurde -d as gesamte Spielt beruht, wenn man es einschaltet, rein auf Raytracing - also schon ab dem Satz kann man sagen ab in die Klapse.


Behauptet nur keiner - aber es ist schon erbärmlich wie sehr du dich hier anstrengst eine Lüge nach der anderen zu Erfinden nur um irgendwie relevant zu erscheinen obwohl du keine ahnung davon hast.

Und den Rest der Grütze erspare ich mir - da wird jedem der noch halbwegs denken kann schlecht dabei.
Das Spiel basiert lt. Nv auf einem PBR Texture Map Modell und man kann im Betastatus nur bestimmte Maps wählen, die mit RTX kompatibel sind. Bevor du noch mehr Schaum vor dem Mund bekommst, lass ich dich mit deinen Behauptungen gerne allein.

Es gibt übrigens einen Guide für Entwickler, eigens von Nv zur Verfügung gestellt. Das Spiel basiert also so wie alle Pathtracingentwicklungen auf seinem alten Grundmodell. Das 3D Mesh ist also linear zum rasterizieren. Die Java Engine ist davon ausgeschlossen.

Scheint zuviel für dich zu sein, wenn man deinen Unterton richtig interpretiert.:D

Edit sagt: ...ich kann hier ohne weiteres den texture alpha channel einfach auf "0" setzen und dann ist RTX komplett off, komisch läuft trotzdem noch! Dein Raytracing basierendes Spiel.
 
Zuletzt bearbeitet von einem Moderator:
Bitte versuche nicht weiter Wörter zu verwenden von denen du die bedeutung nicht verstehst. Kurzzeitig ist es zwar Lustig einen KOmmentar von negativer Intelligenz zu lesen, aber auf dauer ist es dann doch ermüdend.
Du hast bissher unzählige behauptungen aufgestellt, die meisten davon auf einem Niveau von "1+2=Kuchen" also bitte - geh in deine Hütte.
Es reicht langsam, Frau oder Herr Carusin!

Dir scheint absolut nicht klar zu sein, dass Nv auf dem alten PBR Modell mit RTX aufsetzt. Da ist ohne den jeweiligen Renderpass überhaupt nichts raytraced. Sie schreiben es selbst. Lediglich die Texturen wurden angepasst und man nennt es "RTX PBR Texturing".
 
Was sollen die anders oder besser können? Framedoubeling vllt.. Das ist der übliche Sarkasmus von gaussmath, den du falsch verstanden hast.

Was ist mit dir nicht richtig? Gehst einem hier mega auf die Nerven und schreibst nur Grütze.
Die DLSS Qualität mit Karten geringerer Ausbaustufe ist nicht geringer, sondern die Rechenzeit ist länger.
Lade dir Insight herunter und prüfe es selbst, bevor du solchen Scheiß hier verzapfst.
 
Was ist mit dir nicht richtig? Gehst einem hier mega auf die Nerven und schreibst nur Grütze.
Die DLSS Qualität mit Karten geringerer Ausbaustufe ist nicht geringer, sondern die Rechenzeit ist länger.
Lade dir Insight herunter und prüfe es selbst, bevor du solchen Scheiß hier verzapfst.
Und du weißt das? Kannst du den zweiten Satz mal entknoten?

Desto höher das Preset desto weniger Pixel werden mit DLSS v2.0 berechnet, was heißt, eine geringe Ausgangsauflösung erfordert trotz höherem Ground Truth mehr Pixel mit DLSS zu berechnen, was die Unschärfe steigert. Die Spreizung zwischen 540p und 16k ist großer als die zwischen 1440p/2160p und 16k. Was hat das mit lange dauern zu tun? DLSS dauert nicht lange, eher sind die fehlenden RT Cores Schuld (2060 versus 2080ti) und wenn die rechnen, muss der Rest warten.

Das bedeutet das DLSS in dem Fall abhängig von der Pixelmenge in unterschiedlicher Qualität ausgeführt wird und je höher die Pixelanzahl des Presets, desto weniger Pixel werden durch DLSS hochgerechnet. Auf einer 2060 macht aber noch lange nicht "high" Sinn. Genau dieses Upscaling zeichnet Spiegelungen dann je nach Preset und Hardwareprofil weicher.

Es gibt sogar Raytracer Beschränkungen innerhalb der Geometrie, die werden dann blockiert. Es wird also nicht nur in der Sichtweite gespart, sondern auch bei der Anzahl der Raytracer, was abhängig von der Pixelmenge variieren kann. Nv gibt das Upscaling des Bildes per DLSS mit bis zu 45% der gewünschten Pixelmenge in gewählter Endauflösung an.
 
Lustig das beide LInks dir - so wie halt alles - widersprechen - einfach weil du keine Ahnung hast. Aber du bevorzugst es ja allen deine Ignoranz zu beweisen.

Aber der Link dürfte dir helfen:
ALFA-Telefon | Schreib dich nicht ab – Lern lesen und schreiben!


genau das hat er ja gesagt - nur du bist unfähig das zu begreifen.
Du solltest dich grundsätzlich mit dem Blockupdatemodell unter Minecraft beschäftigen, wie weit Microsoft unter RTX die Chunksichtweite einschränkt und auf welcher Anzahl dabei überhaupt Pathtracing angewandt wird. Steht in Raff's Artikel, wobei die 160 nicht ganz richtig sind. Die Startsequenz liegt bei (8+1+8)², wobei die Sichtweite auf Einstellung "2" auf (2+1+2)² beschränkt wird, was 25 entspricht. Ich war sogar so frei und habe 8 Chunks daher auf 40% Bildanteil hochrechnet und DLSS 45% zugeschrieben, was sogar dem Frametimewert entspricht. Eigentlich sind es nur 33,33% von 24 als maximal mögliche Anzahl, wobei das Profil vom Treiber ausgewählt wird. Man darauf also keinen Einfluss hat. Soweit ich weiß noch nie, was für MC spezifisch ist.

Mein Laptop fällt übrigens ab 40 in den 2D Modus zurück, weil dann das CPU Limit bereits massiv greift und man über den Treiber den 3D Modus erzwingen müsste, auf einer Ti mit entsprechend guter CPU sollen 120 möglich sein.

Deinen Hilfe-Link empfehle ich dir nicht nur wegen deines Untertons selbst mal anzurufen, weil dir Rechtschreibung und Grammatik tatsächlich egal sind. Siehe deinen Postverlauf.
 
Es scheint als leiden die Reflexionen besonders stark unter DLSS. Doch auch die Qualität der Umgebungsverdeckung sinkt leicht, genau wie die Anisotrope Filterung. Hochfrequenz-Details scheinen hingegen sogar besser mit DLSS auszusehen.

Man sieht sehr häufig, eigentlich immer, dass DLSS als ,,Upscaler" bezeichnet wird. Was nicht ganz korrekt ist! Die Tensor Cores werden bei DLSS NICHT zum Upscaling verwendet. DLSS erzeugt überhaupt keine zusätzlichen Bildinformationen! Lasst mich erklären... Im Prinzip wird zwar in einer niedrigeren Auflösung gerendert, hier werden jedoch Samples über mehrere Frames gesammelt, aus denen im Anschluss ein Bild mit höherer Auflösung rekonstruiert wird. Genau wie z.b. TXAA zur Kantenglättung Samples über mehrere Frames sammelt. DLSS erhöht mit den temporalen Samples, im Gegensatz zu TXAA, allerdings nicht die Bildqualität, sondern rechnet die zusätzlich akquirierten Samples in die Pixel eines Bildes mit höherer Auflösung hinein. Das ,,DL" in DLSS, also die AI ist hier nicht für das Upscaling zuständig, wie man es beispielsweise von AI Gigapixel oder anderen Upscalern zum Vergrößern von Fotos kennt. Das neuronale Netz wird lediglich verwendet, um die Samples im finalen Bild möglichst optimal zu verrechnen, es erstellt also keine zusätzlichen Samples, sondern stellt die vorhandenen, zuvor über mehrere Frames gesammelten Samples, nur möglichst Artefaktfrei dar. Es findet also eine Umrechnung statt, keine Hochrechnung. DLSS erhöht nicht die interne Auflösung, die Samples sind durch das TXAA ähnliche Verfahren nämlich bereits da. DLSS ist im Kern temporales Supersampling mit einem neuronalen Netz, welches die Samples am Ende möglichst Artefaktfrei in ein Bild umsetzt. Deshalb geht es auch 1000x schneller als beispielsweise AI-Upscaler für Fotos.

Dass DLSS KEIN einfaches Upsampling ist, ist auch der Grund, weshalb es nicht einfach möglich ist, das Feature Treiberweit zu aktivieren. DLSS erfordert die Implementierung eines TXAA ähnlichen Verfahrens tief in der Spieleengine, um die nötigen Samples über mehrere Frames zu akquirieren. Theoretisch könnte Nvidia das Verfahren des Treiberinternen MFAA verwenden, um wenigstens Kanten über mehrere Frames mit AI zu glätten. Das würde jedoch nicht an die native Implementierung in einem Game herankommen.

DLSS ist temporales Supersampling mit dem Buzzwort Deep Learning dran geklatscht. Wobei am Ende der Renderpipeline von DLSS ja tatsächlich ein neuronales Netz z.b. zur Unterdrückung von Moire-Artefakten zum Einsatz kommt.

Jetzt wird der eine oder andere vielleicht argumentieren:,,Was redest Du da? Natürlich ist es Upsampling, wenn die interne Renderauflösung niedriger als die Zielauflösung ist."
Mein Argument dagegen ist jedoch, dass es zum Upscaling erstmal ein Bild in einer niedrigeren Auflösung braucht, was dann hochgerechnet werden kann. Doch das eigentliche Bild entsteht erst final im Framebuffer. Es gibt kein Bild, welches upgescaled wird, man hat man lediglich die Samples, die über einen bis x Frames gesammelt wurden, sowie z.b. Motion-Vektoren. Ein einzelner Frame generiert zwar nur genug Samples für z.b. 540p, doch insgesamt hat man bereits temporale Bildinformationen für ein 1080p Bild oder sogar noch wesentlich mehr, die vom neuronalen Netzwerk nur noch hübsch gemacht werden. Es muss keine zusätzlichen Informationen für das Bild ,,halluzinieren" wie es, optisch scheinbar, noch in DLSS 1.0 der Fall war oder in Upscalern für Fotos. Das ist auch der Grund, warum in DLSS 2.0 der "Ölpainting-Effekt" verschwunden ist. Denn es wird streng genommen gar nicht upgescaled... Es ist auch keine Magie, dass mehr Details da sind als in der ,,Renderauflösung". Denn diese Details wurden über ein Jitter der Samplingkoordinaten über die letzten Frames gesammelt und nicht von einem neuronalen Netz generiert. Deshalb muss auch kein Supercomputer mehr für jedes Game rechnen. Denn die Bildinhalte sind DLSS 2.0 fast egal.
 
Zuletzt bearbeitet:
War mal ein wenig in der Engine "spazieren" und hab die "Grenzen" gesprengt.

So läuft das ganze mit 64 chunks
minecraft64chunks.jpg

Mit 32
minecraft32chunks.jpg

Und das in Fullhd DLSS mit nem 5GHz 9900K und 32GB 4133er RAM mit engen Timings und ner 2080TI.
Übrigens wird auf die volle Sichtweite und ohne LOD gepathtraced....

Und man muss dazu sagen, dass es sich um DIE Killer- Map handelt. Auf den anderen Maps kann man ohne Probleme 32 Chunks mit 60 FPS auf 1080p fahren.

LG
Zero
 
Zuletzt bearbeitet:
Nein, bei DLSS wird in niedrigerer Auflösung gerendert und dann Hochskaliert
Es werden nur bestimmte Teile des Bildes in niedrigerer Auflösung gerendert.

wobei dabei die Ergebnisse eines ai-Trainings über die TensorCores miteinfliesen.
Genau - Am Ende des Rendervorgangs nähern die Tensor Cores das Bild der (vermuteten bzw. angelernten) Ground Truth an.

Es gibt dabei keinerlei temporäre komponente.
Wenn Du über Jitter akkumulierst (und das sorgt ja unter Anderem dafür, dass man so gut wie keine Auflösungseinbußen beim fertigen Frame hat), dann steckt in dem Vorgang schon was drin, was man auch "temporal" bezeichnen kann.
Je höher die Spreitzung der Render- zur Zielauflösung umso öfter muss gejittert werden.

Doch, genau das. Die Ergebnisse des neuronalen Netzwerks geben an wo und wie zusätzliche Details eingefügt werden. Im Grunde genommen kann man sagen es "schätzt" ab wie es aussehen sollte, ähnlich wie zB in Photoshop das "content-aware"-Fill funktioniert.
Es ist eine Mischung aus Beidem. Im Idealen Fall hat der inferencing Datensatz rudimentäre Information zu einer Szene gespeichert. Dann kann zusätzliches Detail über den DL- Teil kommen.
Ansonsten verhält es sich so, wie Geldmann3 beschrieben hat, nämlich dass die Akkumulation und der Jitter für die Details sorgen. Somit "bescheisst" man also nicht wirklich, was die Auflösung anbelangt.
Man induziert, um den Nachteil zu nennen, aber Lag und Ghosting, wenn die Positionsvorhersage über die Bewegungsvektoren Fehler macht..

Dieser "tradeoff" ist aber ohne mit der Wimper zu zucken einzugehen, wenn man das Endergebnis betrachtet.

LG
Zero
 
Zuletzt bearbeitet:
Zurück