Minecraft RTX... - Das sagen die PCGH-Redakteure dazu

Ich kann nichts dafür wenn du nicht schreiben kannst und keine Ahnung hast was die Wörter die du versuchst zu verwenden eigentlich bedeuten.
Muss schön sein so ignorant durchs leben zu laufen und einfach alles was man nicht versteht mit Lügen aufzufüllen wie du hier zeigst.

Hm... in wiefern könnten wohl LEvel-Saves außerhalb des Spiels sein.... ja, was für eine schwere und tiefe Frage.... :ugly:

Du meinst einfachste Konvertierung von Bildern... uh, wo hab ich das nur schon gehört.

Ich bin nicht der ungebildete der hier eine Falschaussage und Lüge nach deren anderen bringt. Aber hey - nette behauptung - hast DU dafür irgendeinen Beleg? Was hab ich denn bisher deiner meinung nach behauptet? Ist ja schön das du so beispielhaft mit einer unbelegten behauptung vorran gehst.
1. Klar mach gleich weiter mit Versuchen das ganze auf ein persönliches Niveau herunter zu bringen. Denkst du ernsthaft das du mich damit kriegst? :lol:
2. Ja nun, das einzige was an Level Saves außerhalb des Spiels ist sind die Dateien des Saves, denn diese liegen nicht im Root Ordner des Spiels oder willst du damit sagen das die nicht Teil der Spielmechanik sind, denn das sind sie in gewissem Maß schon. Dafür muss man sich nur fünf Minuten mit dem Spielprinzip außeinander gesetzt haben.
3. Hat überhaupt nichts mit Konvertierung zu tun, die Texturen enthalten verschiedene Informationen zu den Eigenschaften des Materials (Reflexionsvermögen, Rauheit, Opazität, Metallartigkeit usw., habe die Begriffe extra ins Deutsche übersetzt). Diese Eigenschaften beeinflussen dann wie das Material beleuchtet wird. Wie diese Eigenschaften das Resultat beeinflussen kannst du gerne hier nachlesen: The PBR Guide - Part 1 on Substance Academy
Das extra zu erklären würde den Rahmen sprengen und Ich denke nicht das es sinnvoll ist so viel Zeit in eine Erklärung zu investieren die du vermutlich eh nicht lesen wirst.
4. Siehe Punkt 1. Ich habe zudem schon zu einigen meiner Argumente weiterführende Artikel verlinkt, du hast noch rein gar nichts verlinkt und deine gesamte Diskussionskette bis hierhin ist "Du weißt nichts darüber, Ich weiß alles besser ohne das Ich irgendeinen Beleg oder irgendeine Erklärung liefern muss die beweist das Ich Ahnung habe". Insofern ist deine prominenteste Behauptung bis jetzt das Ich mit allem was Ich so angeführt habe falsch liege, ohne das du auch nur einen Hauch von Belegen für diese These geliefert hast. Ich kann bei der Gelegenheit auch gleich mal mit deinen Thesen vom Anfang des Threads aufräumen.

Das ist derzeit (noch) ein Problem der implementierung bei Minecraft, in keinster weise aber Raytracing-inheränt.
Das ist sehr wohl eine Gemeinsamkeit bei allen Implementierungen von Raytracing in interaktiven Echtzeit-Anwendungen wie Spielen. Liegt natürlich nicht am Raytracer selbst aber um auch nur annähernd brauchbare Resultate mit akzeptabler Performance zu erreichen kann man das Bild entweder Blurren wie man lustig ist, was jedoch in extremem Detailverlust resultiert und vermutlich durch sog. "cache misses" auch noch die Performance negativ beeinflussen würde, insbesondere wenn der Blur-Radius groß ist oder man nutzt Accumulation mit dazugehörigen Artefakten.

2 komplett Unterschiedliche Ansätze und Ergebnisse.
das eine ist "nur" raytracing für direkte Beleuchtung und Spiegelung, das andere für alles.
Eines mit korrekt interagierenden Texturen, das andere hardcoded.
ja, ein paar leute haben anschienend probleme mit den Augen oder haben noch nie gesehen wie sich Licht in der Realität verhält - so wie die gefakten Strahlen bei den java-shadern jedenfalls nicht.
Zufällig gibt es nicht besonders viel mehr was man in der Hinsicht mit Raytracing berechnen kann als Beleuchtung, Reflektionen, Refraktion bzw. Lichtbrechung sowie ggf. volumetrische Effekte. Die ersten drei kannst du so direkt auch in einigen Java-Shader Packs finden. Volumetrische Effekte sind an sich schon performanceintensiv genug weswegen dafür meist eine reguläre Shadowmap genutzt wird, auch weil der visuelle Zugewinn von Raytracing in dem konkreten Fall relativ gering für die erhöhte Komplexität ist.
Ich nehme an deine Aussage mit "Hardcoded" bezieht sich auf Java-Shader Packs und kann daher sagen das diese komplett falsch ist. Auch für die Java-Edition gibt es Resourcepacks die die oben erwähnten Texturen zu den Materialeigenschaften enthalten und diese dementsprechend für Beleuchtungs- und Reflektionsverhalten nutzen. Dafür hättest du dich nur kurz über das wovon du redest informieren müssen. Den letzten Satz habe ich schon in einem Post zerlegt, also werde ich den jetzt mal zitieren:
Kann ich dir genauso unterstellen. Da ist nichts mit gefaked bei den Java Shaderpacks, außer du sprichst von Screenspace Godrays aber die sind nur noch unter alten bzw. Low-End Packs verbreitet. Das was der RTX Patch da abliefert ist allein visuell schon deutlich inkorrekter als vieles was du unter den Java Packs findest (siehe Volumetric Fog bei z.B. Continuum, derartiges ist deutlich verbreiteter als die meisten wissen).

genau das gegenteil ist der Fall - Minecraft windows edition berechnet Volumetrischen Nebel und als quasi Nebeneffekt kommen dabei physikalisch korrekte Godrays mit.
Bei deinem Screenshot hingegen sieht man direkt gleich ein schönes merkmal von Fakes: falsche Ergebnisse.
Kann ja durchaus sein das es dir so besser gefällt oder du wirklich ahnungslos bist und nicht weisst wie es außerhalb deines Kellers aussieht.
Dazu hatte Ich in meiner dazugehörigen Antwort noch vergessen zu sagen das volumetrischer Nebel und dessen Interaktion mit Licht nie ein "Nebeneffekt" ist. Volumetrische Effekte wie Nebel oder Wolken benötigen je nach gewünschtem Resultat teils durchaus aufwändige Raymarching-Implementierungen. Raytracing für die Licht-Interaktion dieser Effekte ehöht die Komplexität dann noch einmal deutlich da auch dort für annehmbare Resultate in Echtzeit eine temporale Komponente (Accumulation) sowie Filtering nötig ist. Dies ist allerdings aufgrund der Tatsache das Nebel eben kein solides Objekt mit einer klar bestimmbaren Oberfläche ist deutlich aufwändiger. Das ist auch einer der Gründe warum man zu raytraced volumetric lighting relativ wenig findet und der RTX Patch die erste Implementierung in ein Massenmarkt-Produkt zu sein scheint, mit den dazugehörigen Schwächen.


Nach diesem Post kamen dann nur noch Sätze von dir wie
Tja, wer keine Ahnung hat so wie du der muss halt bullshit schreiben.

oder

ich frag mich ja wie du es überhaupt schaffst heir etwas zu schreiben denn lesen kannst du ja offensichtlich nicht [...]
Aber ok, ist ja verständlich - sind hübsche Bildchen, das magst du, das kennst du, da muss man ja auch nix verstehen XD

und natürlich

Ich kann nichts dafür das ihr so dermaén unfähig seit - das ist rein euer eigener "verdienst".

So und wenn du das alles mal durchgelesen hast kannst du noch mal schön gründlich überlegen wer hier "ignorant", "unfähig" und "ungebildet" ist wie du es so schön sagst und so ziemlich nie seine Thesen fachlich begründet oder irgendwelche weiterführenden Artikel als Belege liefert.


Edit: Ach nehmen wir die nachträglich zugefügte Aussage gleich mit, der Vollständigkeit halber :ugly:
Mich würds ja nicht wundern wenn jetzt noch ein Kind daher kommt und behauptet man kann einen OpenGL Shader einfach so ebi DirectX reinkopieren oder das Software-Raytracing schneller und effizienter ist als per Hardware - das Niveau wäre das selbe.
Du wärst überrascht wie Ähnlich sich HLSL (die primär genutzte Shading-Language von DirectX) und GLSL (das OpenGL Pendant) sind. Das ist bis auf ein paar Syntax Unterschiede die ich fast schon als unwesentlich bezeichnen würde praktisch wie eine Programmiersprache. Das hier wird dich bestimmt schockieren: Es gibt sogar Cross-Compiler die HLSL für OpenGL und GLSL für DirectX kompilieren. Der von HLSL zu OpenGL stammt sogar von Microsoft selbst GitHub - microsoft/ShaderConductor: ShaderConductor is a tool designed for cross-compiling HLSL to other shading languages :lol:
 
Zuletzt bearbeitet:
Die GodRays wie sie in miencraft-RT jetzt vorkommen sind ein direktes Ergebnis von volumetrischer Atmosphäre und Raytracing und damit das genaue gegenteil deiner behauptung von "inkorrekt".
In Minecraft RTX und keinem einziges Spiel bisher kommt Volume-Ray-Casting oder volumetrisches Raytracing zum Einsatz. Woher holst du nur diesen Unsinn! VRC berechnet aus 3D Volumedaten 2D Scalarfelder. Das in Minecraft RTX zum Einsatz kommende Pathtracing basiert auf Oberflächenreflektionen je nach Instancen der PBR Texturen. Unter volumetrischem Raycasting werden keine sekundären Rays erzeugt!

Das gleiche kann ich unter schnödem DX11 ohne irgendwas abbilden. Die Show die du hier abziehst, ist an Lächerlichkeit nicht mehr zu überbieten.

Anhang anzeigen 1086708
 
Über diese Karte rede ich gar nicht erst. ;) Fernab der Realität, was normale Preise angeht.
Die 80Tis sind für mich gestorben. Warum hab ich denn keine Turing gekauft, sondern ne gebrauchte 1080Ti ? Um zu zeigen, dass ich solche Preise nicht unterstütze, die die magische 1000er Schwelle überschreiten.

Mittlerweile müssen die 80er das bringen, was früher nur die Tis konnten. Ich will jedenfalls nicht über 1000€ für eine GPU ausgeben. Das dürfen andere gerne übernehmen, denn der Markt/die Nachfrage scheint ja da zu sein. Is aber nicht mein Ding. :)



edit:



Meine gebrauchte hat weniger gekostet. :)

Es gibt schon Alternativen, zu wahnsinnigen Neupreisen.
Einfach ältere Modelle gebraucht kaufen.
Und wie man sieht ... das Teil läuft und läuft und läuft. Top und immer schön kühl. Sogar beim Falten. Die GPU wird schon richtig hart genutzt. Also geht's auch mit Gebrauchtkarten.

Da hättest damals zuschlagen müssen.
Die RTX 2080 Ti (Blower) für 585 € oder eine "normale" für 899 € … ;-)

MfG Föhn.
 

Anhänge

  • 2080 Ti 1.jpg
    2080 Ti 1.jpg
    517,4 KB · Aufrufe: 16
  • 2080 Ti 2.jpg
    2080 Ti 2.jpg
    545,3 KB · Aufrufe: 18
Gratuliere - in absichtlich nichts verstehen bist du Spitze - willst also wirklich behaupten ein Speicherformat ist Teil der Render-engine? XD

Oder wie bei jedem größerem Film und jetzt auch eben bei Minecraft - die Grafik selbst.

Du kannst dich gerne selbst Zitieren - aber deine Falschaussagen bleiben Falschaussagen egal wie oft du sie wiederholst. Die GodRays wie sie in miencraft-RT jetzt vorkommen sind ein direktes Ergebnis von volumetrischer Atmosphäre und Raytracing und damit das genaue gegenteil deiner behauptung von "inkorrekt".

Wenn man wenig Ahnung davon hat sicher.

Echt super wie du heir kein einziges Argument bringst und deine ignoranz und selbstüberschätzung darlegst.

Danke nochmal das du so schön zeigst das du keinerlei Argumente hast.

Ach Mensch muss ich das echt noch mal für dich runterbrechen :schief:

1. Niemand hat was von Render Engine gesagt. Ich zitiere mal deine Aussagen auf die Ich damit geantwortet habe:
Texturen und level - alles eben was außerhalb des games ist.
Hm... in wiefern könnten wohl LEvel-Saves außerhalb des Spiels sein.... ja, was für eine schwere und tiefe Frage.... :ugly:
Wäre mir neu das "Render-Engine" ein Synonym für "Spiel" oder "Game" ist du Vogel :lol:
Außer du bist der Meinung das du in auch nur im entferntesten zu entscheiden hast wie die Terminologie der Industrie zu definieren ist. In deinen Worten, im absichtlich nichts verstehen bist du Spitze ebenso wie im Vergessen der eigenen Aussagen um dir irgeneinen Fluchtweg aus der Diskussion zu suchen. Muss echt schwer für dich sein zu akzeptieren wenn jemand sich nicht von deinen "Argument-Irrlichten" verwirren lässt.

2. Aha, eine handvoll grundlegende Effekte sind also "die Grafik selbst". Das Texturen und Geometrien mindestens genau so viel Anteil am Endresultat haben ist dir klar oder? Wir wollen außerdem doch nicht das gute Post-Processing vergessen was in Zeiten des HDR-Renderings in modernen Engines in Form von Tonemaps essenziell ist.
3. Was für eine volumetrische Atmosphäre, etwa die die nach ein paar dutzend Metern Höhe aufhört? Das ist allenfalls eine nette Schicht Nebel und kann aufgrund des Mangels an Rayleigh-Scattering (du erinnerst dich doch bestimmt) nicht als Atmosphäre bezeichnet werden :lol:
(Hinweis: Ohne Rayleigh-Scattering wäre unsere Atmosphäre nicht so schön blau)

4. Ja dann zeig mir doch mal wie viel Ahnung du hast und schreib mal nen Raymarcher. Ich hab das schon dutzend mal gemacht und für mich ist das inzwischen trivial, ändert aber nichts daran das es durchaus etwas aufwändiger zu programmieren ist als z.B. simpelstes Diffuse-Shading.

5. Ach ja, was waren noch mal deine Argumente in diesem Post außer dein Pseudo-Müll wie "Falschaussagen bleiben Falschaussagen", "Wenn man wenig Ahnung davon hat"? Und dann unterstellst du mir Ignoranz und Selbstüberschätzung, sicher das du beim Schreiben nicht zufällig dauerhaft in den Spiegel guckst? :ugly:
Kannst du mir bitte mal handfeste Beweise mit Belegen liefern warum das eine Falschaussage ist oder ist das schon zu viel verlangt?

Mal schauen, dein nächster Post wird bestimmt wieder keinerlei belegbare Argumente enthalten, mir unterstellen Ich hätte keine Ahnung und wieder irgendeine Form von persönlichen Angriffen enthalten. Sehr durchschaubar dein Schema (und auch unterhaltsam bei jedem Post erneut Hühnchen zu rupfen, du solltest wissen das du aktuell etwa 30 Devs mit deinem Verhalten vorzüglich unterhälst :ugly: ).
 
Zuletzt bearbeitet:
Da hättest damals zuschlagen müssen.
Die RTX 2080 Ti (Blower) für 585 € oder eine "normale" für 899 € … ;-)

MfG Föhn.


Die Blower Modelle mochte ich noch nie.

Und die andere war mir zu teuer für eine Palit, deren Vorgängergeneration kurz nach Start für um die 700€ zu bekommen war. Die 200-400€ Preissteigerung wollte ich nicht mitgehen und somit irgendeine andere Lösung suchen, um das nicht zu unterstützen.

Das habe ich am 31.08.2018 geschrieben:
Mittlerweile gehe ich bei der 2080Ti vom üblichen Leistungsplus bei einer neuen Generation aus, gegenüber einem guten 1080Ti Custom Modell, was für mich den (deutlichen) Aufpreis zur Vorgeneration nicht rechtfertigt, denn das raytracing sehe ich erst einmal nur als zusätzliches Gimmick und eine Testspielerei an, die man mit dieser Generation noch nicht braucht.
Des weiteren Schätze ich, dass erst die nächste 7nm Generation ein klar und deutliches Leistungsplus gegenüber Pascal(1080Ti) haben und dann evtl. auch besser für raytracing geeignet sein wird.


Hab dann lieber Anfang 9/2018 für 570€ bei einer Asus 1080Ti Strix OC zugeschlagen(dieses Modell gefiel mir in Tests sehr gut), ohne runterhandeln. Über Ebay Kleinanzeigen.

Einfach gemailt ... Preis is ok(da war sie ca. 6-9 Monate alt und Neupreis war 999€) ... wann kann ich sie abholen ? Und schwupps, war sie meine. Seit dem wird sie richtig hart rangenommen. :D
Hab mir gedacht, dass wenn ich die wieder gebraucht verkaufe, der Verlust dann nicht ganz so groß sein wird, als wenn ich mir damals ne neue GPU gekauft hätte(wenn ich dafür noch 250€ kriege, is das ok für mich).

Eigentlich ist die 1080Ti nur ne Turing-Überbrückungskarte, bis zu den 3000ern. Da hoffe ich dann auf ein wirklich deutliches Leistungsplus zu den pascal Karten und auch nach den ersten tests, klar mehr RT-Power, denn sonst kann man sich diese Technik eigentlich gleich klemmen, wenn es nur zu Geruckel führt.
Schätze ab 2021 muss das mit RT richtig durchstarten, wenn das noch was werden soll, inkl. AMD und neue Konsolen.

Und meine Schmerzgrenze für eine 3080 habe ich auch bereits klar festgemacht, um nicht von einem zu großen Hype überrannt zu werden. Absolute Maximalschmerzgrenze(sehr gern weniger) ist für mich für eine gute Custom 3080 bei 880€.
edit: Wie ich in einer komplizierten, wissenschaftlichen Formel meine neue Schmerzgrenze für die 3080 berechnet habe ;) : https://extreme.pcgameshardware.de/...ne-grafikkarte-aus-2020-a-4.html#post10187326
Und falls die nur 8GB spendiert bekomme, werde ich komplett passen und auf die 4000er Karten warten. 8GB ist Ende 2020 einfach nicht mehr drin für mich. Zu wenig.

Oder auf ein gutes Gebrauchtangebot. :D Die finde ich mittlerweile ganz nett. :)

Irgendwie werde ich schon ne Lösung für mich finden. :daumen:



edit:

Ganz nebenbei hab ich die letzten Monate die meiste Zeit mit den Spielen Wreckfest und RDR2 verbracht, die noch gar kein RT/DLSS unterstützen.
So gesehen ... :ka:
 
Zuletzt bearbeitet:
Immer wieder lustig wie wenig du doch verstehst.

Auf jeden Fall mehr als du zu glauben weist. Den GLSL Shaders Mod Pack kannst du seit April 2016 auf bekannter Webseite herunterladen und der gilt als Vorform für das PTGI. Ich weiß ja nicht, was du seit 2016 so getrieben hast! Im Keller gewohnt?

Mich wundert das Raff da so fasziniert ist, hätte er alles bereits haben können, völlig ohne RTX.:D

Zumal Nv unter den RTX PBR Texturpacks einfach GI vollständig abschaltet, wie man in seinem Video sieht. Oder er es selbst so vergleicht. Ich hätte mir dann Vergleiche mit einer GI Mod Version gewünscht, vor allem was die Framerate angeht.

SEUS | Sonic Ether
 
Zuletzt bearbeitet von einem Moderator:
Hier ist ein Vergleich.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Meine Analyse:

Szene 1 (Raum mit verschiedenfarbigem Boden).
-Gewinner RTX ->
Inkorrekte Light Propagation / Verschattung bei SEUSPTGI

Szene 2 (Grüner Korridor)
-Gewinner RTX ->
Verschattungs- Thema führt sich fort. SEUSPTGI hat wohl Schwächen in der Bounceanzahl. Der Zwischenraum zwischen dem blauen und roten Licht nimmt die Farbwerte der gegenüberliegenden Wand nicht richtig auf.
Negativ:Farben bei RTX wirken übersättigt.

Szene 3 (Dunkler Korridor)
-Gewinner RTX ->
Auch hier sieht es so aus, als ob die Anzahl an Bounces in der RTX Version höher liegt

Szene 4 (Lavaraum)
-Unentschieden
-> Szene unterscheidet sich meines Erachtens nur darin, dass die RTX Version emissive lighting unterstützt -> Ließe sich bei PTGI über Umwege auch erreichen

Szene 5 (Boot/Wassersimulation)
-Sieger SEUS PTGI
-> In ruhigem, klaren Wasser sollten die Reflexionen näher an Pixelperfect denn an diffusen Spiegelungen sein
-Die Wellensimulation ist bei PTGI deutlich natürlicher/homogener.
-Kaustiken sind wohl in der RTX Version berechnet und nicht simuliert -> Plus für RTX
-Überstrahlen/Atmospheric scattering ist in der RTX Version stark übertrieben (oder herrscht dort Smog- Alarm oder ein Sandsturm?)
-SEUSPTGI zeigt naturgemäß wieder Schwächen in der Verschattung
-Wolkensimulation wurde wohl aus gutem Grund ;) bei der RTX Version deaktiviert->Diese als unterirdisch zu bezeichnen wäre noch ein Kompliment

Szene 6 (Marktplatz)
-Sieger SEUS PTGI
->Schönere Wettersimulation
-Colour grading
-Vorteil RTX beim light bouncing

Szene 7 (Nachfolgeszene)
-Sieger SEUSPTGI
-Schwächen RTX im Atmopsheric scattering+Farbgebung/Intensität

Szene 8 (Baum)
-Sieger RTX
->Bouncelight bringt überhaupt erst Struktur in den Baum, wenngleich auch hier wieder die Farbgebung schlechter ist/Atmospheric scattering bzw. God Rays völlig übertrieben

Szene 8 (Stadt)
-Unentschieden
->Wie immer ist die Farbgebung/Lichtstimmung von PTGI deutlich akzentuierter
-Wie immer sind die Schatten schwächer, wenn auch dadurch akzentuierter.
-Wie immer fehlen PTGI Bounces

Szene 9 (Berglandschaft)
-Sieger SEUSPTGI
->Wieder die realistischere "Gesamtstimmung".

Szene 10 (Dschungel/Wald)
-Sieger RTX
->Verschattung
-Wieder die höhere Bounce- Light- Anzahl, die dem Wald mehr Struktur gibt.

Szene 11 (Ausblick auf Stadt)
-Sieger RTX
->Verschattung
-SEUSPTGI scheint die Berechnung des kompletten rückwärtigen Raumes nicht in die Farbgebung der Szene im Screenspace zu übertragen
-Schatten viel zu hart
-Wieder werden die bounces vom Boden nicht richtig aufgenommen

Letzte Szene sieht für mich so aus, als ob da ein anderer Sonnenstand herrscht -> Bleibt aus der Bewertung raus

Gesamtsieg:
Art- Style / Überlegene Shaderarbeit / Gesamteindruck:SEUSPTGI
Technik/akkuratere Berechnung:Mit bequemer Führung RTX

Vorsicht- Sind nur meine 2 cents und ist nur das, was mir so auf den ersten Blick ins Auge sticht.
Analyse erhebt keinen Anspruch auf Vollständigkeit/technische Korrektheit

LG
Zero
 
Zuletzt bearbeitet:
Gesamtsieg:
Art- Style / Überlegene Shaderarbeit / Gesamteindruck:SEUSPTGI
Technik/akkuratere Berechnung:Mit deutlicher Führung RTX

Vorsicht- Sind nur meine 2 cents

Hab mal kurz reingeschaut. Aus meiner Sicht sieht RTX in Innenbereichen(auch im Lavaraum) besser aus, in Außenbereichen (Wasserszene/Markt usw.) gefällt mir das Andere(wie immer das heißen mag und was auch immer das ist ;) ) besser. Da ist die RTX Version irgendwie zu hell/grell.
Letzteres sieht da gar nicht gut aus, finde ich.

Nur kurz reingeschaut, in's Video.
 
Da ist die RTX Version irgendwie zu hell/grell.
Sehe ich auch so- Das geht teils schon arg ins "Clipping". Da ist noch Finetuning angesagt und noch Arbeit an den Shadern / Wetterberechnung, atmosphärischen Effekten etc. Da hinkt Microsoft/nvidia ihren Kollegen der Java- Version noch deutlich hinterher.

Die technische Basis, also Berechnungsumfang-/Tiefe-/Genauigkeit der RTX- Version ist allerdings sichtbar stärker. - Und das wäre ja eben schon sehr peinlich gewesen, wenn es in Sachen Berechnungsgenauigkeit/Bounces etc. bei all der zusätzlichen Rechenkraft den Kürzeren gezogen hätte.
Tut es aber schon jetzt in der Beta nicht.

Obwohl ich mit Minecraft eigentlich garnichts am Hut habe und die Faszination bis jetzt auch nicht nachvollziehen konnte, hab ich mich gestern mal hingesetzt und angefangen aus Klötzchen ein Haus zu bauen.
Was soll ich sagen- Schwups waren 3 Stunden beim Teufel, dafür aber ein Haus mit Swimming- Pool im Keller inkl. Lichtschächten gebaut und es hat einen riesen Spaß gemacht.

Das sieht schon spitze aus, wenn man entsprechende Assets verbaut. Da möchte man glatt sofort einziehen ;)
Vielleicht werde ich ja doch noch ein Freund der Klötzchenwelt.

LG
Zero
 
Zuletzt bearbeitet:
Ich meine aber auch mitbekommen zu haben das der RTX Patch definitiv deutlich mehr Bounces erlaubt als PTGI, besonders weil PTGI in der Hinsicht standardmäßig etwas unterbesetzt ist. Ausm Kopf waren das irgenwie ein oder zwei Bounces (auf jeden Fall zu wenig :ugly: ) per Default bei PTGI. Imo müssten das schon mindestens vier oder fünf für angemessenere Ergebnisse sein. Ist halt eine von den Abkürzungen die Ich schon erwähnte ;)
Aber was den technischen Aspekt angeht kann Ich weitestgehend zustimmen (in puncto Beleuchtungsmethodik), das scheint auch nicht das Hauptproblem zu sein. Es ist vielmehr wie diese Technologien eingesetzt wurden was dem Gesamtpaket in gewisser Weise das Genick bricht, zusammen mit der Tatsache das eine spielbare Performance wohl maßgeblich von DLSS abhängt. Das ist das einzige was an dem Ganzen dann sehr Eigenartig erscheint, trotz Hardware-Beschleunigung scheint es in nativer Auflösung mehr oder weniger ähnlich bzw. sogar langsamer zu performen als so manche Software-Implementierung auf der Java-Edition :hmm:
 
Zuletzt bearbeitet:
. Das ist das einzige was an dem Ganzen dann sehr Eigenartig erscheint, trotz Hardware-Beschleunigung scheint es in nativer Auflösung mehr oder weniger ähnlich bzw. sogar langsamer zu performen scheint also so manche Software-Implementierung auf der Java-Edition :hmm:
Da geb ich Dir recht- Irgendwas stimmt da noch ganz und garnicht, obwohl da umfänglicher berechnet wird.
 
Die Texturen liegen grundsätzlich in drei verschiedenen Qualitätsstufen vor (mal unabhängig vom RGB Value), die höchste Stufe (1024x1024) erreicht natürlich die höchsten visuellen Ergebnisse was die Optik angeht, kostet aber auch immens VRAM, wie man in Raffs Video gut sehen kann (wenn auch etwas verwackelt...:D).

Die Demos liegen also in drei Qualitätstufen vor, weil sie eigentlich nur aufzeigen sollen, was visuell möglich ist. Leider lassen sich nicht alle MC Maps auf RTX übertragen.

Was die Volumetric angeht, sind einfach die höher aufgelösten Farbabstufungen eines 16 oder 32bit RGB Value unter 3D Space Neighbor dafür zuständig. Mal ein Vergleich: ein 8bit Frame kann auf einem Monitor mit 256 Abstufungen pro Kanal wiedergegeben werden (RGB 256³=16,7mio), ein 10bit mit 1024 (1024³=1,07mrd Farben) bei einem passenden Texturset.

Es ist also vor allen das Padding Set und der RGB Channelmix, was hier auf die Texturen übertragen wurde, die visuell deutlich besser rüberkommen, was man auch muss weil DLSS den ursprünglichen Helligkeitswert deutlich abschwächt.

Der Ambient Occulsion Mix ist ausgegraut und lässt sich also nicht aktivieren, daher kann auch ohne RTX keine Verschattung berechnet werden.

Was einem dabei Sorge machen kann ist der VRAM bedarf, der selbst auf einer 11GiB Karte an seine Grenzen stößt und das Streaming dann die Framerate deutlich nach unten drückt.

Komischerweise ist der RT Impact mittlerweile bekannt, aber alle Entwickler machen die gleichen Fehler. Man will einfach zuviel des Guten.
 
Was ich hier aufgelistet habe sind nur mögliche verbesserungen/Workarounds.
zB Strahlen durch bewegliche Objekte durch gehen zu lassen - eben weil sie beweglich sind sind sie auch am häufigsten von änderungen betroffen und würden davon profitieren das man den harten übergang vermeidet.
Man kann ja auch zB bei Blöcken deren Zustand sich ändert für 1 Frame einen Hilds-Block dort lassen der bei einem Hit dann mehr strahlen verwendet um die Übergänge zu verkürzen.
Wie gesagt - das sind methoden die die Artefakte minimieren bis ganz verhindern könnten aber alle natürlich mit ihren eigenen Kompromissen und Problemen.



Es gibt so einige Tricks die man anwenden kann, aber das sind dann eben Situationsspezifische und eher für jedes spiel einzeln anzuwenden. So hat SquareEnix dahingehend einiges an Forschung betrieben (die Paper sind frei zugänglich), aber das ist auch schon einige Jahre her.
Die RTX-Karten haben für die erste Generation schon ganz schön Dampf. Man kann aber halt nicht alles auf einmal haben, vor allem bei der ersten Generation. Tesselation hat auch lange gebraucht bis es sich halbwegs etabliert hat.

Tesselation ist auch kein neues Renderingverfahren, sondern ein Weg um die Polygone regelmäßiger Geometrieformen CPU- und PCI-E-schonend in die GPU zu bekommen. Dass das nicht allzu schnell adaptiert werden würde, habe ich damals schon vorhergesagt – weil es wesentlich seltener Mangel an CPU-Leistung oder PCI-E-Bandbreite denn an GPU-Leistung gab.

Raytraycing möchte aber nicht Nischenprobleme lösen, sondern verspricht eine bessere, nämlich physikalisch korrekte Grafikqualität. Und an diesem Anspruch muss sich auch die erste Hardware-Generation messen lassen und schneidet dabei in meinen Augen sehr schlecht ab. Mit Ausnahme von 100-Prozent-Reflexionen und komplett matten, einfach beleuchteten Oberflächen ohne Berücksichtigung von Streuung können die aktuellen RTX-Modelle quasi nichts bildschirmfüllend berechnen, sondern müssen intensiv tricksen. Das mag, wie von dir beschrieben, bei geschickter Anpassung auf die jeweilige Szene, zu einem optisch ansehnlichen Endergebnis führen. Aber wenn ich für jede Situation händisch Workarounds und Vereinfachungen definieren muss, die dann auf nicht-physikalischem Wege berechnet werden, oder sogar größtenteils auf Rasterizing zurückgreife: Wo bleibt dann der grundlegende Vorteil der nativen physikalischen Korrektheit? Ein Rasterizer spuckt, wenn man derart viel Handarbeit investiert, auch fehlerfreie Bilder aus. Und Spiegelungen auf ebenen Flächen kann er ebenfalls, solange es nicht zu viele werden, in gleicher Qualität bei geringerer Hardwarelast als die bislang gezeigten Raytraycing-Titel.

Einzig für spiegelnde, gekrümmte Flächen sehe ich die aktuelle RTX-Generation wirklich im Vorteil (siehe Star Wars Demo). Für alles andere ist Raytraycing beim heutigen Stand der Hardware in meinen Augen die schlechtere Wahl, bietet den Entwicklern aber einen teuflischen Deal an: Ein einfacher Raytraycer, der alles korrekt berechnet liefert langsame, fehlerfreie Ergebnisse ab. Die Geschwindigkeitsprobleme kann man zwar nur mit viel Entwicklungsaufwand lösen, alternativ aber auch durch eine niedrigere Auflösung kaschieren und weder Konsolen- noch DLSS-Fans scheinen sich daran zu stören. Ein Rasterizer dagegen würde die gleiche Szene beim gleichen Rechenleistungsbudget zwar direkt in 120 Fps UHD statt 60 Fps FHD darstellen, aber wenn man hier auf die händische Optimierung verzichtet, bleiben Grafikfehler zurück. Und die sieht man auch in Promo-Videos und Preview-Bildern. Dass heißt hier muss man zusätzliche Entwicklerzeit investieren. Und das auch noch auf eigene, statt auf Nvidias Kosten.


- Der Nebel nutzt Koeffizienten welche es erlauben eine realistische Absorption von dahinterliegenden Objekten zu berechnen. Ähnliche Koeffizienten werden genutzt um das sog. Scattering zu berechnen, was die Interaktion des Lichtes mit den Teilchen/Aerosolen ist (weiß gerade nicht was der korrekte deutsche Terminus dafür ist da ich ansonsten in dem Bereich nur auf Englisch unterwegs bin).[/URL]).

"Streuung"? Ist jedenfalls die richtige Übersetzung, auch wenn in Nebeltröpchen praktisch eine Lichtbrechung stattfindet.
 
Mehr zur Technik von Nvidia Entwicklern:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Mehr zur Technik von Nvidia Entwicklern:
Nett- Interessant auch, dass sie tatsächlich nicht mehr primär rastern (machen Sie für einige Effekte im Nachgang), sondern dass vom Pathtracing wirklich alle Farbinformationen auf die Pixel des Bildschirms übertragen werden..
Dann wundert mich auch die Performance nicht wirklich und das lässt die Implementierung nochmal in einem anderen Licht erscheinen.

Auch schön zu hören, dass sie noch Verbesserungs-/ und Beschleunigungspotenzial sehen, was sie bis zur finalen Version auch umsetzen wollen:
-Spielfigur erhält auch in der Ego- Perspektive einen Körper
-Es werden noch nicht sämtliche Lichtquellen (die emissive lighting Bausteine) in die volumetrische Beleuchtung/ das atmospheric scattering miteinbezogen
-Sie sehen noch Geschwindigkeitspotenzial bei der Optimierung der Denoiser und des irradiance- Caches und des VRAM- Abdrucks
-Sie arbeiten noch an der Beseitigung diversen Ghostings/zu lang andauernder temporaler Akkumulation

Und- Und da hat der Alex von Digitalfoundry voll ins Schwarze getroffen->nvidia arbeitet wohl mit Hochdruck am Denoising mittels Tensor- Cores / Könnte man da nebst DLSS noch mehr Rechenlast von den Shadern nehmen, wäre das ein big Deal.
Und auch interessant, dass sie davon ausgehen, dass diese Implementation jederzeit auf einen anderen AAA Titel übertragbar wäre, da die sich Szenenkomplexität einer Minecraft- Map anspruchstechnisch durchaus mit anderen Produktionen vergleichen ließe. Die Klötzchenstruktur täuscht wohl...

Schöne Entwicklung. Wahnsinn, dass sowas heutzutage in dieser Rechentiefe in Realtime möglich ist.
Jetzt muss das ganze nur flott nach Cyberpunk 2077 übertragen werden... ;)

Zur Übernächsten Generation kann das mit dem AAA mit realtime- Pathtracing dann tatsächlich was werden (geht man davon aus, dass die Entwicklungsgeschwindigkeit sich fortsetzt).

Sehr schön...

LG
Zero
 
Zuletzt bearbeitet:
Nett- Interessant auch, dass sie tatsächlich nicht mehr primär rastern (machen Sie für einige Effekte im Nachgang), sondern dass vom Pathtracing wirklich alle Farbinformationen auf die Pixel des Bildschirms übertragen werden..
Dann wundert mich auch die Performance nicht wirklich und das lässt die Implementierung nochmal in einem anderen Licht erscheinen.

Auch schön zu hören, dass sie noch Verbesserungs-/ und Beschleunigungspotenzial sehen, was sie bis zur finalen Version auch umsetzen wollen:
-Spielfigur erhält auch in der Ego- Perspektive einen Körper
-Es werden noch nicht sämtliche Lichtquellen (die emissive lighting Bausteine) in die volumetrische Beleuchtung/ das atmospheric scattering miteinbezogen
-Sie sehen noch Geschwindigkeitspotenzial bei der Optimierung der Denoiser und des irradiance- Caches und des VRAM- Abdrucks
-Sie arbeiten noch an der Beseitigung diversen Ghostings/zu lang andauernder temporaler Akkumulation

Und- Und da hat der Alex von Digitalfoundry voll ins Schwarze getroffen->nvidia arbeitet wohl mit Hochdruck am Denoising mittels Tensor- Cores / Könnte man da nebst DLSS noch mehr Rechenlast von den Shadern nehmen, wäre das ein big Deeal.
Und auch interessant, dass sie davon ausgehen, dass diese Implementation jederzeit auf einen anderen AAA Titel übertragbar wäre, da die sich Szenenkomplexität einer Minecraft- Map anspruchstechnisch durchaus mit anderen Produktionen vergleichen ließe. Die Klötzchenstruktur täuscht wohl...

Schöne Entwicklung. Wahnsinn, dass sowas heutzutage in dieser Rechentiefe in Realtime möglich ist.
Jetzt muss das ganze nur flott nach Cyberpunk 2077 übertragen werden... ;)

Zur Übernächsten Generation kann das mit dem AAA mit realtime- Pathtracing dann tatsächlich was werden (geht man davon aus, dass die Entwicklungsgeschwindigkeit sich fortsetzt).

Sehr schön...

LG
Zero

Jep, das Video war sehr interessant! Nvidia hat echt was besonderes hier erschaffen.

Sehr viel Verbesserungspotenzial ist tatsächlich gegeben, besonders beim Denoising, hab während des Videos die ganze Zeit gehofft, dass Alex was bezüglich dessen fragt und ich wurde nicht enttäuscht :D Da der Denoising-Prozess tatsächlich das meiste der Render-Zeit in Anspruch nimmt (45%!!) könnte ein AI-Denoiser auf den Tensor Cores die Performance erheblich beschleunigen und vor allem auch die Shader ALUs entlasten. Diese Performance kann dann genutzt werden, um noch ein paar Ungereimtheiten auszubügeln und natürlich die Performance des Spiels erheblich zu steigern. Und da DLSS erst ganz am Ende des Frames angewendet wird, kann man den Denoising-Prozess auf den TC noch locker im Frame unterbringen. Einzige Achillesferse die ich hier sehe ist der VRAM, da AI-Denosing schon einiges an VRAM beanspruchen könnte. Wenn man aber am Speicherbedarf von Minecraft noch optimiert (besonders die Tempel-Map) könnte man das aber wieder ausgleichen, zumal auf den anderen Maps mit rund 3.8 GB allocation noch mehr als genug Spielraum sein sollte. Keine Ahnung ob man offline-AI Denosing mit Real Time AI Denoising in Hinsicht Speicherverbrauch vergleichen kann.

Naja diese Minecraft AAA Aussage würde ich eher skeptisch betrachten. Von der Performance her läuft ein Titel wie Doom Eternal zwar ähnlich flott wie Minecraft ohne RTX, aber bei Minecraft ohne RTX dümpelt die GPU-Last bei 20-40% bei ein paar hundert MHz, während die GPU bei DE voll beansprucht ist. Da kann man dann bei Path-Tracing in Minecraft natürlich wesentlich mehr rausholen. Nichtsdestotrotz wäre es interessant, aktuelle AAA Titel mit Path Tracing zu sehen, aber wie du schon sagtest, das wird man wohl erst übernächste Generation genießen können!
 
Zuletzt bearbeitet:
Moin und Hallo ins Forum.

Was ich grenzwertig finde, ist dass die Performance fehlt (schon klar Raytracing ist neu) ich aber über Geforce Now einfach etwas Rechneleistung dazubuchen könnte (lass es umstritten sein und jeder wird das nicht machen), aber gerade Spiele bei denen man frei modden oder entwickeln könnte aus der Liste verschwinden, so auch Xbox mit Minecraft.

Es kommt einem so vor, als wolle man sich von allen Seiten schützen und müsste man damit leben was andere (Nvidia, Publisher und Entwickler) einem grundsätzlich vorgeben. Gerade die Minecraft RTX Beta würde ja davon profitieren wenn mehr Ideen für Lösungen einfließen könnten die die Performance insgesamt steigern. Das muss gar nicht zu Lasten der Weitsicht gehen (Mipmaplevel, AA und AF Filter, was sowieso nichts kostet), denn Java macht es ja vor.

Ich habe ein Laptop mit einer 2070 und da wäre Rechenleistung dazu zu buchen, gar nicht so falsch. Ich spare trotzdem weil ich nicht Unsummen für die Hardware ausgeben muss, mobil bin und heutzutage das Internet vielerorts schnell genug ist.

MfG

userguide
 
Naja diese Minecraft AAA Aussage würde ich eher skeptisch betrachten. Von der Performance her läuft ein Titel wie Doom Eternal zwar ähnlich flott wie Minecraft ohne RTX, aber bei Minecraft ohne RTX dümpelt die GPU-Last bei 20-40% bei ein paar hundert MHz, während die GPU bei DE voll beansprucht ist. Da kann man dann bei Path-Tracing in Minecraft natürlich wesentlich mehr rausholen. Nichtsdestotrotz wäre es interessant, aktuelle AAA Titel mit Path Tracing zu sehen, aber wie du schon sagtest, das wird man wohl erst übernächste Generation genießen können!
Das AI Denoising basiert auf Nv iray und erzeugt grundsätzlich ein höheres CPU Scaling, zusätzlich zu den Drawcalls kann das Realtime zuviel werden. Zudem basiert Minecrafts PT auf dem Quakealgorithmus, der ein spatiles AA mitbringt um das Verrauschen zu glätten. Ohne dem könntest du das gar nicht ausführen. Die Raymenge würde unter RTGI/PTGI exorbitant explodieren.

Seinerzeit haben wir bereits auf Larabee ähnliche Verfahren am Laufen gehabt und Intel stellte das Projekt ein, weil die Rechenleistung dafür bei weitem nicht ausreichte und man es später dann zu Forschungszwecken allein auf CPUs laufen lies. Was sich dann ja auch durchsetzte. Nv hat viel aus OptiX übernommen, aber nicht bedacht das das Umfeld im Spielebereich sehr unterschiedlich ausfallen kann und allein die Optimierung auf einen Hardwarepart in dem Fall nicht angestrebt wird. Wenn man das machen würde, wären andere da vollkommen raus oder müssten das gleiche zertifizieren. Wo soll das enden?

Die CPU gilt in dem Fall grundsätzlich als Host und entgegen ihrer Behauptungen läuft viel auf der CPU, insbesondere auch RTX. Daher bindend man es sozusagen auch an DX12 um nämlich die freiwerdende Rechenleistung (CPU Optimierung, Multithread) nutzen zu können.

Ich habe ein Laptop mit einer 2070 und da wäre Rechenleistung dazu zu buchen, gar nicht so falsch. Ich spare trotzdem weil ich nicht Unsummen für die Hardware ausgeben muss, mobil bin und heutzutage das Internet vielerorts schnell genug ist.
Ich habe das so verstanden, dass Raytracing-RTX freie Hardware Rechenleistung dazu bucht, um den RT Part über GFN zu berechnen, sonst könnte Nv ja bald keine 2080ti mehr verkaufen, bzw. würde der Großteil einfach weniger in die Hardware investieren und dann fehlende Rechenleistung dazubuchen wie du es beschreibst. Würde ja preiswerter werden.:D

Kauf man sich einfach eine 2060s und bucht das fehlende für 5 Euro dazu, um dann auf 2080ti RTX Rechenleistung zu kommen. Dann brauche ich die 2080ti nicht mehr und komme über die Anwendungsdauer wohl preiswerter, müsste man mal ausrechnen.
 
Zuletzt bearbeitet von einem Moderator:
Alles in allem ist das ja im Grunde eine riesen Werbeveranstaltung für RTX Karten.
Mal gespannt, wie es in den meisten Titeln ab 2021 aussieht, oder auch in einem Cyberpunk(hoffentlich noch vor 2021 ;) ).

Die große Menge an guten Titeln fehlt halt noch. Und ich sehe auch noch keine große Verbreitung der Effekte.
Mal gespannt, wann es so richtig los geht.
Die neuen Konsolen und die AMD RT Karten sollten da einen Schub bringen. Aber das dauert halt alles noch ...

Zieht sich ...
 
Tesselation hilft mit der GPU-Last gewaltig wenn entsprechend eingesetzt das es quasi eine Feinkontrolle von LoD Darstellt. Nicht nur die Übertragung von vielen Polygonen braucht Leistung, Culling und Vertex-shader genauso. Auch wird damit teils beträchtlich an Geometrie-Speicher gespart - wenn man es eben zur Leistungssteigerung einsetzen will.
Wie immer klammerst du einem wichtigen Punkt aus, man spart zwar Speicherplatz muss aber viel mehr Vertices berechnen, was auch unter Upscaling zu Lasten der GPU-Shadereinheiten geht (Loadbalacing) selbst wenn man die Pipeline entlasten kann und man das Bild dann wieder niedriger aufgelöst ausgibt. Tesselierung gibt es schon viel länger als viele glauben, nur wurden die Berechnungen dafür schon vorab ausgeführt und dann für die Oberflächendarstellung impliziert. Ab dem Shadermodell 5 wird sie hardwarebeschleunigt ausgeführt, es müssen aber auch genug Einheiten dafür vorhanden sein. Zudem braucht es einen extra Kontrollshader der die Koordinatenpositionen bestimmt und einem Evaluationsshader der anhand dieser Koordinaten dann die Positionen der Vertices festlegt. Mit dem Displacement werden dann durch einem weiteren Shader anhand vorliegender Texturdaten Maps modelliert. Da ist der Speicherbedarf sicher zweitrangig, wird aber für viel Werbung immer als erstes vorgehalten und letztlich steigt er für das Vorhalten der Texturen im VRAM sogar an und spart rein gar nichts. Es geht in dem Vergleichsfall nämlich nur um die die reine Menge an Daten, allein zum visuellen Ergebnis und dem Aufwand dafür gesehen.

Je höher ich mit dem eigenen Anspruch gehe, desto größere Hardwareressourcen brauche ich (Rohpower, Shaderanzahl, Speicherplatz, nunmehr AI/KI Einheiten und RT Cores). Daran ändert sich auch die nächsten Jahre rein gar nichts. Die Frage ist inwieweit das bezahlbar bleibt und es auch zu dem gewünschten Ergebnis führt. Den Optimierungswahn dafür mal außen vorgelassen und die Mehrarbeit die Entwickler zukommt.
 
Zuletzt bearbeitet von einem Moderator:
Zurück