RDNA2-Grafikkarten: AMD spricht heute über Raytracing

AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Der Raytracing-teaser lässt auf nichts gute schließen - warum eine so simple und anspruchslose Szene? So wie das aussieht können das auch jetzige GPUs in Software rechnen. Hoffe das das wirklich nur eine schnell zusammengeschusterte demo war.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Da kommt bestimmt noch einiges neues und nettes von AMD und Nvidia auf uns zu.
Allerdings sind die Reflektionen in AMD´s Demo sehr niedrig aufgelöst und unscharf. Woran liegt das?
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Der Raytracing-teaser lässt auf nichts gute schließen [...]

Muss man abwarten. Man kennt die Geometriedetails nicht und ebensowenig die Auflösung und Fps. Was man jedoch erkennen konnte, war, dass da nahezu so gut wie fast alles (mal wieder übertrieben, wie bei solchen Demos übrlich) reflektierte, was durchaus schon eine beträchtliche Rechenleistung erfordern dürfte ... selbst wenn die Szenenkomplexität nicht ganz so hoch war ... Ich würde mich hier einfach von ersten Benchmarks zum Jahresende hin überraschen lassen. Mit dann auch AMD im Markt und Rayracing auch grundsätzlich verfügbar auf den Konsolen, wird die Weiterentwicklung beträchtlich schneller vorangehen.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Was mich da interessiert, wird RDNA ff. auch auf extra ausgewiesene Rechenkerne setzen oder läuft das bei AMD doch über Software? Vielleicht gibts eine abgespeckte oder Übergangslösung, ich hab da immer noch irgendwie diese Demo von Crytek im Kopf, die ja auf ner Vega lief.

AMD hat die Raytracing-Funktionalität in Form dedizierter Funktionseinheiten in die TMUs (Texture Mapping Units) gesteckt, u. a. um deren große Caches mitnutzen zu können. (M.Cerny hat das wohl im Rahmen seiner PS5-Vorstellung bestätigt.) Das zugehörige Patent hat AMD im Dezember 2017 aufgegeben.
Schlussendlich ist für den Endkunden lediglich relevant, dass auch hier dedizierte Hardware vorhanden ist, die größtenteils parallel zum übrigen Teil der GPU arbeiten kann. (Was dabei am Ende rauskommt, sprich wie gut, effizient, leistungsstark die RDNA2-Implementation ist, wird man in ersten Benchmarks sehen.)

Crytek's Neon Noir-Demo ist dagegen eine vollkommen eigene Sache. Die Cryengine hat bereits seit v3.8 (2HJ15) eine Voxel-based Global Illumination implementiert *), die konkret eine Variante der Sparse Voxel Octree Total Illumination implementiert. Beispielsweise in Kingdom Come Deliverance wird diese auch verwendet und ermögliche eine GI, die auch halbwegs performant mittels Voxeln berechnet werden kann.
Mit der Cryengine 5.6/5.7 hat man den Ansatz mit Blick auf Raytracing-Effekte erweitert, um so u. a. Reflektionen effizient berechnen zu können. Die Implementation läuft zwar über die Cryengine, also in Software, kommt ohne leistungsstarke Shader Prozessoren einer GPU aber nicht aus. Der Vorteil von Crytek's Ansatz ist, dass der nur "irgendeine" leistungsstarke GPU mit hoher Compute-Leistung braucht und keine spezielle Hardware. Mit dedizierter Hardwareunterstützung wird das Ganze aber natürlich dennoch deutlich schneller berechnet und ermöglicht weitaus komplexere Szenen und dementsprechend plant Crytek zukünftig auch in v5.7+ DX12 und Vulkan zu unterstützen, um auf diese Weise herstellerneutral direkt auf eine entsprechende Hardwarebeschleunigung zugreifen zu können. **)


*) Ein entsprechendes Gegenstück von nVidia ist bspw. deren VXGI, das auch in die Unreal Engine eingebunden werden konnte und seit etwa 2013 in der Entwicklung ist. Mit der nun im Markt befindlichen Raytracing-Hardware, wird deren VXGI aber wohl nur noch geringe Aufmerksamkeit zukommen.

**) Wahrscheinlich können sie ihre Engine hier relativ einfach skalieren, indem sie bspw. einfach die Refresh-Berechnungen pro Zeitintervall erhöhen und/oder die verwendeten Voxel für eine höhere Genauigkeit verkleinern.
Unterm Strich bleibt aber natürlich auch die Frage nach der Relevanz der Cryengine ... Ich weiß nicht, was noch so auf den Konsolen (kürzlich) erschien, aber aktuell scheinen Entwickler ohne Inhouse-Engine eher andere Engines als die Cryengine zu präferieren.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

*) Ein entsprechendes Gegenstück von nVidia ist bspw. deren VXGI, das auch in die Unreal Engine eingebunden werden konnte und seit etwa 2013 in der Entwicklung ist. Mit der nun im Markt befindlichen Raytracing-Hardware, wird deren VXGI aber wohl nur noch geringe Aufmerksamkeit zukommen.
Naja "aufmerksamkeit" war ja nie das Thema da es ja genau die ganzen von Nvidia entwickelten Grundlagen (alles openSource) sind auf denen Crytek aufbaut.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Amd berechnet einen node des Bvh Tree per Hardware und den Rest emuliert man per Software, dass kann man kaum als dediziertes RTRT bezeichnen, weil das den Entwicklern mehr Spielraum gibt und weiteren Zugriff, mit geringeren Hardwareanforderungen. Hört auf mit diesen sinnlosen Vergleichen!
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Naja "aufmerksamkeit" war ja nie das Thema da es ja genau die ganzen von Nvidia entwickelten Grundlagen (alles openSource) sind auf denen Crytek aufbaut.

nVidia verwendet hier eine andere Voxel-Technik namens Voxel Cone Tracing (Global Illumination). Hier bestand keine Notwendigkeit für Crytek, sich bei nVidia zu bedienen, zumal die nicht die "Erfinder" sind, denn entsprechend voxelbasierte Techniken sind schon bedeutend älter. Papiere aus dem universitären Bereich findet man hier schon in umfangreichem Maße um 2005 herum.
Der wesentliche Kick für die zuletzt beobachtete Entwickung war die schnelle Aktualisierung des Voxel-Trees, was für dynamische Szenen, wie in Spielen unerlässlich ist.

Und bzgl. "Aufmerksamkeit" meinte ich das Vorantreiben der eigenen Technik durch nVidia. Mit ihrer verfügbaren Raytracing-Hardware im Markt, wird man VXGI wohl kaum noch Ressourcen zuweisen und stattdessen auf eine direkte Raytracing-Berechnung verweisen, was aber auch ok ist ...
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Und bzgl. "Aufmerksamkeit" meinte ich das Vorantreiben der eigenen Technik durch nVidia. Mit ihrer verfügbaren Raytracing-Hardware im Markt, wird man VXGI wohl kaum noch Ressourcen zuweisen und stattdessen auf eine direkte Raytracing-Berechnung verweisen, was aber auch ok ist ...
nvidia hat bei beiden das selbe gemacht - seit langem daran geforscht und unzählige libraries und papers dafür frei zugänglich released.... Und natürlich schauen sie darauf Technologien zu entwickeln mit denen ihre Produkte dann besser aussehen - es profitiert jeder davon (auch AMD).
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Interessant das amd eine etwas andere Technik nutzt. Dachte eigentlich es wird genau gleich funktionieren.
Bin gespannt wie sich das bei vielen neuen Games die zuerst auf Konsolen erscheinen auswirken wird. Sollte ja dann voll auf AMD optimiert sein.
Die ersten Benchmarks werden auf jeden Fall spannend.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Ich hab meine Zweifel ob da aktuell schon ausreichend Rechenleitsung vorhanden ist für. Hängt auch stark davon ab wie gut sich sowas skalieren lässt. Ehe wir was wirklich brauchbares sehen werden, muss erst mal die alte Hardware verdrängt werden. Der Programmieraufwand und die Optimierung für beide Bereich frisst einfach stand heute zu viele Ressourcen.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Dieses Video ist ein Lebenszeichen von AMD in Sachen Raytracing, mehr nicht. Hoffentlich zeigt es die Konsolen Version und nicht die PC Variante.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Amd berechnet einen node des Bvh Tree per Hardware und den Rest emuliert man per Software, dass kann man kaum als dediziertes RTRT bezeichnen, weil das den Entwicklern mehr Spielraum gibt und weiteren Zugriff, mit geringeren Hardwareanforderungen. Hört auf mit diesen sinnlosen Vergleichen!
Quelle? Meines Wissens nach wird bei RDNA2 wie auch im Turing RT Core BVH Traversal und Intersection beschleunigt.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Wenn man sich die ganzen Details anschaut ist das richtig schickes RT. Endlich ist AMD angekommen.

Was wir aber nicht vergessen dürfen ist dass Nvidia mit Turing bereits seit 2 Jahren RT Erfahrung besitzt, und vermutlich ein ordentliches Stück davor mit der Entwicklung begann.
Ich gehe nicht davon aus dass RDNA2 in puncto RT an Nvidias kommenden Ampere GPU's ankommt, die werden wohl in ihrer eigener Klasse spielen.

Wenn AMDs RT mit dem CPU zusammenarbeitet kann Nvidia machen was sie wollen. Die Tensor Kerne werden nie damit mithalten können.
 
Zuletzt bearbeitet:
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Wenn AMDs RT mit dem CPU zusammenarbeitet kann Nvidia machen was sie wollen. Die Tensor Kerne werden nie damit mithalten können.

Erstens sind die Tensore-Cores nichts fürs raytracing zuständig, und zweitens, wenn deren niedrigere genauigkeit dafür ausreicht dann hat eine CPU auch schon wirklich gar keine Chance mehr - da kennst 2x 64Kerner Epycs ransetzen und die sehen kein Licht. CPUs haben bei reiner Rechenleistung (was spiele Raytracing ist) nicht den hauch einer Chance. ein Epyc 7742 kommt da auf eine Leistung vergleichbar mit ner RX 5700........
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Quelle? Meines Wissens nach wird bei RDNA2 wie auch im Turing RT Core BVH Traversal und Intersection beschleunigt.

Und was hat das mit meinem Beitrag zu tun, wobei deines Wissens nach völliger....ist? Seit wann beschleunigt ein RT Core einen Geometrieshader den er gar nicht nutzt? Da grätscht man nämlich fernab von DXR mit Gameworks dazwischen.

Amd berechnet mit TMU RT nur eine, die erste Ebene des BVH Tree, man spart also Zeit weil genau das bei Nv zu den Framerateneinbrüchen unter RTX RT führt. BVH hat einen entscheidenden Nachteil, es ist lahm und macht so den Großteil der Frametimes aus.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Wir wussten doch schon immer, dass RayTracing totaaal geil ist - sobald AMD mit einer Lösung um die Ecke kommt. Vorher war es freilich völlig unbenutzbar und überflüssig wie ein Kropf.

Das würde ich zwar nicht so hart sagen denn es war vorher ja einfach nur zu langsam/schwerfällig, deswegen ja das Update auf DXR 1.1. Bin Mal gespannt wie sich die Turing Karten gegen AMD schlagen. Wetten das wird Perf/Watt und Perf/mm2 eine klatsche für Turing geben.
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Das würde ich zwar nicht so hart sagen denn es war vorher ja einfach nur zu langsam/schwerfällig, deswegen ja das Update auf DXR 1.1. Bin Mal gespannt wie sich die Turing Karten gegen AMD schlagen. Wetten das wird Perf/Watt und Perf/mm2 eine klatsche für Turing geben.

Das will ich nach zwei Jahren für AMD auch schwer hoffen. Alles andere wäre super peinlich!

Wenn Du meinst, dass ich meine Investition deswegen bereue, dann hast Du Dich auf jeden Fall getäuscht!
 
AW: RDNA2-Grafikkarten: AMD spricht heute über Raytracing

Bin Mal gespannt wie sich die Turing Karten gegen AMD schlagen. Wetten das wird Perf/Watt und Perf/mm2 eine klatsche für Turing geben.

Ich hab deinen Betrag mal vermerkt. Für alle Fälle. Persönlich bin ich ja auch auf die Peaks/Sekunde im Frametimegraphen gespannt. :ugly:
 
Zurück