Radeon-Chef David Wang: AMD wird auf DirectX Raytracing antworten

Für die Verbreitung von RT wäre AMD gut beraten, seine eigene Entwicklung ebenfalls via DXR Middleware an DX12 anzubinden. Sonst wird das nix.

Ich hoffe ebenfalls, dass die Entwickler jetzt mit dem DXR experimentieren/üben um festzustellen, dass darüber Beleuchtung, Schatten etc. viel weniger aufwändig bei gleichzeitiger Verbesserung von Performance und optischem Ergebnis werden. Dann wird es mit der Zeit auch viel bessere Performance auch auf den 2000er Karten geben, da die Implementierung von Raytracing einfach viel intelligenter gemacht wurde.


Auch hoffe ich, dass Nvidia das forcieren wird, da sie so viel Geld investiert haben. DIe Macht dazu hätten sie. Das wird uns allen nutzen.
 
Wenn wirklich in den nächsten Jahren etwas marktreifes erscheint, wird es auch nicht ohne eine starke CPU gehen. Das Ganze braucht alles an Power um wirklich zu funktionieren . Das wird sich vermutlich in 5 Jahren auch nicht ändern. Das erwarte ich vorerst.
 
Was viele vergessen: Dieses "absolute Minimum" ist immer noch 100x besser, als die heute bekannte Rasterizing-Technologie.

Ich denke in zwei Tagen (Battlefield V DXR Release) werden wir das klar sehen :daumen:


Quatsch, bei DX11 (GeForce 8) war NVIDIA sehr viel besser und früher dran, als AMD. Bei DX11 war NVIDIA zwar später, hatte mit Fermi aber auch die tatsächlich richtige DX11-Karte, die bis heute den Vorsprung in Sachen Tessellation gehalten hat.


AMD hat PrimitiveShader bis heute nichzum Laufen gebracht:
AMD stellt eigenen Entwicklungspfad fuer Primitive Shader ein (2. Update) - Hardwareluxx


Super :lol:

Die ganze Zeit Innovationen fordern, dann gibt es dann gibt es wirklich mal Innovation und schon sollen die Innovationen bitte blockiert werden, weil der Lieblings-Hersteller sie nicht hat :ugly:

Das ist echt, sorry, peinlich.

Lies doch deinen Link mal selbst ehe du Sachen behauptest. Es ist das selbe wie beim Mesh Shading, es muss zwangsläufig über die API eingebunden werden und kann nicht vom Treiber bereit gestellt werden. Das selbe ist bei Mesh Shading der Fall!
Laut Aussage AMDs, die im Rahmen einer Gesprächsrunde zum CES Tech Day Anfang Januar gefallen ist, ist der alternative Treiber-Pfad für Primitive Shader verworfen worden. Stattdessen will man die Primitive Shader per API den Entwicklern anbieten.

Zumal das eh nicht mehr der Fall ist bei den PS, AMD hat da offenbar eine Lösung für gefunden. Mal sehn wie das weitergeht.
 
Das stimmt ja nun nicht.

1) Alle GCN GPUs unterstützen FP16 - nur eben nicht mit doppelter Geschwindigkeit von FP32. Das kann nur Vega.
2) Alle Nvidia GPUs von Maxwell bis Pascal sind auf dem gleichen Niveau: FP16 nur mit der gleichen geschwindigkeit, wie FP32.

3) Es ist eigentlich vollkommen egal, ob Navi, oder Nvidias RTX Nachfolger Ray Tracing unterstützen.
Mit 7nm fehlt noch immer die Rechenleistung, um RT wirklich vernünftig umzusetzen.
Da müssen noch mindestens 100%, eher 200% an Leistung drauf, bis das was wird.
DICE trickst ja jetzt schon am unteren Rand der Qualität, um RT überhaupt bei 1080p mit 60 fps zum Laufen zu bringen.. auf einer 2080 TI.
Erst ab GCN3 gab es native FP16 ALU ops und AMD hat den FP16-Support für GCN3/4 in DX rausgenommen, es läuft nur auf GCN5.

Und bei Raytracing ist es unglaublich, wie die Leute darauf rumhacken.
Der Launch von Turing ist keine zwei Monate her und auch wenn man offensichtlich viele Features schon früher in Spielen gesehen hätte, ist nicht schon eine halbe Ewigkeit vergangen und man sollte sich nicht schon ein absolutes Urteil vor ersten Tests bilden.

Einige ignorieren auch den Profi-Markt, der sie nicht direkt anspricht, aber Nvidia hat hier nicht nur ein "nutzloses" Feature für Gamer vorgestellt, Raytracing-Produktionen werden Turing einsetzen, AMD wird hier an Boden verlieren.
AMD ist im Prinzip genauso motiviert Raytracing zu implementieren, Echzeitraytracing bei High-End-Games @4K, @ 60 FPS ist nicht der Maßstab den man allgemein treffen muss.

[...]
Und dann kann man sich mal Gedanken darüber machen, wieviel der Chipfläche man für dieses zusätzliche Feature opfern möchte.
Das bedingt nämlich, dass man sozusagen die ganzen Performancezuwächse einer, wenn nicht gar 2 Generationen komplett dafür verbraten muss.
Man sieht es ja jetzt am äußerst schlechten Beispiel der total überteuerten und lahmarschigen 2000er Karten.
Sicher nicht, der Flächenverbrauch davon liegt bei wahrscheinlich unter 10%.

[...]
Die Primitv Shader funktionieren genau so gut wie die Mesh Shader. Es programmiert schlicht niemand.
Aktuell scheint der ganze RTX Kram völlig unterzugehen. Sowohl VRS, Mesh Shading wie auch DLSS und RayTracing sucht man vergebens.
Das ist nicht ganz wahr.
Nvidia bietet für OpenGL und Vulkan schon die passenden Erweiterungen für viele der vorgestellten Features an, Arseney Kapoulkine als unabhängiger Entwickler streamed seit Wochen seine ersten Gehversuche mit Mesh-Shadern, weil er daran interessiert ist.
Die ersten Ergebnisse zeigen auch massiven Gewinn beim Dreiecksdurchsatz, Faktor 3 bei einer 2080, mittlerweile sieht es noch besser aus:
Arseny Kapoulkine auf Twitter: "Modern GPUs are crazy. But this GPU is especially so. Scene has 100 Happy Buddhas (100*1.087M tri). Traditional raster takes 17.2 ms. RTX code from my stream (with some perf fixes/tweaks) renders this in 6.3 ms - almost 3x faster. This is 17B triangles per second. 2080 non-Ti."

Und auch wenn es nicht verfügbar ist, Wolfenstein II wurde lauffähig mit VRS vorgeführt.
Turing ist auch nicht ganz 2 Monate auf den Markt.

Primitive Shader?
Nichts, keine Demonstration in einem lauffähigen Beispiel, keine Entwickler-APIs, um es überhaupt verwenden zu können, kein Treibersupport, einfach nichts.
Vega ist auch schon über ein Jahr draußen, it's dead Jim.

Wer aber mit großer Verbreitung der Features in den ersten Monaten rechnet, der wird natürlich auch bei Nvidia enttäuscht sein, neue Technologie tröpfelt wie immer relativ langsam in finale Spielproduktionen.

Ohne GPU Beschleunigung also ein Rohrkrepierer. Das könnte auch jeder andere Softwarebibliothek sein, die PhysX ist nur einfach gut programmiert worden von Ageia und wird deshalb gerne verwendet.
PhysX war relativ mies programmiert, als Nvidia Ageia 2008 übernommen hat, die wiederum NovedeX 2004 davor übernommen haben.
PhysX hat sich als Standard-Physik-Engine in Spielen etabliert, weil Nvidia darin soviele Ressourcen investiert hat und scheinbar und das mag einen überraschen, günstig angeboten, für PC-Spiele ist oder war die Lizenz sogar kostenlos.
Die GPU-Beschleunigung hat es aber aufgrund der Nvidia-Beschränkung zu keiner relevanten Verbreitung geschafft.
 
Was viele vergessen: Dieses "absolute Minimum" ist immer noch 100x besser, als die heute bekannte Rasterizing-Technologie.

Ich denke in zwei Tagen (Battlefield V DXR Release) werden wir das klar sehen :daumen:

B5 DXR mag vielleicht hinter deiner grünen Brille super aussehen, für andere, darunter mich, sieht es unrealistischer aus. Vor allem da in den ganzen Präsentationen so viele Bugs zu sehen waren wie Spiegelungen in Holz oder Spiegelungen wo an der Stelle gar nicht sein dürften...

RT ist noch überhaupt nicht soweit. Für ein paar kleine Sachen vielleicht ein nettes Gimmick, aber für das große ganze?
 
Bei den Mesh Shadern steht explizit das diese vom Entwickler eingepflegt werden müssen. Ich sehe da keinen Unterschied. Mag sein das Nvidia da mehr Support bereit stellt, ob das Früchte trägt wage ich zu bezweifeln.

Die Ankündigungen für den ganzen Oberbegriff Advanced Shading sind doch sehr dünn.
 
Naja, aus meiner Sicht richtig von AMD.

Sie gingen auch schon oft genug viel zu früh in eine neue Technologie rein und hatten am Ende wenig bis nichts davon.
Siehe bsw. TruForm als Wegbereiter von Tesselation oder Mantle als Wegbereiter von Vulkan.

Darf NV also auch gerne mal machen.

AMD muss sich zuerst mal auf andere, wichtigere Baustellen bei den GPUs konzentrieren, als auf ein noch nicht massentaugliches, aber nettes Gimmick.

Ich persönlich steige wohl erst in RayTracing ein, wenn entsprechende GPUs inkl. Wasserkühler für um die 500.- zu haben gibt. Ich könnte dabei anfänglich mit FHD@60Hz je nach Spiel gut leben, da es sich dann nach wie vor um den Technologieeinstieg handelt. Auch wenn ich bis dahin wohl schon vor einem 4K120hz/8K@60hz-TV sitzen werde.
 
Wenn ich für 300 Euro eine Grafikkarte bekomme, mit der ich ohne Probleme UHD 60 fps + und hohe Details
spielen kann, dann ist der Zeitpunkt gekommen, an dem man sich mit Raytracing beschäftigen kann.
 
Was ich mich frage: Warum die ganze farce um Raytraycing und DLSS, wenn der Content der Games eh immer mauer wird? Nur aufpolierte Grafik macht noch lang kein Game gut.

RTX und DLSS sind imo massiv überbewertet und Hardware gibts zum Mainstreampreis eh noch nicht. Verbreitung wird es in Games flächendeckend erst ab fühestens vielleicht nächstes/übernächstes Jahr finden. Und das ist denke zu optimistisch. Warum sich seitens AMD den Stress machen und unbedingt Hardware rausbringen:what:? Dann lieber die alten Schienen weiter fahren und ordentlich im Midrangesegment wildern :devil:
 
Wer will auch DX12-Vendor-Gelockte Features? Vukan kann genauso Raytracing ohne dass man Windows (10) braucht.

Dem zweiten Satz stimme ich aber zu, es bringt den Kunden auch nichts, wenn AMD das Feature jetzt schnell in Mittelklasse-Karten implenentiert, selbst wenn sie 2080 Ti Leistung hätten. So, wie es umgesetzt wurde, ist es aktuell einfach nur nutzlos. Könnte viele Jahre dauern, bis es sinnvoll wird.

Stimmt aber Marketing.
ATI (oder war es schon AMD?) hatte doch mit der ~X900er Serie noch DX9 wo NV schon DX10 anbot.
Auch mit den damaligen Karten war zu diesem Zeitpunkt mit den Karten unter DX10 nichts zu reißen.
Später hatte doch AMD mit den HD 3870 (?) schon DX10.1 was aber kaum ein Hersteller von Spielen genuzt hatte (wenigstens zu den "Lebzeiten" der Karte).
Leider würde sich nauch ne ~ RTX2030 gut machen wenn die mit Raytrancing beworben wird. => Mit Glück 320p@60FPS aber auf der Packung sieht man ein HQ Bild von BF5 & Co.
 
Die CPU Berechnung ist ja auch gut, es gibt nur lediglich keinen Grund mehr Physik auf der GPU zu berechnen. Wofür wertvolle Ressourcen vergeuden wenn es genug CPU Kerne gibt die rum döddeln und dann nur auf einem Teil der Hardware läuft.

Ist das selbe wie mit Hairworks und TressFX.
Es wird fast nur noch TressFX benutzt. Ist schneller, einfacher und läuft überall performant.
GPUs sind viel effizienter, bei einigen Berechnungen, weswegen es auch Sinn ergibt diese von der GPU ausführen zu lassen.
Ubisoft hat präsentiert, wie sie auf den Konsolen Kleidungssimulation auf der GPU umgesetzt haben, weil das mit der CPU no bueno war.
Second Order hat einen eigenen GPU-Physics-Solver für Claybook entwickelt:
Sebastian Aaltonen auf Twitter: "Had to be done: One million SPH fluid particles (on AMD Vega 64).

Simulation:
Forces + integrate + collisions = 3.47ms
Pressure = 1.81ms

Render:
512x512x256 SDF generation = 9.93ms
Primary+AO ray-trace = 0.88ms
Soft shadow ray-trace = 0.51ms… https://t.co/LkbN2JbHGc"


Es kommt einfach auf den Charakter der Berechnung an und welche Ressourcen im System zur Verfügung stehen, um zu entscheiden, was man wo lieber berechnen sollte.

Und in wie fern ist HairWorks und TressFX vergleichbar?
Beide werden auf der GPU ausgeführt und beide finden sich in fast keinen Spielen.
Eine Handvoll für HairWorks, eine Handvoll für TressFX.

Bei den Mesh Shadern steht explizit das diese vom Entwickler eingepflegt werden müssen. Ich sehe da keinen Unterschied. Mag sein das Nvidia da mehr Support bereit stellt, ob das Früchte trägt wage ich zu bezweifeln.

Die Ankündigungen für den ganzen Oberbegriff Advanced Shading sind doch sehr dünn.
Jep, im Falle von Mesh Shadern ist es eine explizite Sache für die Entwickler, kein automatischer Mechanismus im Treiber.
Aber Nvidia bietet überhaupt Support an, bei AMD funktionieren Primitive Shader weder implizit und automatisch, noch explizit über APIs.
Da muss man scheinbar auf neue Hardware mit Navi warten.

Die Geschichte wird Früchte tragen, wenn es einen gemeinsamen Standard bei den APIs geben wird, ansonsten wird es eher ein Schattendasein fristen.
Bezüglich Advanced Shading würde ich auch nicht viel erwarten.
 
Was ich mich frage: Warum die ganze farce um Raytraycing und DLSS, wenn der Content der Games eh immer mauer wird? Nur aufpolierte Grafik macht noch lang kein Game gut.

RTX und DLSS sind imo massiv überbewertet und Hardware gibts zum Mainstreampreis eh noch nicht. Verbreitung wird es in Games flächendeckend erst ab fühestens vielleicht nächstes/übernächstes Jahr finden. Und das ist denke zu optimistisch. Warum sich seitens AMD den Stress machen und unbedingt Hardware rausbringen:what:? Dann lieber die alten Schienen weiter fahren und ordentlich im Midrangesegment wildern :devil:

Kommt dazu, dass Upscaling bis vor dem Launch der RTX-Karten bei der PC Masterrace mega verpönter und so krass schlechter Konsolen-shit war.
Aber wahrscheinlich ist es etwas ganz anderes, wenn man Upscaling mit einer hippen KI kombiniert und ein neues kryptisches Kürzel dafür erfindet.

(Davon ab, zock' ich aber aktuell auf einem Ryzen 2400G in meinem Home-Office-PC Shadowwarrior 2 in HDR mit 50%-Scaling auf 1440p (=intern 720p) und sonst max. Settings, was auf die relativ grosse Distanz gar nicht mal so übel ausschaut xD)
 
Stimmt aber Marketing.
ATI (oder war es schon AMD?) hatte doch mit der ~X900er Serie noch DX9 wo NV schon DX10 anbot.
Das lag daran, dass sich die R6xx-Generation in Form von Radeon HD2xxx verspätet hatte und ATi dann irgendwie mit dem Radeon X1xxx-Vorgänger (welcher nie als direktes Konkurrenzprodukt zum GeForce 7xxx-Nachfolger geplant war) gegen die GeForce 8800 andümpeln musste.

Die Radeon HD2xxx hatten dann ja selber bereits Features, welche die GeForce 8xxx nicht hatten, die waren aber custom based und zu dem Zeitpunkt noch nicht in DirectX enthalten.
 
GPUs sind viel effizienter, bei einigen Berechnungen, weswegen es auch Sinn ergibt diese von der GPU ausführen zu lassen.
Ubisoft hat präsentiert, wie sie auf den Konsolen Kleidungssimulation auf der GPU umgesetzt haben, weil das mit der CPU no bueno war.
Second Order hat einen eigenen GPU-Physics-Solver für Claybook entwickelt:
Sebastian Aaltonen auf Twitter: "Had to be done: One million SPH fluid particles (on AMD Vega 64).

Simulation:
Forces + integrate + collisions = 3.47ms
Pressure = 1.81ms

Render:
512x512x256 SDF generation = 9.93ms
Primary+AO ray-trace = 0.88ms
Soft shadow ray-trace = 0.51ms… https://t.co/LkbN2JbHGc"


Es kommt einfach auf den Charakter der Berechnung an und welche Ressourcen im System zur Verfügung stehen, um zu entscheiden, was man wo lieber berechnen sollte.

Und in wie fern ist HairWorks und TressFX vergleichbar?
Beide werden auf der GPU ausgeführt und beide finden sich in fast keinen Spielen.
Eine Handvoll für HairWorks, eine Handvoll für TressFX.


Jep, im Falle von Mesh Shadern ist es eine explizite Sache für die Entwickler, kein automatischer Mechanismus im Treiber.
Aber Nvidia bietet überhaupt Support an, bei AMD funktionieren Primitive Shader weder implizit und automatisch, noch explizit über APIs.
Da muss man scheinbar auf neue Hardware mit Navi warten.

Die Geschichte wird Früchte tragen, wenn es einen gemeinsamen Standard bei den APIs geben wird, ansonsten wird es eher ein Schattendasein fristen.
Bezüglich Advanced Shading würde ich auch nicht viel erwarten.

Sind wir uns zur Abwechslung doch mal einig.:daumen:

Alle warten gespannt auf die ersten DLSS und RT Spiele. Verteufeln würde die Features nicht vorher, wobei vor allem DLSS mich wenig beeindruckt hat bisher.
Technisch interessant ist es alle mal, ein Spiel mit Mesh Shading wäre ja auch mal schön das wüssten wir Veganer wengistens was uns vermeintlich entgangen ist an den Primitv Shadern. Es wird wohl nicht viel gewesen sein denke ich. Wobei der Ansatz der Technik interessant ist.
 
Die Primitv Shader funktionieren genau so gut wie die Mesh Shader. Es programmiert schlicht niemand.


Das ist falsch, AMD stellt dazu keinerlei Dokumentation, Anleitung/API Extension oder gar Treiber zur Verfügung.
AMD hat Primitive Shader gestrichen und will sie erst mit Navi bringen, wahrscheinlich weil die Implementierung kaputt ist.
Aktuell scheint der ganze RTX Kram völlig unterzugehen. Sowohl VRS, Mesh Shading wie auch DLSS und RayTracing sucht man vergebens.

Ich finde die Argumentation der Die Hard AMD Fans erstaunlich.
Zuerst stichelt man jahrelang gegen Nvidia, weil sie angeblich (unbewiesen) Directx12 aufhalten und Bremse spielen.
Und dann wenn neue Features kommen die Directx12 voranbringen können, ist AMD´s Untätigkeit bezüglich RT wieder das Richtige und man ist angesäuert, weil der Lieblingshersteller das nicht unterstützt.
Software braucht nunmal seine Zeit, das geht nicht von heute auf morgen.
 
Zuletzt bearbeitet:
Das ist falsch, AMD stellt dazu keinerlei Dokumentation, Anleitung/API Extension oder gar Treiber zur Verfügung.
AMD hat Primitive Shader gestrichen und will sie erst mit Navi bringen, wahrscheinlich weil die Implementierung kaputt ist.


Ich finde die Argumentation der Die Hard AMD Fans erstaunlich.
Zuerst stichelt man jahrelang gegen Nvidia, weil sie angeblich (unbewiesen) Directx12 aufhalten und Bremse spielen.
Und dann wenn neue Features kommen die Directx12 voranbringen können, ist AMD´s Untätigkeit bezüglich RT wieder das Richtige.
Software braucht nunmal seine Zeit, das geht nicht von heute auf morgen.

Ich bin Turings bester Freund, Vega profitiert davon, Pascal nicht. Was soll mich das ärgern? Immer her mit der neuen Tech, aber bitte keine Lob Hudelein auf Basis von Demos.
Vielleicht überrascht uns Battlefield ja noch.
 
Ich bin Turings bester Freund, Vega profitiert davon, Pascal nicht. Was soll mich das ärgern? Immer her mit der neuen Tech, aber bitte keine Lob Hudelein auf Basis von Demos.
Vielleicht überrascht uns Battlefield ja noch.

Das Schöne ist ja, dass NVidia sich mit RTX selber in Zugzwang bringt, DX12, resp. die neuen Low-Level-APIs zu pushen, was generell wiederum eher AMD zugute kommt xD

Aber wenn Dice in BFV DX12 bis Release nicht endlich in den Griff bekommt, wird der Start von Gaming-RayTracing ein Desaster...
 
Aktuell scheint der ganze RTX Kram völlig unterzugehen. Sowohl VRS, Mesh Shading wie auch DLSS und RayTracing sucht man vergebens.

Jupp und zwar so untergehen das sich sogar schon der Radeon Chefentwickler dazu genoetigt sieht Durchhalteparolen rauszuposaunen :lol:

Laeuft wuerde ich sagen

aber bitte keine Lob Hudelein auf Basis von Demos.
.
bisher sieht man da nur in Massen rote Fans wie dich die auf Basis der Demo versuchen das schlecht zu reden:daumen:
 
Verstehe auch garnicht warum alle Raytracing in Spielen so doof finden.

Ich bin da absolut pro-Feature!
Gogo Raytracing, Voxel, LowLevelApi, GPU Physics! 20 fps auf Ultra sind 19 zuviel! Ich möchte Fortschritt sehen! :devil:


Über Claybook könnte man fast mal ein Technikinterview anleiern. Durch das Spielkonzept ging das irgendwie unter, aber technisch scheint das schon höchst interessant zu sein. :hmm:
 
Zurück