Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Async Compute ist indem Fall ein anderes Thema, dort bietet man mehrere Befehlsströme an, um der GPU mehr Freiraum bei der Ausführung der Arbeitslast zu geben, sodass die Shader seltener leerlaufen.
RT cores ist spezifische Hardware, welche sich um die Schnittpunkte mit der Geometrie kümmern und das Durchlaufen vom BHV beschleunigen, was indem Fall zwingend besser ist, als durch generische Shader-Cores die Sachen zu berechnen.
Bei Tensor Cores das gleiche, mit relativ wenig Flächenaufwand kann man deutlich höhere Praxisleistung für ein gewisses Anwendungsfeld erreichen.

Also, was Tensor-Cores angeht, geb ich dir recht. Die sind sehr spezifisch und ne andere Baustelle. Die sind für Deep-Learning ausgelegt und einfach für andere Workloads gedacht weil Deep-Learning-Berechnungen im Gegensatz zu Raytracing sich von Grafik-Berechnungen unterscheiden.

Die RT-Cores aber nicht wirklich. Das sind Vector-Rechenwerke die halt für's RT genutzt werden.
Das geht halt auch anders. Das ist nämlich ein sehr typischer linearer Workload für Grafikkarten.

Wie gut oder wie schlecht das läuft wird sich zeigen, ich denke allerdings nicht, dass die Dinger einen großen Vorteil gegenüber normalen Shadern bringen.

Ich verweise nochmal auf die Smartphone-GPU die das vergleichbsr gut kann. Och glaube nicht das die RT-Kerne persé besser sind.

Und nein, Async Compute ist tatsächlich in dem Fall kein anderes Thema. Einer der Vorteile der RT-Kerne ist, dass die RT-Berechnung Parallel mit den anderen Pipeline-Schritten erfolgt. Was durch AC Compute auch möglich ist. Da gab's doch sogar auf dem Nvidia-Event diese tolle Folie mit der parallelen Arbeit mit Int32 Float-Berechnungen und Raytracing. Kam dir das nicht sehr bekannt vor? Im Endeffekt ist Raytracing super generische Float-Berechnung was deine GPU liebt. Es ist nur eben entsprechend viel zu berechnen und man muss es gut vectorisiert bekommen um die Shader gut zu nutzen.

nvidia-geforce-rtx-launch-event-15-638.jpg

Physik und Grafik liegt GPUs einfach. Raytracing ist eine lineare Berechnung. Für sowas sind Shader quasi gebaut.
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Eines steht jedenfalls fest: Solange die DX12-Implementierung in BFV so schlecht ist wie sie ist wird auch DXR niemals ordentlich funktionieren. Die ganze Marketing-Nummer hätte man sich auch sparen können.
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Eines steht jedenfalls fest: Solange die DX12-Implementierung in BFV so schlecht ist wie sie ist wird auch DXR niemals ordentlich funktionieren. Die ganze Marketing-Nummer hätte man sich auch sparen können.

du vergleichst dx12 mit raytracing??? what???
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

du vergleichst dx12 mit raytracing??? what???

DXR ist ne DX12 API. Wenn die DX12 Omplementierung in BFV schon hinkt, was passiert dann mit DXR was auf DX12 baut und RTX was auf DXR baut. Der Schluss den er zieht ist schon ok, nur etwas verfrüht gezogen.
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Wie gut oder wie schlecht das läuft wird sich zeigen, ich denke allerdings nicht, dass die Dinger einen großen Vorteil gegenüber normalen Shadern bringen.

Ich verweise nochmal auf die Smartphone-GPU die das vergleichbsr gut kann. Och glaube nicht das die RT-Kerne persé besser sind.
Du meinst die Smartphone-GPU, welche extra Hardwareanpassungen hat, um das Raytracing zu beschleunigen, wie eben auch Turing?
1008564-battlefield-5-dice-ueber-die-directx-12-leistung-und-raytracing-mit-amd-grafikkarten-1_powervr-20gr6500-20gpu-20-20powervr-20wizard-20gpus.png



Und nein, Async Compute ist tatsächlich in dem Fall kein anderes Thema. Einer der Vorteile der RT-Kerne ist, dass die RT-Berechnung Parallel mit den anderen Pipeline-Schritten erfolgt. Was durch AC Compute auch möglich ist. Da gab's doch sogar auf dem Nvidia-Event diese tolle Folie mit der parallelen Arbeit mit Int32 Float-Berechnungen und Raytracing. Kam dir das nicht sehr bekannt vor? Im Endeffekt ist Raytracing super generische Float-Berechnung was deine GPU liebt.nur eben entsprechend viel zu berechnen und man muss es gut vectorisiert bekommen um die Shader gut zu nutzen.
[...]
Async Compute ist ein anderes Thema, wenn damit nur mehrere unterschiedliche Ausführungsqueues gemeint sind, ansonsten kann jede GPU asynchron unterschiedliche Dinge zur gleichen Zeit berechnen.
Ein Shader-Core verschwendet insgesamt zuviel Fläche für den Anwendungsfall Raytracing, da man für die ganze Programmierbarkeit und die hohe Präzision bezahlen muss, die man sich mit extra Hardware sparen kann.
 

Anhänge

  • 1_PowerVR%20GR6500%20GPU%20-%20PowerVR%20Wizard%20GPUs.png
    1_PowerVR%20GR6500%20GPU%20-%20PowerVR%20Wizard%20GPUs.png
    68,6 KB · Aufrufe: 323
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Ui, touché, das Diag. hatte ich noch nicht gesehen. Zur Kenntnis genommen.

Beim Shader-Core geb ich dir trotzdem nicht recht. Auch ein Shader-Kern kann schnelles Raytracing rechnen, wie ich schon gesagt hab, ob besser oder schlechter wird sich zeigen aber RT ist nach wie vor eine lineare Berechnung was eine GPU sehr gut kann. Was Steam-Audio und Radeon Rays zusammen übrigens ganz nett zeigen.

Ich mein, sehr stark vereinfacht: Einfallwinkel, Ausfallwinkel. Daraus jeweils eine Linie in einem 3-Dimensionalen Raum. Im Endeffekt ist das halt auch nur ne Vector-Rechnung und damit eine Matrix-Rechnung. Bei Lichtkrümmung durch Glaskörper wird's dann komplexer weil der Strahl nicht mehr gerade ist, aber das ist sowiso ein Sonderfall, da wird'sdan interessant ob die RTUs das besser machen. Wobei auch die Brechung vermutlich ähnlich berechenbar ist. Matrix-Berechnungen auf ner GPU sind doch recht straight-forward. Ich seh keinen Grund warum Shader das langsamer tun sollten. Ja die sind programmierbar, aber im Endeffekt auch nur sehr Leistungsstarke Vectoreinheiten.

Den richtigen Algorithmus gibt's übrigens auf Wikipedia mit dem man Rayintersection mit Dreiecken berechnen kann. Sogar in C++. Moeller& - Wikipedia

Sieht für mich genau nach der Art Berechnung aus die Shader gern haben dürften.

Und ja, jede GPU arbeitet parallel, aber eben nich Asynchron innerhalb eibes Shaders. Das ist ja der Witz. Parallel != Asynchron. asynchronität beinhaltet nichtmal zwingend Parallelität.
 
Zuletzt bearbeitet von einem Moderator:
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

[...]
Beim Shader-Core geb ich dir trotzdem nicht recht. Auch ein Shader-Kern kann schnelles Raytracing rechnen, wie ich schon gesagt hab, ob besser oder schlechter wird sich zeigen aber RT ist nach wie vor eine lineare Berechnung was eine GPU sehr gut kann. Was Steam-Audio und Radeon Rays zusammen übrigens ganz nett zeigen.
Das Problem ist das du viel Rechenleistung brauchst und nur mit den aktuellen Shader-Kernen niemals so gut dastehen kannst, wie mit extra Hardware für den Anwendungsfall, da du zu viel für die ganzen arithmetischen Units bezahlen musst.
Die ganzen FP24/FP32/INT32 etc. Adder/Mulitplier, die ganze Programmierbarkeit bezüglich etlicher Operationen usw.

Als grober Leitfaden kann sich folgendes Forschungspaper anbieten:
https://pdfs.semanticscholar.org/26ef/909381d93060f626231fe7560a5636a947cd.pdf

Die Autoren haben sich Gedanken über spezifische RT-HW gemacht und indem Beispiel GCN als Ausgangslage verwendet bzw. den GCN2 Hawaii Chip (290/390X).
Der bot soweit ich mich erinnere ~5,6TF an FP32-Leistung an.
Die Autoren führen folgendes aus:
Seite 6 schrieb:
With this example platform we have a peak throughput of 176 billion traversal steps per second.
Keeping in mind that on GPUs all vector instructions consume FPU issue slots, the traversal units provide the equivalent of 4.4 TFLOPs additional performance, yet occupy only 4-8% of current ALU die area

Da sieht man in welchem Maßstab spezifische HW der Leistung zusätzlich helfen kann, für relativ geringen Flächenaufwand.
In keinem Fall ist man dagegen konkurrenzfähig, wenn man selber nur seine normalen Shader-Cores aufbringen möchte.
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Das Problem ist das du viel Rechenleistung brauchst und nur mit den aktuellen Shader-Kernen niemals so gut dastehen kannst, wie mit extra Hardware für den Anwendungsfall, da du zu viel für die ganzen arithmetischen Units bezahlen musst.
Die ganzen FP24/FP32/INT32 etc. Adder/Mulitplier, die ganze Programmierbarkeit bezüglich etlicher Operationen usw.

Als grober Leitfaden kann sich folgendes Forschungspaper anbieten:
https://pdfs.semanticscholar.org/26ef/909381d93060f626231fe7560a5636a947cd.pdf

Die Autoren haben sich Gedanken über spezifische RT-HW gemacht und indem Beispiel GCN als Ausgangslage verwendet bzw. den GCN2 Hawaii Chip (290/390X).
Der bot soweit ich mich erinnere ~5,6TF an FP32-Leistung an.
Die Autoren führen folgendes aus:


Da sieht man in welchem Maßstab spezifische HW der Leistung zusätzlich helfen kann, für relativ geringen Flächenaufwand.
In keinem Fall ist man dagegen konkurrenzfähig, wenn man selber nur seine normalen Shader-Cores aufbringen möchte.

Klar KANN die HW helfen. Das muss sich aber erst noch zeigen wie stark oder ob. Das ist die erste Iteration davon. Die ist sicher verbesserungswürdig. Und außerdem, was ist wenn z.B. AMD zu dem Schluss kommt, dass FP16 reicht im die Rays zu Tracen. Die Frage an der Stelle ist, ob man dadurch visuelle Fehler bekommt oder ob man zum einen die Rundungsfehler und zum anderen die Precision-Fehler verkraften kann. Dann sähe die Welt wieder anders aus, wie war noch gleich Vegas FP16 Performance? 25 TFlop, dann könnt Vega z.B. mit RPM auftrumpfen. (Das ist jetzt nur exemplarisch, ich weiß nicht ob das so klappen würde. Ich könnt mir vorstellen, dass Licht und FP16 nicht gut zu kombinieren ist) Mal abgesehen davon das Vega ggf. durch den Computeanteil in RT endlich mal ausgelastet ist. Immerhin kommt die Karte nur auf 1080 Niveau bei doppelten TFlops. Ich tippe mal Vega wird nicht komplett ausgelastet und bleibt damit zurück. Aber wenn das mit RT besser würde könnten immernoch 6 TFlops für RT rumkommen die im Moment liegen bleiben. Und das sollte auch da ne Menge sein.

Um es anders und weniger AMD AMD AMD zu sagen: Wir haben die finale Situation nicht gesehen. Kann nur die Zukunft zeigen. Es kann so oder so kommen. Nachdem AMD aber schon Dinge mit RT angeht werden die vermutlich zumindest ne Idee haben wie es klappen könnte. Die RT-Kerne müssen sich wie gesagt auch erst beweisen, aber so überragend scheint die Performance (bis jetzt) einfach nicht zu sein. Ansonsten sehen wir ja ob mit Navi was kommt.
Ich würde RT mit aktuellen Karten einfach noch nicht ausschließen zumal wie gesagt zumindest AMD meistens TFlops übrig hat.

Ob das auf Pascal was wird weiß ich auch nicht. Wir werden es sehen^^

Aber zumindest die RT-Baking-Performance stimmt mich optimistisch.
Und nur weil Hardware besser sein SOLLTE heißt es nicht, dass sie es auch ist^^

Das Paper les ich bei Gelegenheit mal genauer, danke dafür.
 
Zuletzt bearbeitet von einem Moderator:
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

FP16 würde für Teile vom Raytracing-Vorgang sicherlich völlig ausreichen, die Traversal Units im Paper berechnen die Intersection von Ray-Boxen mit 5-8 Bit Präzision.
Den Abstand zu Fixed-Function-HW kann AMD sicher auch mit normalen Shader-Cores und geringerer Präzision verkleinern, aber auf das Niveau wird man eben niemals kommen.
Ein GT102 packt fast zehn mal soviele Rays wie der GP102, erster hat theoretisch 20% mehr Rechenleistung und Pascal bietet nur FP32 Shader an, aber selbst wenn man das stupide hineinrechnet und beim GP102 die Performance verdoppelt und bei Turing 20% abzieht bleibt mindestens ein Faktor von 4 übrig, wovon natürlich die besseren Shader-Cores selber nicht unbeteiligt sein könnten, aber selbst Faktor 2 wäre ja keine schwache Zahl und dabei geht man schon von worst case Spekulationen aus.

Wenn man sich Benchmarks zu aktueller Raytracing-Software anschaut, dann scheint AMD im Vergleich zu einem Gaming-Index besser dazustehen, zu einem Überflieger mutieren ihre GPU-Produkte allerdings nicht:
Radeon Pro vs. Quadro: A Fresh Look At Workstation GPU Performance – Techgage

In Bezug auf Pascal und früher scheint Nvidia kein Raytracing Support über DXR/RTX zu planen und ich denke AMD wird es sich auch verkneifen, wenn nicht, dann kann man sich auf unzumutbare Performance bereitstellen, denn selbst Turing hat arge Probleme bei den aktuellen Vorführungen flüssige Bildraten bei hohen Grafik und Bildeinstellungen zu erreichen und kein aktuelles AMD Produkt würde auch nur in die Nähe davon kommen.
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

FP16 würde für Teile vom Raytracing-Vorgang sicherlich völlig ausreichen, die Traversal Units im Paper berechnen die Intersection von Ray-Boxen mit 5-8 Bit Präzision.
Den Abstand zu Fixed-Function-HW kann AMD sicher auch mit normalen Shader-Cores und geringerer Präzision verkleinern, aber auf das Niveau wird man eben niemals kommen.
Ein GT102 packt fast zehn mal soviele Rays wie der GP102, erster hat theoretisch 20% mehr Rechenleistung und Pascal bietet nur FP32 Shader an, aber selbst wenn man das stupide hineinrechnet und beim GP102 die Performance verdoppelt und bei Turing 20% abzieht bleibt mindestens ein Faktor von 4 übrig, wovon natürlich die besseren Shader-Cores selber nicht unbeteiligt sein könnten, aber selbst Faktor 2 wäre ja keine schwache Zahl und dabei geht man schon von worst case Spekulationen aus.

Wenn man sich Benchmarks zu aktueller Raytracing-Software anschaut, dann scheint AMD im Vergleich zu einem Gaming-Index besser dazustehen, zu einem Überflieger mutieren ihre GPU-Produkte allerdings nicht:
Radeon Pro vs. Quadro: A Fresh Look At Workstation GPU Performance – Techgage

In Bezug auf Pascal und früher scheint Nvidia kein Raytracing Support über DXR/RTX zu planen und ich denke AMD wird es sich auch verkneifen, wenn nicht, dann kann man sich auf unzumutbare Performance bereitstellen, denn selbst Turing hat arge Probleme bei den aktuellen Vorführungen flüssige Bildraten bei hohen Grafik und Bildeinstellungen zu erreichen und kein aktuelles AMD Produkt würde auch nur in die Nähe davon kommen.

Ich bleib einfach bei warten wir's doch einfach ab. AMD war auch bis 2020 pleite gesagt und dann kam Ryzen mit Infinity Fabric ;) Vielleicht ham se ja ne clevere Idee. Ich kenn mich zwar mit GPUs aus, aber ein Grafik-Engineer bin ich nicht. Allerdings bin ich vorsichtig mit absoluten Aussagen zu Releases^^
 
Zuletzt bearbeitet von einem Moderator:
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Die Open Beta läuft Rotze in DX12 !

Mit einer 1080TI wohlgemerkt !
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Ich bleib einfach bei warten wir's doch einfach ab. AMD war auch bis 2020 pleite gesagt und dann kam Ryzen mit Infinity Fabric ;) Vielleicht ham se ja ne clevere Idee. Ich kenn mich zwar mit GPUs aus, aber ein Grafik-Engineer bin ich nicht. Allerdings bin ich vorsichtig mit absoluten Aussagen zu Releases^^
Soviel Konkretes sage ich ja nicht, außer das AMD aktuell keinen DXR-Support bietet und ihre aktuelle HW selbst mit DXR-Support nicht konkurrenzfähig gegenüber Turing ausfallen würde.
Da lehne ich mich auch sicherlich nicht aus dem Fenster.

Ungewiss ist die Zukunft, wo AMD sich wirklich konkurrenzfähig in diesem Bezug aufstellen möchte, gelingt es schon mit Navi oder muss man bis 2020 warten?
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Eine Vega 20 mit 42 TFlops FP16 Leistung wird in irgendeiner Form noch dieses Jahr auf den Markt entlassen :)
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Hmm, was ist denn der Sinn einer herstellerübergreifenden Schnittstelle wie DXR, wenn am Ende doch wieder Spezialbefehler für bestimmte GPUs verwendet werden? :huh:
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Hmm, was ist denn der Sinn einer herstellerübergreifenden Schnittstelle wie DXR, wenn am Ende doch wieder Spezialbefehler für bestimmte GPUs verwendet werden? :huh:

Ist doch leicht erklärt:

Du sollst NV-Karten kaufen wenn du RT willst. Weil andere das (RTX ) ja nicht können. DXR wäre ja für alle und das will NV ja nicht.
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Warum schneidet man Effekte an eine bestimmte Hardware zu, wenn es doch einen (wenn auch proprietären, bei DX12,) Standard für die Effekte gibt?
Sollte sich da DICE nicht eher an den DirectX 12 DXR Standard richten?

Kein Wunder wenn die Grafikkartenhersteller immer irgendwelche Day-One Patches raushauen müssen, wenn die Spieleentwickler ihre Engine mit irgendwelchen "Anpassungen" vermurksen.
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Da Dice ja keine AMD-Karte hat-können Sie auch nicht für AMD optimieren.Da steht erst mal nix von Ray-wasauchimmer.
Da steht,das sich Dice einen S..ß um AMD-Karten in Ihrem Spiel Gedanken macht...mehr nicht.
Ist das Selbe wie bei der NDA-Die Hand die mich füttert usw.
Gruß Yojinbo

Eine Vega kaufen geht.
Also die Millionen werden anscheinend nicht für eine 500Euro teure Grafikkarte raus gehauen... :-/
 
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten

Eine Vega 20 mit 42 TFlops FP16 Leistung wird in irgendeiner Form noch dieses Jahr auf den Markt entlassen :)
Eher ein gutes Stück weniger als 42TFLOPs an FP16-Leistung.

Hmm, was ist denn der Sinn einer herstellerübergreifenden Schnittstelle wie DXR, wenn am Ende doch wieder Spezialbefehler für bestimmte GPUs verwendet werden? :huh:
Das jeder Entwickler die selbe Grund-API für jeden Hersteller verwendet.
Falls dann noch HW spezifischer Code hinzukommen muss, ist es dennoch deutlich weniger Unterschied und Aufwand, als wenn es gar keinen Standard geben würde.
 
Zurück