J
Johnjoggo32
Guest
AW: Battlefield 5: DICE über die DirectX-12-Leistung und Raytracing mit AMD-Grafikkarten
Also, was Tensor-Cores angeht, geb ich dir recht. Die sind sehr spezifisch und ne andere Baustelle. Die sind für Deep-Learning ausgelegt und einfach für andere Workloads gedacht weil Deep-Learning-Berechnungen im Gegensatz zu Raytracing sich von Grafik-Berechnungen unterscheiden.
Die RT-Cores aber nicht wirklich. Das sind Vector-Rechenwerke die halt für's RT genutzt werden.
Das geht halt auch anders. Das ist nämlich ein sehr typischer linearer Workload für Grafikkarten.
Wie gut oder wie schlecht das läuft wird sich zeigen, ich denke allerdings nicht, dass die Dinger einen großen Vorteil gegenüber normalen Shadern bringen.
Ich verweise nochmal auf die Smartphone-GPU die das vergleichbsr gut kann. Och glaube nicht das die RT-Kerne persé besser sind.
Und nein, Async Compute ist tatsächlich in dem Fall kein anderes Thema. Einer der Vorteile der RT-Kerne ist, dass die RT-Berechnung Parallel mit den anderen Pipeline-Schritten erfolgt. Was durch AC Compute auch möglich ist. Da gab's doch sogar auf dem Nvidia-Event diese tolle Folie mit der parallelen Arbeit mit Int32 Float-Berechnungen und Raytracing. Kam dir das nicht sehr bekannt vor? Im Endeffekt ist Raytracing super generische Float-Berechnung was deine GPU liebt. Es ist nur eben entsprechend viel zu berechnen und man muss es gut vectorisiert bekommen um die Shader gut zu nutzen.
Physik und Grafik liegt GPUs einfach. Raytracing ist eine lineare Berechnung. Für sowas sind Shader quasi gebaut.
Async Compute ist indem Fall ein anderes Thema, dort bietet man mehrere Befehlsströme an, um der GPU mehr Freiraum bei der Ausführung der Arbeitslast zu geben, sodass die Shader seltener leerlaufen.
RT cores ist spezifische Hardware, welche sich um die Schnittpunkte mit der Geometrie kümmern und das Durchlaufen vom BHV beschleunigen, was indem Fall zwingend besser ist, als durch generische Shader-Cores die Sachen zu berechnen.
Bei Tensor Cores das gleiche, mit relativ wenig Flächenaufwand kann man deutlich höhere Praxisleistung für ein gewisses Anwendungsfeld erreichen.
Also, was Tensor-Cores angeht, geb ich dir recht. Die sind sehr spezifisch und ne andere Baustelle. Die sind für Deep-Learning ausgelegt und einfach für andere Workloads gedacht weil Deep-Learning-Berechnungen im Gegensatz zu Raytracing sich von Grafik-Berechnungen unterscheiden.
Die RT-Cores aber nicht wirklich. Das sind Vector-Rechenwerke die halt für's RT genutzt werden.
Das geht halt auch anders. Das ist nämlich ein sehr typischer linearer Workload für Grafikkarten.
Wie gut oder wie schlecht das läuft wird sich zeigen, ich denke allerdings nicht, dass die Dinger einen großen Vorteil gegenüber normalen Shadern bringen.
Ich verweise nochmal auf die Smartphone-GPU die das vergleichbsr gut kann. Och glaube nicht das die RT-Kerne persé besser sind.
Und nein, Async Compute ist tatsächlich in dem Fall kein anderes Thema. Einer der Vorteile der RT-Kerne ist, dass die RT-Berechnung Parallel mit den anderen Pipeline-Schritten erfolgt. Was durch AC Compute auch möglich ist. Da gab's doch sogar auf dem Nvidia-Event diese tolle Folie mit der parallelen Arbeit mit Int32 Float-Berechnungen und Raytracing. Kam dir das nicht sehr bekannt vor? Im Endeffekt ist Raytracing super generische Float-Berechnung was deine GPU liebt. Es ist nur eben entsprechend viel zu berechnen und man muss es gut vectorisiert bekommen um die Shader gut zu nutzen.
Physik und Grafik liegt GPUs einfach. Raytracing ist eine lineare Berechnung. Für sowas sind Shader quasi gebaut.