Financial Analyst Day 2020: Ab 22 Uhr im Live Ticker!

Also Zusammenführung passt ja auch nicht. :P
Es wurden schließlich keine Elemente von Pascal für Turing verwendet.
Insofern kann man Turing durchaus als ein Volta mit RT-Cores und paar anderen Differenzen ansehen.

Der RT-Core stellt auf jeden Fall eine Recheneinheit dar, welche die bounding volume hierarchy durchläuft und ebenso die Schnittpunkte mit der Geometrie berechnet.
Die Funktionalitäten sind sicherlich beschränkt, aber eben wie bei jeder Fixed-Function-Hardware.

Bezüglich der Weiterentwicklung der GPUs mag ich die Cache-Hierarchie von RDNA.
AMD hat mit der neuen Cache-Zwischenstufe die interne Skalierung praktisch in Cluster aufgeteilt.
Geometrie/Rasterizer, ein Shader-Array und ein Teil der ROPs teilen sich einen neuen L1$, welcher dann weiter geht zum L2$.
Dadurch muss ein L1$ bei aktuellen Navi GPUs nur einen lokalen Teil füttern und zum L2$ sind deutlich weniger Verbindungen nötig.
Anders sieht das bei GCN oder Turing aus, wo ein globales und massives Netzwerk über alle Recheneinheiten gezogen wird.
Bezüglich RT kann Nvidia sicherlich auch noch eine Menge machen, Imagination rühmt sich damit einen Scene Hierarchy Generator zu haben, welcher selber einen BHV erstellen kann und die Berechnung weiter beschleunigen.
Ebenso gibt es optional eine Ray-Coherence-Engine, welche versucht Rays mit ähnlicher Laufrichtung zu bündeln, damit der Speicherzugriff effizienter wird und die Caches nicht ständig getrashed werden.

AMD könnte offensichtlich noch den Durchsatz für INT32 beschleunigen und ebenso wie Volta/Turing eine parallele Ausführung von INT und FP ermöglichen.
Ebenso könnte es sich anbieten L1$ und LDS zusammen zu legen, um die Bandbreite und Latenz massiv zu verbessern und flexibler bei den Kapazitäten zu sein.
Ich bin gespannt auf RDNA2 und wie AMDs Raytracing-Lösung aussehen wird.
 
Bezüglich der "RT Cores" bin ich mir nicht so sicher, ob das echte, funktionell vollkommen eigenständige Funktionseinheiten sind, denn nVidia hält sich hier nach wie vor zurück und hat die genaue Implementation nicht offengelegt. Nicht umsonst weisen sie z. B. darauf hin, dass die regulärem SPs nicht vollständig parallel zu den RT Cores arbeiten können, sondern dass es Ausnahmen gibt. (Zugute kommt Turing hier aber, dass mittlerweile INT, FP32 und FP16 weitestgehend voneinander entkoppelt sind.)
Ich würde davon ausgehen, es sich bei den vermeintlichen "RT Cores" im wesentlichen um Cache-Erweiterungen und einen internen Scheduler handelt, der die Traversierung und Intersection-Berechnung relativ autonom durchführt, für letzteres jedoch die FP32-Einheiten der Shader Prozessoren oder aber bspw. die FP16-Funktionalität der Tensor-Cores verwendet. - Mal abwarten, wann nVidia da mehr Licht ins Dunkel bringt. (Ich muss aber zugeben, dass ich da jetzt schon länger nicht mehr nach aktuellerem Material gesucht habe.)

Bezüglich RDNA2 bin ich gespannt, wie weit sich das von RDNA1 abhebt (mit Ausnahme der zusätzliche Raytracing-Funktionalität). Hier stellt sich mir die Frage, ob Navi nur (vereinfacht gesprochen) ein um Raytracing beraubtes RDNA2 ist oder ob letzteres tatsächlich eine wesentliche "Weiterentwicklung" darstellt.
Wenn man berücksichtigt, dass die Konsolen-SoCs ihr Tapeout voraussichtlich schon im 2HJ18 gehabt haben, dann ist RDNA2 bereits relativ alt. (Erste Dev-Kits fand man bereits zur Jahresmitte bei ersten Entwicklern vor Ort und die müssen, bis ggf. auf ein paar Bugs, schon dem vollen Funktionsumfang entsprochen haben.)
 
Bin mal gespannt was da kommt.

Bei den CPUs klotzt AMD aktuell echt gut rein und bietet Konkurrenz. Da gibt es nichts zu meckern, aber hoffen wir mal das die bei den GPUs diesen massiven Abstand aufholen werden.

Ich traue es AMD auf jeden Fall zu NV zu schlagen, schließlich wäre es nicht das erste mal, aber der Abstand ist schon gewaltig, zumindest wenn man die Leistungsklasse der 2080TI ansieht.
 
Zurück