AMD Sienna Cichlid: Weitere Hinweise auf Größe von "Big Navi"

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Sienna Cichlid: Weitere Hinweise auf Größe von "Big Navi"

Ein Linux-Treiber enthüllte mit "Sienna Cichlid" kürzlich den Codenamen einer bis dato unbekannten GPU, bei der es sich um "Big Navi" beziehungsweise Navi 21 handeln soll. Ein Nutzer hat die Informationen, die dieser Treiber liefert, nun in einer Grafik aufbereitet.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Sienna Cichlid: Weitere Hinweise auf Größe von "Big Navi"
 
Den Nutzer hättet ihr auch gerne verlinken können, der heißt hier nämlich genau so. ;)

Auch die Anzahl der SDMA-Engines ist den Daten zufolge um den Faktor 2 gestiegen. In dem Zusammenhang wäre es naheliegend, dass AMD die Anzahl der Shader-Cluster ebenfalls (wenigstens grob) verdoppelt hat

Findest du? Ich hätte am ehesten die 67 VFS Module als Argument für eine "breite" GPU ins Felde geführt.
 
Also ein 1:1 doppelter Navi kann es eigentlich nicht sein, denn wenn sich die Chipfläche vedoppelt und man einfach nur doppelte Ausfrührungseinheiten zusammenklebt, dann bleibt ja kein Platz mehr für die ganzen Raytracingausführungseinheiten?
Oder werden dafür keine eigenen Bausteine (also Platzbedarf) benötigt?
Oder führt AMD jetzt tatsächlich diese Universaleinheiten ein, die entweder normale Rechenaufgaben, oder aber halt für das Raytracing Arbeit aufnehmen können?
Die wären dann sicherlich einzeln nicht ganz so leistungsstark wie bisherige Einzelkomponenten, aber dafür wäre eine gleichmäßige Auslastung alle Einheiten in jeder Situation gegeben, und man könnte so viel Raytracing zuschalten, wie die Leistung noch zulässt, die Leistungsklasse der gekauften Grafikkarte wäre also schnurzpiepegal, nicht so wie bei NVidia, wo man sich voll in die Nesseln setzt, weil irgendeine Sache ständig limitiert, oder man halt zu viel Geld dafür ausgeben müsste.
 
Also ein 1:1 doppelter Navi kann es eigentlich nicht sein, denn wenn sich die Chipfläche vedoppelt und man einfach nur doppelte Ausfrührungseinheiten zusammenklebt, dann bleibt ja kein Platz mehr für die ganzen Raytracingausführungseinheiten?
Die Anzahl der Shadereinheiten zu vordoppeln heißt nicht, die Shadereinheiten selbst 1:1 zu übernehmen. Die Architektur wird ja von RDNA1 auf RDNA2 gehievt, bedeutet es wäre möglich, dass AMD die Shader optimiert und pro Einheit etwas Platz spart den man dann für RT wieder nutzen kann.
Universaleinheiten wären möglich aber ich halte es für unwahrscheinlich zum jetzigen Zeitpunkt, dafür ist die ENtwicklung noch zu frisch. Jetzt schon auf Unified zu gehen würde bedeuten ein Shader kann alles aber bneides langsamer als spezialisierte Einheiten (bedeutet Spiele die kein RT benutzen hätten große Nachteile und das sind nunmal aktuell gefühlte 99,9% aller Spiele...) und dass kann AMD sich aktuell sicher nicht leisten.
 
Jetzt schon auf Unified zu gehen würde bedeuten ein Shader kann alles aber bneides langsamer als spezialisierte Einheiten (bedeutet Spiele die kein RT benutzen hätten große Nachteile und das sind nunmal aktuell gefühlte 99,9% aller Spiele...) und dass kann AMD sich aktuell sicher nicht leisten.
Mit ersterer Aussage wäre ich vorsichtiger, weil man wenn man auf FL12_2 optimiert RT deutlich effizienter über Shader und CPU Overhead befreit berechnen kann. Das 12_2 nicht 11 oder 12 ist, ist klar und damit Spiele die dieses Level nicht unterstützen kaum profitieren auch. Das sahen wir bei Turing auch schon, nicht alle Spiele die einer 1080ti "schmecken", schmecken einer 2080 (mal VRAM und SI Ausbau aussen vor).

Zu vermuten ist das Navi20 nahe Turing/Ampere rauskommt und das mit gestiegener Effizienz auch der Takt steigen kann. Das meiste Potential liegt aber im Softwarebereich brach, dass ist wohl wahr.
 
Das meiste Potential liegt aber im Softwarebereich brach, dass ist wohl wahr.

Stimmt - RT ist halt noch ganz am Anfang. UNd so lange die Verbreitrung nicht wächst und die Umsetzung besser und einheitlicher wird lehnst du dich nicht als Hersteller mit einer sonst nachteiligen technik aus dem Fenster die dir nur in genau den 0,05% der Fälle einen großen Vorteil verschafft wenn softwareseitig alles passt.
Das wird wohl noch zwei, drei, vier Generationen dauern - ähnlich wie damals die Umstellung von Pixel und vertex-Shadern zu Unified-Shadern mit entsprechender DX-Version und passenden Spielen. Oder noch weiter in der Vergangenheit mit der Idee, überhaupt Beleuchtung auf der GPU zu berechnen (Hardware T&L).
 
Unified oder vielmehr universell ist für AMD in der Hinsicht ein Problem, dass die nie einen getrennten Stack für Gaming aufgelegt haben (unter Hawaii, Fiji, Vega, was eher universelle Lösungen für beide Segmente waren), dass scheint unter RDNA anders zu laufen, denn Vega scheint im professionellen Bereich weiter zu existieren und RDNA in gewisser Weise expliziet für Gamingansprüche konzipiert. Man lernt also aus seinen Konsolendeals.

Letzten Endes war AMD ein CPU Hersteller, nicht unbedingt GPU Entwickler. Die Integration von Unternehmensanteilen und Neuaufstellung kann eine langwierige Aufgabe sein, die nicht unter jedem Ceo genug Aufmerksamkeit bekommt, oder Impulse fehlen die auch finanzieller Natur sein können.

Man sondiert dann was wichtig ist. Bulldozer war nicht der erhoffte Erfolg, die Geschichte kennen wir ja. Dann konzentriert man sich auf das was man kann, Wünsche anderer werden zurückgestellt. Letztlich ist nicht jede Idee marktreif oder wird vom Markt angenommen. RDNA geht es da schon besser.
 
Zuletzt bearbeitet von einem Moderator:
Also ein 1:1 doppelter Navi kann es eigentlich nicht sein, denn wenn sich die Chipfläche vedoppelt und man einfach nur doppelte Ausfrührungseinheiten zusammenklebt, dann bleibt ja kein Platz mehr für die ganzen Raytracingausführungseinheiten?
Oder werden dafür keine eigenen Bausteine (also Platzbedarf) benötigt?
Oder führt AMD jetzt tatsächlich diese Universaleinheiten ein, die entweder normale Rechenaufgaben, oder aber halt für das Raytracing Arbeit aufnehmen können?
Die wären dann sicherlich einzeln nicht ganz so leistungsstark wie bisherige Einzelkomponenten, aber dafür wäre eine gleichmäßige Auslastung alle Einheiten in jeder Situation gegeben, und man könnte so viel Raytracing zuschalten, wie die Leistung noch zulässt, die Leistungsklasse der gekauften Grafikkarte wäre also schnurzpiepegal, nicht so wie bei NVidia, wo man sich voll in die Nesseln setzt, weil irgendeine Sache ständig limitiert, oder man halt zu viel Geld dafür ausgeben müsste.
Die zusätzliche Hardware für Raytracing-Beschleunigung kostet ein paar Prozent bei Turing, da fällt insgesamt nicht viel an.
Ich habe es mir selber nicht angeschaut, aber Nemez auf Twitter will ungefähr 3.5% als Extrafläche für den TU106 errechnet haben:
https://twitter.com/GPUsAreMagic/status/1244303936246464517/photo/3

Eine andere Sache ist, die nicht überraschend ausfällt, dass die RT-Cores oder Tensor-Cores nicht den Marketingfolien in Bezug auf Anzahl bzw. Implementierung folgen müssen.

Bei AMD ist es relativ sicher, aufgrund eines Raytracing-Patents, dass zusätzliche Hardware-Logik für Raytracing-Beschleunigung innerhalb der TMUs (Texture Mapping Unit) verbaut wird, was dann wohl als "Intersection-Engine" vermarktet wird.
Das wird auch relativ nur wenige Prozent extra Fläche kosten.

In Bezug auf die Shader-Units ist noch nicht klar, wie viele Navi21 (Big Navi) haben wird, allerdings packt AMD ordentlich was zusammen, wenn man sich Renoir oder noch besser, die Xbox Series X anschaut.
Entsprechend kann man erwarten, dass AMD bei RDNA2 die Flächeneffizienz ein gutes Stück nach oben geschraubt hat.
 
Ich weiß nicht, der SOC der Xbox Series X ist ~360mm² groß und besitzt neben I/O Block, 8 Kern Zen2 CPU auch ganze 3584 RDNA2 Shader bei einem 320 Bit Interface. Der GPU Part und das Interface sind wohl laut groben Schätzungen ~300mm² groß.
Nach dem Maß wäre Big Navi wohl eher kleiner als die besagten 505mm² oder aber es sind am Ende nicht 80 CU´s sondern ~96 CU´s.

Weiß jemand mehr bzw. kann eine Einschätzung geben? :)
 
Wie lang ist der Zeitraum zwischen solchen Erwähnungen im Treiber und Release normaler Weise ?

Also 80CU's seh ich prinzipell als gesetzt an :ka:

Dachte bei Big Navi ehrlich gesagt an HBM2 statt GDDR6. 512Bit sollen ja unmöglich zu verdrahten sein. Gibt es zum Thema Speicher, Bandbreite, Menge was Neues ?
 
Also ein 1:1 doppelter Navi kann es eigentlich nicht sein, denn wenn sich die Chipfläche vedoppelt und man einfach nur doppelte Ausfrührungseinheiten zusammenklebt, dann bleibt ja kein Platz mehr für die ganzen Raytracingausführungseinheiten?
Alles wird ja nicht verdoppelt und die Packdichte könnte ja auch etwas höher ausfallen, also mehr Transistoren pro mm²
 
Ich weiß nicht, der SOC der Xbox Series X ist ~360mm² groß und besitzt neben I/O Block, 8 Kern Zen2 CPU auch ganze 3584 RDNA2 Shader bei einem 320 Bit Interface. Der GPU Part und das Interface sind wohl laut groben Schätzungen ~300mm² groß.
Nach dem Maß wäre Big Navi wohl eher kleiner als die besagten 505mm² oder aber es sind am Ende nicht 80 CU´s sondern ~96 CU´s.

Weiß jemand mehr bzw. kann eine Einschätzung geben? :)
Als Übersicht hilft ein Chipfoto von Navi10:
https://twitter.com/gpusaremagic/status/1219342267489685505?lang=da

Die Shader-Units machen einen großen Teil aus, aber Rasterizer/Geometry-Engines/ROPs, L2$ etc. verbrauchen auch eine gute Portion.
Bei Navi21 könnte AMD nach Hawaii (Oktober 2013) das Fixed-Function-Front- und Backend wieder verbreitern.
Also statt 4 Rasterizer, 4 Prim-Units bzw. 2 Shader-Engines, werden es vielleicht 3 Shader-Engines mit 6 Rasterizer, 6 Prim-Units und 96 ROPs oder gar mehr.
Eine offene Frage ist auch, wie AMD die Cache-Größen auslegen wird.

Zusätzlich hat die physische Implementierung einen großen Einfluss darauf, wie groß ein Chip ausfällt.
Also präzise kann man das nicht vorhersagen.

Wie lang ist der Zeitraum zwischen solchen Erwähnungen im Treiber und Release normaler Weise ?

Also 5 Tausend Shader seh ich prinzipell als gesetzt an :ka:

Dachte bei Big Navi ehrlich gesagt an HBM2 statt GDDR6. 512Bit sollen ja unmöglich zu verdrahten sein. Gibt es zum Thema Speicher, Bandbreite, Menge was Neues ?
Es ist relativ losgelöst.
Wenn Arcturus (CDNA1 vermutlich) erscheint, ist über ein Jahr nach den Treiberpatches für Linux vergangen (Juli 2019).
RDNA2 (Big Navi) wird aber noch dieses Jahr erscheinen, spekulativ irgendwann zwischen August bis November.
Beim Speicher gab es keine weiteren Informationen, außer das GDDR6 verwendet wird.
 
Zuletzt bearbeitet:
Ich halte es für sehr unwahrscheinlich, dass wir mehr als 80 CUs (bzw. 40 "Dual Compute Units") sehen werden, denn ein bloßes Klonen der FP32-Einheiten ergäbe keinen starken Chip. Wie Locuza bereits ausführt, sollten da noch andere Blöcke und außerdem die Caches wachsen. Hinzu kommen Dinge wie Raytracing, die in Navi 10 noch gar nicht drin sind, und Platz brauchen. 5.120 FP32-ALUs mit 2+ GHz wären aber genug, um zumindest Turing TU102 zu schlagen.

MfG
Raff
 
Gibt's da neuere? In BF5 war die Titan V schnell. Ich würd's ja selbst testen, aber Nvidia knausert mit Titan-Mustern.

MfG
Raff
 
Doch.

FixedFunctions ist um Längen schneller als eine Software-Shader Lösung.

Hier sieht man es sehr gut:
https://www.igorslab.de/wp-content/...tx-gtx-dxr-one-metro-exodus-frame-893x370.jpg
Und da kann man schon teilweise beruhigen, denn eine reine ALU-Lösung wird es bei RDNA2 schon praktisch offiziell nicht werden.
Andrew Goosen von Microsoft hat schon eine halbwegs konkrete Antwort in Bezug auf Leistung geliefert:
"Without hardware acceleration, this work could have been done in the shaders, but would have consumed over 13 TFLOPs alone," says Andrew Goossen. "For the Series X, this work is offloaded onto dedicated hardware and the shader can continue to run in parallel with full performance. In other words, Series X can effectively tap the equivalent of well over 25 TFLOPs of performance while ray tracing."
Inside Xbox Series X: the full specs • Eurogamer.net

Ich würde jetzt nicht soviel auf die Behauptung geben, außer das die Intersection-Engines eine Menge Arbeit vom Shader-Core abnehmen werden.
Mark Cerny von Sony hat auch gesagt, dass man die gleiche Lösung wie AMD für Raytracing verwendet bzw. es ist schon relativ offenkundig, dass alle auf die gleiche Raytracing-Lösung setzen werden.
 
Zurück