@gerX7a
Auf den ersten Blick mag das so scheinen allerdings muss man aufpassen wenn man die Chip Density [...]
Da die Unfallgefahr verschwindend gering bei einem Vergleichsversuch ist, ist es erst mal grundlegend nicht "gefährlich".
Darüber hinaus muss man wissen was man vergleicht. Wenn man sich zwei Zen2-Kerne zzgl. L2 ansieht stellt man fest:
Renoir (N7): gemittelt 62,8 MTr/mm2 über den gesamten Chip, ~ 7,65 mm2 für zwei Kerne
Xbox Series X (?): gemittelt 42,5 MTr/mm2 über den geamten Chip, ~ 7,69 mm2 für zwei Kerne
Offensichtlich scheint AMD hier die Designs mit der gleichen Logikdichte zu implementieren. Die geringfügigen (aus Die Shots errechneten) Flächenabweichungen dürften weitestgehend auf die unterschiedliche Güte der Die Shots zurückzuführen sein. Die beträchtlich höhere Logikdichte bei Renoir im N7 kommt also durch die anderen Chipbestandteile des Designs zustande.
Etwas ähnliches beobachtet man auch zwischen der Xbox und Navi 10, wenn man sich eine WPG (zwei CUs) ansieht:
Navi 10 (N7P): 3,99 mm2
Xbox Series X (?): 3,91 mm2
Die sehr geringen Abweichungen darf man wohl auch hier größtenteils auf die Güte der Die Shots zurückführen. Microsoft hat ja bereits bestätigt, dass die Raytracing-Intersection-Engines nur vergliechsweise wenig Chipfläche in Anspruch nehmen (analog zu Turing) und etwas wie Tensor Cores gibt es hier nicht, d. h. die CUs werden nicht übermäßig größer ausfallen als bei RDNA und werden anscheinend auch mit einer sehr ähnlichen Logikdichte implementiert.
Entsprechend ist es auch naheliegend, dass AMD hier nennenswerte IP-Blöcke übernimmt und daher auch RDNA2 im N7(P) fertigt und nicht etwa im N7+, was umfangreiche Überarbeitungen erforderlich machen würde, noch dazu für AMDs deutlich kleineren GPU-Marktanteil. Bei den Konsolen-SoC hätte sich das wohl noch aufgrund des (über die Jahre) hohen Volumens gelohnt, anscheind wollte jedoch keiner den Aufwand bezahlen, sodass es auch hier bei DUV blieb.
Und die 15,3 Mio. Transistoren der XBox Series X sind zweifelsfrei keine "Finte". Auf so einen Blödsinn hätte sich Microsoft zweifelsfrei nicht eingelassen. Im Zweifelsfall hätten die schlicht keine Angaben zur Transistorzahl oder Die-Größe gemacht, aber sicher nicht explizit falsche Zahlen in offiziellen Dokumenten und Präsentationen veröffenlticht; das ist reichlich absurd!
Das wird wohl auch der Grund sein wieso sie nun einen GA103 als Ersatz für die 3080 (bzw. GA102 von 82 auf 68SM beschnitten) auflegen werden. [...]
Der GA103 ist zweifelsfrei kein Ersatz, wenn es den gibt, sondern dann der reguläre Hauptlieferant für bspw. die 3080er -Bestückung sowie die 3070 Ti/Super. Die 3080er auf Basis des GA102 werden voraussichtlich nur der Fertigungskostenoptimierung des GA102 dienen, denn dessen Hauptprodukte bewegen sich alle nahe des / oder sind der Vollausbau(s), d. h. man muss irgendwie auch noch teildefekte Chips sinnvoll verwerten, weil es sonst zu teuer wird.
Das würde auch erklären, warum die Verfügbarkeit so mau ist, denn man startete voraussichtlich primär mit der GA102-Produktion, nur hat man hier natürlich nicht auf Teufel-komm-raus produziert, insbesondere in einer so frühen Prozessphase, da man sonst viel Ausschuss fertigt, der dennoch übermäßig teuer ist aufgrund des großen Chips. Hier ging es voraussichtlich nur darum früh zu launchen und den Markt auf Ampere "einzustimmen" und für den Rest kann man sich noch etwas Zeit lassen, da man sich (im Rahmen des Möglichen) wohl an AMD orientieren will.
Entsprechend darf man auch annehmen, dass die 20 GiB-3080 unter 1000 € bleiben wird. Wie schon mehrfach erklärt kann nVidia hier nur bei deutlich mehr Leistung (entweder auf ihrer Seite oder durch ein Totalversagen vom AMD) oder wenn AMD generell bzgl. seines Topmodells preislich deutlich zulangen wird, den Preis signifikant erhöhen.
Dass die 3080 Ti/Super überigens nennenswert schneller wird kann man ausschließen, da ein nennenswerter Teil des PowerBudgests für den üppigen Speicherausbau draufgehen wird. Entweder wird es auch hier Samsungs 8N für den GA103 werden (wenn er denn kommt) und die TBP wird gar noch etwas erhöht werden müssen oder es wird TSMCs N7 werden und man nutzt die Power Savings zur Realisierung des größeren Speichers, ohne dass die GPU darunter leidet, bzw. vielleicht bleiben ja auch noch minimale Reserven für ein paar MHz oder zwei CUs mehr? Ich würde zu TSMC tendieren, denn J.Huang sagte explizit dass der Großteil der GPUs bei TSMC gefertigt werden wird. (Aktuell wurde gerade mal ein einziger Ampere-Chip gelauncht.)
Und darüber hinaus werden die Herstellungskosten für nVidia mit dem bereits hier skizzierten Szenario weitaus tragbarer sein, als zuvor suggeriert. Mit obigem Szenario hält nVidia die Kosten gering und man hat einen recht großen Markt für den GA102. Etwas vergleichbares fehlt AMD beispielsweise. nVidia kann den GA102 an Prosumer und Enthusiasten verkaufen, wird eine neue Titan an semiprofessionelle Nutzer und kleinere Rechnecenter verkaufen und die Quadro(s) an professionelle Anwender. AMDs AIB-Marktanteil ist deutlich geringer, im Consumer-Geschäft und voraussichtlich im professionellen Segment mit ihren Radeon Pro's gar noch mehr und entsprechend teuerer wird für sie eine vergleichbare Fertigung. Und darüber hinaus kann nVidia teildefekte Chips immer noch weiter für eine 3080 verwerten, was sicherlich mit der Zeit abnehemn wird, wenn sich beide Prozesse, sowohl für den GA102 als auch den GA103 weiter einfahren.
In diesem Jahr geht man bei nVidia von einem Umsatzplus von über +35 % (!) aus, womit sie AMD weit abgeschlagen hinter sich lassen werden. So etwas erreicht man nicht, wenn man zu "blöd" für ein sinnvolles und kosteneffizientes Produktdevelopment ist und da wird sich bei denen auch gesichert keiner "in den A. beißen".
Ich verstehe diesen hin und her mit HBM2 und GDDR6 irgendwie so gar nicht... gibt es überhaupt was Handfestes außer den nackten Zahlen zum vergleichen oder warum Preist nun jeder HBM2 an ?
Es preist doch keiner HBM an?!? HBM war für RDNA2 schon immer das weitaus unwahrscheinlichere Szenario. Wie Tech_Blogger schrieb, hat es technisch durchaus einige Vorteile, ist jedoch teuer, was es primär für hochpreisige, professionelle Produkte attraktiv macht oder bspw. wenn einige technische Eckpunkte das Produktdesign dominieren, so wie bspw. die Zurverfügungstellung von extrem viel Speicherkapazität (was sowohl Chipanzahl, PCB-Layout als auch Stromkosten beeinflusst) oder bspw. der Bedarf nach einer extrem hohen Speicherbandbreite.
Gaming-GPUs liegen bzgl. der Kapazität eher im unteren Segment und bzgl. der Bandbreite bestenfalls im Mittelfeld, d. h. hier dominieren in diesem Fall die Implementationskosten, die bisher übrlicherweise das KO-Kriterium für Consumer-Karten darstellten.
Der Bedarf an noch mehr VRAM wird in den nächsten 12 - 24 Monaten sicherlich nicht nennenswert ansteigen *), jedoch könnten durchaus die Bandbreitenanforderungen für noch "schönere" Grafik weiterhin steigen, sodass möglicherweise zumindest die in 2022 kommenden HighEnd-Chipdesigns zumindest auf HBM2 setzten werden. Man wird sehen. Ab einen gewissen Grad kippt die Kosten-Nutzen-Rechnung und dann wird man auch HBM2 regulär im Consumer-HighEnd einführen. Dieses Jahr jedoch ist das nicht bei nVidia und aller voraussicht nach auch noch nicht bei AMD der Fall.
Gesichert ist eine HBM2-Einführung mit der 2022er-Generation jedoch damit noch nicht. Beispielsweise wenn die HBM2-Kosten stabil hoch bleiben, könnte nVidia sein aktuelles Design (max. 384 Bit GDDR6) mit einem größeren L2-Cache aufwerten. Gleichzeitig könnte man ggf. gar die Speicherbandbreite möglicherweise leicht reduzieren und vielleicht eine etwas konstengünstigere Implementation via 16/18 Gbps-GDDR6 vornehmen. In 2022 wird man 5 nm nutzen, d. h. die benötigte Wafer-Fläche für einen großen L2-Cache wird geringer ausfallen, jedoch werden auch die Kosten pro Wafer deutlich steigen ... hier gibt es viel abzuwägen und gegeneinander aufzurechnen.
Analog die gleiche Möglichkeit für AMD mit RDNA3. Man behält den Cache bei und vergrößert einfach nur das SI auf bspw. 320 oder 384 Bit und verzichtet möglicherweise noch ein weiteres Mal auf eine HBM-Implementaiton.
*) Aktuell "sind" wir schon bei 16 bzw. 20 GiB im HighEnd.