News Nvidia Blackwell: B200-GPU stößt als Dual-Die-Monster in ganz neue Sphären vor

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Blackwell: B200-GPU stößt als Dual-Die-Monster in ganz neue Sphären vor

Nvidia hat seine hauseigene KI-Entwicklerkonferenz GTC 2024 wie erwartet dazu genutzt, um die neue Blackwell-Architektur sowie die darauf basierende Dual-Die-GPU Nvidia GB200 und den Superchip Nvidia GB200 vorzustellen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia Blackwell: B200-GPU stößt als Dual-Die-Monster in ganz neue Sphären vor
 
(Gigantische) Chip-to-Chip-Comm....
SLI-Revival im RTX-Titan-Segment?

Fehlen wohl die Enfgines und Treiber-Ressourcen...
 
(Gigantische) Chip-to-Chip-Comm....
SLI-Revival im RTX-Titan-Segment?

Fehlen wohl die Enfgines und Treiber-Ressourcen...

Ich denke den Die-to-Die-Link kann man nicht vergleichen mit SLI, denn hier wird eine GPU angesprochen und nicht zwei separat. Der lange Weg zwischen den GPUs hat damals ja hohe Latenzen verursacht, die hat man so (auf einem Substrat direkt verbunden) anscheinend im Griff.

Ich bin gespannt auf die technischen Details. Und ich freu mich auf die Consumer Blackwells. Wenn der Datacenter Chip SO aussieht, mit einem Haufen Innovationen, dann werden die Gaming Chips bestimmt auch abliefern. Aber man soll den Tag nicht vor dem Abend loben...

Das Multi-GCD RDNA4 Design hat ja laut Gerüchten nicht funktioniert, und Nvidia haut dann dieses Ding raus. Ich könnte mir vorstellen dass AMD wusste was da kommt / kommen könnte.
 
Siehe auch https://www.pcgameshardware.de/Graf...idia-GB200-Grace-Blackwell-Superchip-1443264/
Laut Nvidia sind Unternehmen wie Amazon, Dell, Google, Microsoft, OpenAI und Tesla bereits an entsprechenden Lösungen interessiert.
Warum braucht eigentlich Google Nvidia, die haben doch ihre eigene TPU?
 
Zumindest vom Dual-Chip Ansatz wohl eher nichts. Einfach noch zu teuer für den Consumer Markt.
Dürfte auch eigene Probleme mit sich bringen bezüglich Latenzen. AI Inference braucht eher Bandbreite so wie ich das verstehe, Gaming bessere Latency.

Ich denke die werden einen beschnittenen Die von den hier gezeigten Zweien bringen. Das wären auch schon 30% mehr Transistoren/Shader + 30-50% schnelleres GDDR7 + 10-20% mehr Takt. Why even bother doing more ? Schon eine 5080 wird vermutlich leider alles deklassieren was man von AMD bisher hört (ausser die spielen Poker und bringen was ganz krankes).

Mein Tipp wären 160-168 SMs und um die 20.480 - 21.504 Shader mit 24GB 1,5 TB/s Memory bei einer 5090. Ich würde meine Erwartungen in Games hier bei +50% Mehrleistung ggü. einer 4090 deckeln vorerst. Mehr nehm ich immer. :D
 
@PCGH_Sven
Kleinen Tippfehler in der Kopfzeile entdeckt, da ist ein G zu viel: Dual-Die-GPU Nvidia GB200 und den Superchip Nvidia GB200

Der B200 ist wahrlich beeindruckend. Und am Ende des Artikels las ich, das war nur der B200 und nicht der Super-Chip.:sabber:
Mal schauen, was im Consumerbereich ankommt. Bin schon ganz hippelig.
 
Zuletzt bearbeitet:
Warum braucht eigentlich Google Nvidia, die haben doch ihre eigene TPU?

Weil Nvidia das ganze System verkauft, nicht nur den Chip. Du kaufst das vollständige Rack ein und bekommst die ausgebaute Plattform und optimierte Software dazu.

Außerdem ist die Frage: wie viele Racks kann Google in welcher Zeit aufbauen? Wer vorne mitspielen will, der braucht ordentlich Kapazität, und die kann man bei Nvidia einkaufen.

Ich schätze das ist auch einer der Punkte wo AMD noch aufholen müsste. Ein vollständiges DGX (Datacenter) / NVL (Rack) kenne ich von AMD nicht.
 
Was für ein Brett, Gratulation. Endlich wird Multichip-Design in GPU etabliert, danke dafür an AMD. Jetzt würde mich mal die Pros und Cons von MCM und DDG interessieren. Wie weit ist AMD eigentlich bei GPU MCM?

MfG
 
Dürfte auch eigene Probleme mit sich bringen bezüglich Latenzen. AI Inference braucht eher Bandbreite so wie ich das verstehe, Gaming bessere Latency.

Ich denke die werden einen beschnittenen Die von den hier gezeigten Zweien bringen. Das wären auch schon 30% mehr Transistoren/Shader + 30-50% schnelleres GDDR7 + 10-20% mehr Takt. Why even bother doing more ? Schon eine 5080 wird vermutlich leider alles deklassieren was man von AMD bisher hört (ausser die spielen Poker und bringen was ganz krankes).

Mein Tipp wären 160-168 SMs und um die 20.480 - 21.504 Shader mit 24GB 1,5 TB/s Memory bei einer 5090. Ich würde meine Erwartungen in Games hier bei +50% Mehrleistung ggü. einer 4090 deckeln vorerst. Mehr nehm ich immer. :D
Halte ich tatsächlich auch für eine sehr nachvollziehbare und realistische Einschätzung. Plus Minus gibt es immer etwas.

Könnte mir auf der Basis vorstellen das eine 5080 nativ etwas hinter der 4090 zurück bleibt, aber mit weiter verbesserten AI Einheiten bei Verwendung von DLSS und DLSS FG sich auf Augenhöhe zur 4090 platziert.

Die 5090 nativ schon 50+% vor der 4090 ist und mit DLSS nochmal gut 10+% mehr drauf legt
 
Was für ein Brett, Gratulation. Endlich wird Multichip-Design in GPU etabliert, danke dafür an AMD. Jetzt würde mich mal die Pros und Cons von MCM und DDG interessieren. Wie weit ist AMD eigentlich bei GPU MCM?

MfG

MI300 ist eine MCM GPU mit mehreren verbundenen "Compute Dies".

Pro und Con wird man wohl erst zu Release des B200 prüfen können. Wenn ich raten soll: MCM hat höhere Latenzen, ist dafür günstiger als der Die-to-Die Ansatz. Ggf. kommen bei MCM auch weniger defekte GPUs am Ende raus.
 
Mein Tipp wären 160-168 SMs und um die 20.480 - 21.504 Shader mit 24GB 1,5 TB/s Memory bei einer 5090. Ich würde meine Erwartungen in Games hier bei +50% Mehrleistung ggü. einer 4090 deckeln vorerst. Mehr nehm ich immer. :D
Da GB202 wohl auch nur 4nm wird würd ich da erstmal nicht all zu viel erwarten.

Es sei denn das Ding wird auch 800mm² order so.
 
Warum braucht eigentlich Google Nvidia, die haben doch ihre eigene TPU?
Sie verkaufen es weiter über ihre Cloud. Da können die Enterprisekunden auswählen, ob sie Google TPU, Nvidia oder AMD wollen.
Ich glaube alle grossen HyperScaler kaufen von NVidia und AMD Chips.
 
Fun Fakt:
Blackwell ist nicht größer als Hopper. Es sind zwar 2 DIEs, aber beide DIEs zusammen sind nur so knapp groß wie Hopper (den HBM3e nicht mitgerechnet). Ergo es sind 2x ~400mm² DIEs.
Mit 200 Milliarden Transistoren beim B100 (oder B200?) erahne ich großes für die 5090, wenn GB202 auch in derselben Transistorgröße gefertigt wird.
Denn 200 Milliarden Transistoren bei 800mm² wären 250mT/mm² !!! Das ist doppelt so viel wie bei der 4090 und 2.5x soviel wie bei Hopper...
Wenn die 5090 halbwegs mitzieht...oh boy oh boy...
150 Milliarden Transistoren bei 600mm²....
 
Zurück