Nvidia GH100: Hopper-GPU soll über 140 Milliarden Transistoren in sich vereinen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia GH100: Hopper-GPU soll über 140 Milliarden Transistoren in sich vereinen

Der GH100, Nvidias Flaggschiff-GPU für Rechenzentren der nächsten Generation, soll Gerüchten zufolge gigantisch werden. Die Die-Größe betrage dabei nicht nur rund 20 Prozent mehr als bei Ampere, sondern die GPU soll auch laut eines Berichts im Chiphell-Forum über mehr als 140 Milliarden Transistoren verfügen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia GH100: Hopper-GPU soll über 140 Milliarden Transistoren in sich vereinen
 
[...]Um diese Ausmaße ins Verhältnis zu setzen...[...]
Fun Facts

Warnung vorab:
Bitte nicht versuchen die Transistoren zu zählen.
Das dauert ca. 4.440 Jahre, wenn jede Sekunde einer gezählt wird.

Der Chip ist nur 8,65x größer als ein i386SX aber…
wäre der 80386 ein Fußballplatz, auf dem pro Quadratmeter ein Mensch steht (7140) würden sich bei Hopper ganz Europa auf dem Platz die Hand geben können.
Wäre Hopper dann auch noch ein Risikospiel, müssten ca. 21 Mio. Sicherheitskräfte abgestellt werden.
;)
 
Das dürfte so die cutting edge sein was machbar ist.
ASML gibt offiziell eine maximale Chipgröße beim belichten von 858 mm^2 an (26 x 33 mm). Ich gehe davon aus, dass es inoffiziell noch ein Bisschen mehr ist. Wenn NV da wirklich alles ausreizt was geht sind 900 mm^2 möglich.

Eine derart hohe Transistordichte die da 140 Milliarden erlaubt (also über 150 Millionen pro mm^2) halte ich da eher für ne Ente. Das wäre mehr als das doppelte von üblichen Transistordichten von 7nm-Chips... SO viel dichter wird 5nm kaum sein gegenüber 7nm. Oder NV nutzt weite Teile der Fläche für riesige dichtest gepackte Caches... ich tippe aber eher drauf dass ein Die "nur" 70 Milliarden hat und die 140 ein 2-Chiplet-Design sind.
 
Zuletzt bearbeitet:
An der regulären Belichtungsgröße gibt es nichts "Verhandelbares", da die eine feste Eigenschaft der Scanner ist. Der wohl weitaus wichtigere Punkt ist, dass hier bzgl. jedem einzelnen Punkt mit ungesicherten Informationen gearbeitet wird, also Transistorzahl, angenommener Logikdichte, daraus resultierender Chipgröße, usw. und entsprechend kommt man hier sehr leicht und schnell zu falschen Einschätzungen.
Beispielsweise die Rechnung 140 Mrd. Transistoren auf 900 mm2 geht überhaupt nicht auf, denn damit käme man zu 155 MTr/mm2, was bereits fast 91 % der maximalen Logikdichte entspricht, die TSMCs N5-Prozesse überhaupt zu realisieren vermögen ... ein viel zu hoher Wert für ein derartiges HighPower/HighPerformance-Design. Genaugenommen ist der Wert geradezu absurd hoch. Lediglich Mobile-SoCs bewegen sich relativ nahe der maximalen Logikdichte und selbst Apple kommt mit seinen M1-Chips nicht einmal ansatzweise in die Nähe einer solchen Dichte (Pro ~ 138 MTr/mm2, Max ~ 132 MTr/mm2).
Hier sollte man einfach noch ein wenig abwarten bis es was Belastbareres gibt ...

*) In today’s 0.33 NA tool, the lens supports 4X magnification with a maximum exposure field size of 26mm x 33mm.
 
Zuletzt bearbeitet:
An der regulären Belichtungsgröße gibt es nichts "Verhandelbares", da die eine feste Eigenschaft der Scanner ist.
Es geht selbstverständlich nicht darum mit dem Gerät zu verhandeln sondern darum dass offizielle Maximalangaben in der Industrie üblicherweise nicht tatsächliche technische Maximalangaben/Limits sind. ;-)
Ich dachte das wäre völlig klar.

Beispielsweise die Rechnung 140 Mrd. Transistoren auf 900 mm2 geht überhaupt nicht auf, denn damit käme man zu 155 MTr/mm2, was bereits fast 91 % der maximalen Logikdichte entspricht, die TSMCs N5-Prozesse überhaupt zu realisieren vermögen ... ein viel zu hoher Wert für ein derartiges HighPower/HighPerformance-Design. Genaugenommen ist der Wert geradezu absurd hoch.
Deswegen sagte ich ja ich gehe eher davon aus, dass wenn an den 140 Milliarden überhaupt was dran ist das die Zahl ZWEIER Chips auf einem Package ist.
 
Was in dem Artikel etwas außer Acht gelassen wird und viel wichtiger ist, dass Nvidia im Exascale Rennen für die nächsten Jahre komplett draußen ist, da sie über kein coherent memory system verfügen. Ja sie haben Nvlink, jedoch ist dies bei den CPU Herstellern (AMD, IBM, intel) nicht implementiert und ein großes Problem für nvidia. AMD&intel haben keinerlei Interesse es zu implementieren, IBM könnte es, hat jedoch sein eigenes Interface Bluelink.
Sprich nvidia muss schauen, dass sie auf ARM Basiseinen entsprechenden Counterpart auf die Beine stellt. Da die nächsten Super PCs wohl only AMD&intel sein werden.
Ein sehr interessanter Artikel hierzu:
 
Zurück