News 288 GiByte HBM3e-Grafikspeicher: Nvidia liefert mit dem GH200-Superchip ("Grace Hopper") neue Superlativen für AI

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu 288 GiByte HBM3e-Grafikspeicher: Nvidia liefert mit dem GH200-Superchip ("Grace Hopper") neue Superlativen für AI

Nvidia hat die SIGGRAPH 2023 nicht nur dafür genutzt, die RTX 5000, RTX 4500 und RTX 4000 sowie die RTX Workstation im Detail vorzustellen, sondern hatte ein noch heißeres Eisen im Feuer. Der schier riesige GH200 ("Grace Hopper") Superchip erhält ein signifikantes Upgrade und bietet zukünftig bis zu 288 GiByte HBM3e-Grafikspeicher für AI-Computing.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: 288 GiByte HBM3e-Grafikspeicher: Nvidia liefert mit dem GH200-Superchip ("Grace Hopper") neue Superlativen für AI
 
Relife des ungeliebten HBM-VRAMs :daumen:
Ich fand Diesen in meiner Vega 64 super. Nur der Chip hätte schneller sein können und mit 16GiB aka R VII.
NV wird sich da schon was dabei gedacht haben :D
Gruß T.
 
Bis ....beeindruckende 8 Peta FLOPS an Rechenleistung zusammenschalten.Wahnsinnn ....will nicht wissen was so ein ding Kosten wird.Vielleicht bekommt ein Mittelklassewagen dafür oder noch teurer?Im nähsten 2ten Quartal bzw. Jahr werden wirs wissen:ugly:
 
"288 GiByte" ist schon ein Schlag ins Gesicht für alle Gamer :kotz:

History repeatin'... ;-)

1981:
Screenshot_20230809_192433_Samsung Internet.jpg

2023:
Screenshot_20230809_193207_Samsung Internet.jpg
 
Gibt es der Gerät auch im SLI? :fresse:
SLI und CrossfireX habe ich schon wieder vergessen. Heutzutage kommunizieren GPUs über den PCIe Bus.

Edit: Ach ja, und die GPU hätte ich natürlich gerne. Schade, dass hier schon wieder die Macht der neuen Technologie in die Hände derer fällt, denen das Geld schon aus den Ohren hervorquillt.
 
Zuletzt bearbeitet:
Na ja, die 4070Ti hat fast 1/25 Ram und kostete ca. 1/30.
Hier wird der DGX GH200 mit 256 GH-Einheiten mit einem niedrigen achtstelligen Betrag veranschlagt.
https://www.anandtech.com/show/1887...duction-announcing-dgx-gh200-ai-supercomputer
Ja, habe mich wohl auch verrechnet. Vergessen wie teuer die 4090 ist. Ich bin von 30.000 pro GH ausgegangen, wobei das vermutlich die absolute Untergrenze ist. Von da aus wäre es 1/20. 4090 und 4070Ti haben ja ähnliche Mengen Speicher pro Preis.
Warum? Wer braucht denn nur ansatzweise soviel Speicher?
Na jeder, der zuhause sein eigenes Skynet bauen möchte.
 
Wenn man bedenkt, wo die ersten 3D-Beschleuniger Mitte der 90er angefangen haben, auch mit dem Nvidia NV1 anno 1995, und jetzt, gerade mal 30 Jahre später, haben wir Systeme mit solch gewaltiger Rechenpower.

Hier wird der DGX GH200 mit 256 GH-Einheiten mit einem niedrigen achtstelligen Betrag veranschlagt.

Der Vorgänger, H100, kostet pro Stück momentan unter 50k Euro. Auf Grund des erweiterten Speichers v.a. und der gestiegenen Preismöglichkeiten, gehe ich jetzt mal von mind. 100k pro Stück aus.
Außer ich hätte da was falsch verstanden.

Und wenn ich das richtig verstehe, bestehen die 256 GH-Einheiten jeweils aus einer neuen Grace GPU und einer alten H100 Hopper, deshalb wohl der Name Grace Hopper.
 
Zurück