News Nvidia GB200 ("Grace Blackwell"): Superchip für Supercomputer mit 13,5 Terabyte HBM3e-Speicher

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia GB200 ("Grace Blackwell"): Superchip für Supercomputer mit 13,5 Terabyte HBM3e-Speicher

Im Rahmen der hauseigenen KI- und Entwicklerkonferenz GTC 2024 hat Nvidia neben der neuen Dual-Die-GPU Nvidia B200 auch den auf dieser basierenden Superchip GB200 ("Grace Blackwell") mit Grace-CPU für KI-Supercomputer vorgestellt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia GB200 ("Grace Blackwell"): Superchip für Supercomputer mit 13,5 Terabyte HBM3e-Speicher
 
Die längere Antwort wäre:

Schau dir mal die Top500 an. Dann schau dir an wo die jeweiligen Systeme stehen. Und darauf folgend an was an dem jeweiligen Standort geforscht wird. Dann hast Du deine Antwort.
Ich weiß, dass sie für Wissenschaftliche Eineichtungen gedacht sind.
Finde es allerdings nur etwas unübersichtlich geworden, da es doch schon die Quadro und Nvidia A100 GPUs gibt, die doch ebenfalls den KI Beschleuniger besitzen.

Tragen die Forschungen überhaupt Früchte, oder ist das nur so ein Hype Ding?
Chat GPT braucht ja nicht diese Leistung.
 
Ich weiß, dass sie für Wissenschaftliche Eineichtungen gedacht sind.
Finde es allerdings nur etwas unübersichtlich geworden, da es doch schon die Quadro und Nvidia A100 GPUs gibt, die doch ebenfalls den KI Beschleuniger besitzen.

Tragen die Forschungen überhaupt Früchte, oder ist das nur so ein Hype Ding?
Chat GPT braucht ja nicht diese Leistung.

In der Medizin (Proteine falten) gibt es große Fortschritte (neue Medikamente und Therapien), das autonome Fahren und die Robotik macht nie da gewesene Sprünge, die Wettervorhersage wird genau wie nie zuvor. Und das sind nur ein paar Beispiele.

In der Lithografie wird "KI" jetzt auch eingesetzt: https://www.computerbase.de/2024-03...gte-lithografie-geht-in-die-serienproduktion/
 
Zuletzt bearbeitet von einem Moderator:
Chat GPT braucht ja nicht diese Leistung.
Natürlich benötigt Chat GPT diese Leistung. Natürlich nicht eine Instanz aber es ist ja selten, dass nur ein Nutzer Chat GPT verwendet.

Diese Maschinen sind dann nötig, wenn du deine Modelle trainieren möchtest, da hier - je nach Modell - unglaubliche Mengen an Operationen notwendig ist. Und du musst dein Modell erst einmal finden. Hierzu müssen unzählige Tests gefahren werden, wovon i.d.R. 99,99 % in der Tonne landen. Damit man hier ggf. schneller zum Ergebnis kommt, ist mehr Leistung immer sinnvoll.

Kleines Beispiel: Ich habe damals (tm) in meiner Master-Arbeit mich mit Evolutionären Algorithmen in Kombination mit maschinellem Lernen beschäftigt und hatte einen kleinen nvidia DGX zur Verfügung. Ich habe unzählige Modelle durchlaufen lassen müssen, teilweise 24/7 über Wochen hinweg. Hier war jeder Kern, welchen ich bekommen konnte, einfach Gold wert, weil er die Wartezeit bis zu Erkenntnissen verkürzt hat. Und Zeit ist Geld.

Von daher: Im Data-Center-Bereich und in produktiven Anwendungen benötigst du sehr wohl diese Leistung. In der Entwicklung entsprechender Modelle umso mehr.
 
Zurück