Nvidia DGX-2: 16 Tesla V100 sollen dank NV-Switches zur 81.920 Shader starken GPU werden

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia DGX-2: 16 Tesla V100 sollen dank NV-Switches zur 81.920 Shader starken GPU werden

Nvidia hat auf der GTC 2018 die zweite Generation seiner DGX-Workstation angekündigt, schlicht DGX-2 genannt. Die Anzahl der verbauten Tesla-V100-Beschleunigerkarten mit der Volta-GPU GV100 verdoppelt sich. 16 Exemplare werden über Nvidias neue NV-Switches aneinander gekoppelt, über den gut 10 TByte Daten pro Sekunde laufen. Der Chiphersteller nennt das DGX-2 eine einzige 81.920 Shader starke GPU.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia DGX-2: 16 Tesla V100 sollen dank NV-Switches zur 81.920 Shader starken GPU werden
 
Mal ne gediegene Runde Battlefield mit 8K und 144Hz, achso das Kabel muss noch erst erfunden werden XD
 
Endlich mal ein PC, der richtig Zukunftssicher ist, nur die Singlecoreleistung der CPUs muß noch gesteigert werden. Ein schöner Ausblick, auf die Zukunft des PC Gamings, wenn die Leistung der einzelnen Karten und CPUs nicht weiter gesteigert werden kann.

Mal sehen, wann so ein Ding in der Signatur vom Schaffe auftaucht...

Mal ne gediegene Runde Battlefield mit 8K und 144Hz, achso das Kabel muss noch erst erfunden werden XD

Das ist kein Problem, einfach 4 mal DP 1.4 zusammenschalten.
 
Zuletzt bearbeitet:
Hatte gerade auch überlegt, ob wir hier den ersten industriellen Ansatz(oder auch schon fertiges Produkt) für eine Art MCM-GPU sehen.
16-Karten zusammengebunden, die als eine GPU angesprochen werden können :sabber:
Lediglich bzgl. des NV-Switch zweifel ich etwas. Der erinnert mich so an die PLX-Chips auf Radeon Pro Duo oder auch Nvidia Titan-Z
 
Hatte gerade auch überlegt, ob wir hier den ersten industriellen Ansatz(oder auch schon fertiges Produkt) für eine Art MCM-GPU sehen.
16-Karten zusammengebunden, die als eine GPU angesprochen werden können :sabber:
Lediglich bzgl. des NV-Switch zweifel ich etwas. Der erinnert mich so an die PLX-Chips auf Radeon Pro Duo oder auch Nvidia Titan-Z

Der Flaschenhals sehe ich eher an der anbindung CPU <->GPU :D
 
Bei einem Preis von 400 Riesen und einer Abwärme von 10 kW würde ich das Ding nicht als Workstation bezeichnen, sondern eher als kompakten Supercomputer. Ich glaube jedenfalls nicht, dass die Klimaanlage bei uns im Büro damit klarkommt, wenn ich mir eine DGX-2 unter den Tisch stelle. :ugly:

Ansonsten wirklich ein schönes Stück Technik, besonders der Switch mit seinen angeblich so niedrigen Latenzen. Ob das mit dem "als eine GPU ansprechen" so gut klappt wird man sehen, das glaube ich erst wenn ich es sehe. Ich verstehe aber nicht so ganze warum das überhaupt so stark beworben wird, Multi-GPU-Skalierung war im HPC Bereich noch nie ein Problem.

Auf so einer Maschine werden wohl kaum "gewöhnliche" Workstation-Programme wie Lightroom oder Photoshop laufen, also was soll das? Will da jemand mit dem größten Cinebench Balken aller Zeiten protzen? :ugly:
Mal ne gediegene Runde Battlefield mit 8K und 144Hz, achso das Kabel muss noch erst erfunden werden XD
Nö, kannst ja einfach 16 Full-HD 144 Hz Monitore mit DP 1.2 anschließen - das macht dann pro Tesla V100 ein Monitor, also optimale Skalierung :ugly:
 
Bei einem Preis von 400 Riesen und einer Abwärme von 10 kW würde ich das Ding nicht als Workstation bezeichnen, sondern eher als kompakten Supercomputer.


16 mal 14,8 Tflops macht 236 Tflops, was bedeuten würde, dass ein einziges DGX-2 noch bis zum November 2008 in der Top-10-Liste der stärksten Supercomputer der Welt wäre.
Und diese Systeme lagen alle zwischen 1000 bis 2500 kW!
November 2008 | TOP500 Supercomputer Sites


Das ist nicht mal 10 Jahre her, einfach nur krass:D
 
Das ist nicht mal 10 Jahre her, einfach nur krass:D
Tjo, so läufts eben in der Supercomputer Szene. Geh noch 7 Jahre weiter zurück, und du würdest eine einzelne GTX 1080 Ti als Spitzenreiter in der Top 500 Liste finden. Und einen Großteil der 90er Jahre Supercomputer werden von einem aktuellen Smartphone plattgemacht.

Exponentieller Anstieg ist halt unfassbar.
 
Hatte gerade auch überlegt, ob wir hier den ersten industriellen Ansatz(oder auch schon fertiges Produkt) für eine Art MCM-GPU sehen.
16-Karten zusammengebunden, die als eine GPU angesprochen werden können :sabber:
Lediglich bzgl. des NV-Switch zweifel ich etwas. Der erinnert mich so an die PLX-Chips auf Radeon Pro Duo oder auch Nvidia Titan-Z

Der Flaschenhals sehe ich eher an der anbindung CPU <->GPU :D

@xtrame90

Die Compute Workload-Last liegt bei den Nvidia DGX-2 Servern hauptsächlich dank CUDA auf den multiplen 16x V100 Tesla GPU's - die zwei 2 x Intel Xeon Platinum CPU (2 x 28 Cores) händeln nur das Management und (OS) Betriebssystem.

@Edelhamster

Der NV-Switch ist ein von Nvidia neu entwickelter 2 Milliarden Transistoren 'Interconnect Fabric' Chip (von TSMC in 12 nm gefertigt) mit jeweils 18 Links. Ganze 12 dieser GPU-NV-Switches (216 Links/Ports) verbinden die 16 Tesla GPU's alle untereinander (jedem mit jedem) und somit können bis zu 2,4 TBit/s an Daten bidirektional über jene NV-Switches geschaufelt werden. Ausserdem bedeuten diesen neuen NVSwitches, dass die PCIe-Lanes der CPUs auch direkt an anderer Stelle umgeleitet werden können, vor allem in Richtung 30TB NVMe-based (Solid State Storage) Speicher- und den 8x InfiniBand 100GigE Netzwerkverbindungen.

Hat also nicht's mit kleinen PLX-Chips für Crossfire/SLi für Sync/Kommunikation für 2 Gamer GPU's auf einer Grafikkarte zu tun.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Detail-Infos zum 'Interconnect Fabric' NV-Switch gibt's hier >>> NVIDIA beschleunigt den GPU-Interconnect und verdoppelt den HBM2-Speicher - Hardwareluxx.de
Nvidia's New DGX-2 (16 GPU Cluster) Supercomputer for AI at GTC 2018 >>> NVIDIA’s DGX-2: Sixteen Tesla V100s, 30 TB of NVMe, only $400K - Anandtech.com
 

Anhänge

  • Nvidia 12x NVSwitch 'Interconnect Fabric'.png
    Nvidia 12x NVSwitch 'Interconnect Fabric'.png
    725,1 KB · Aufrufe: 101
Zuletzt bearbeitet:
Also 400'K für eine DGX-2 sind wirklich ein Klack's - das geht auch teurer .... AIRI 'KI' out of the BOX >>> Pure Storage und Nvidia enthullen 1-Million-Dollar-Box namens Airi | IT-Markt

Auf der Nvidia eigenen Hausmesse 'GTC' (GPU Technology Conference) dreht es sich seit Jahren schon um alle möglichen HPC Supercomputing Bereiche und seit neustem eben auch speziell um 'AI' DeepLearning Performance, dank Nvidia CUDA GPU-Rechenpower .... mit hunderten 'KI' Partnern' der 'GPU-Accelerated Computing Industrie' zusammen. >>> Pure Storage & NVIDIA Join Forces to Bring AI-at-Scale for Enterprises - Pure Storage Blog
 

Anhänge

  • AIRI - Complete AI-Ready Infrastructure.png
    AIRI - Complete AI-Ready Infrastructure.png
    434,1 KB · Aufrufe: 150
Zurück