Saturn V: Nvidia hat den vierteffizientesten Supercomputer mit 5.280 Tesla V100

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Saturn V: Nvidia hat den vierteffizientesten Supercomputer mit 5.280 Tesla V100

Nvidia aktualisiert seinen hauseigenen Supercomputer Saturn V. In seiner neuen Ausführung stecken in dem Server 5.280 Beschleunigerkarten des Typs Tesla V100. Das ergibt schlanke 27.033.600 FP32-, 13.516.800 FP64- beziehungsweise 3.379.200 Tensor-Recheneinheiten, die auf eine Effizienz von 15 GFLOPS pro Watt kommen sollen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Saturn V: Nvidia hat den vierteffizientesten Supercomputer mit 5.280 Tesla V100
 
Warum auch immer es eine Rolle spielt ob ein Supercomputer effizient ist.
Bevor jetzt das Argument kommt, dass Stromkosten für die Betreiber (z.B. Staat) irrelevant sind: Schon mal daran gedacht, dass man bei effizienteren Supercomputern, das gesamte Konstrukt verkleinern kann wodurch man wieder mehr Platz und Kühlkapazität für weitere Rechencluster hat? ;)
 
Wenn man mal sieht wo die leistungsstärksten Supercomputer der Welt stehen und wem sie gehören, bezweifle ich doch sehr stark, dass hier Geld eine Rolle spielt, ganz zu schweigen von Platz. Vielleicht spielt es für kleine Supercomputer eine Rolle, wie sie z.B teilweise in Universitäten stehen, aber nicht für die größeren.
 
Geld spielt immer eine Rolle. Ob die Dinger jetzt an Forschungseinrichtungen stehen oder bei irgendwelchen Firmen - Geld zum Verbrennen haben die alle nicht. Speziell in der Wirtschaft wird sehr genau geschaut wie Geld investiert wird - Umsatzrendite und so...

Die Frage ist doch, wenn ich ein festgelegtes Budget habe (und das hat man immer), investiere ich das lieber in Leistung oder in Kühlung und Gebäude? Laufende Kosten kommen noch dazu - Stromrechnung vs weitere Anlagen oder auch Mitarbeiter?

Ich glaube jeder Entscheidungsträger weltweit weiss wie da zu entscheiden ist!
 
Wenn man mal sieht wo die leistungsstärksten Supercomputer der Welt stehen und wem sie gehören, bezweifle ich doch sehr stark, dass hier Geld eine Rolle spielt, ganz zu schweigen von Platz. Vielleicht spielt es für kleine Supercomputer eine Rolle, wie sie z.B teilweise in Universitäten stehen, aber nicht für die größeren.

Mit deiner Einschätzung liegst du falsch.
Einfach ausgedrückt: Die reinen Anschaffungskosten der Rechner-Hardware macht nur einen kleinen Teil der gesamten Investition+Betriebskosten aus.
Energieeffiziente Hardware lässt sich dichter packen, billiger kühlen und verursacht geringere Stromkosten für Betrieb von Rechnern und Kühlung.
 
Ich finde Supercomputer höchst faszinierend, aber habe auch Befürchtungen, wegen Sachen, wie Skynet.
Wenn ich höre, dass die Amerikaner u. Chinesen schon bis 2020 den ersten Exaflop Supercomputer in Betrieb nehmen wollen, der
die 10 Fache Leistung des aktuell stärksten Supercomputers hat, dann ist das schon heftig.
 
15 GFLOPS pro Watt, sehr nett. Bitte auch für die nächsten Geforce- und Tegra-Chips ;)

Meh, für die GPU alleine wäre das kein gutes Ergebnis. Bei den Supercomputern limitiert ja nicht nur die Hardware, sondern auch Kühlung und Interconnects, die ebenfalls immens Strom fressen. Bei Desktops braucht man das natürlich alles nicht, deswegen stehen die da meist besser da. Oder zumindest war das früher so, heute kann Desktophardware ja kein FP64 mehr, was die Vergleiche schwierig macht.

Aber mit Workstationhardware klappts immer noch. Und siehe da, eine Quadro P100 alleine kommt auf fast 19 GFLop/s pro Watt....
 
Nor doof dass selbst eine einzelne eine Quadro P100 weitere Hardware braucht um zu laufen. Schon sinkt die Gesamteffizienz.
 
Pro V100 sind 16GB HBM2 verbaut, also die HBM2 Produktion funktioniert scheinbar. Und alle die auf Vega Costum Modelle warten dürfen weiter warten. ^^

Aber das ist ja hier nicht das Thema.^^
 
Wenn man solche Preise verlangt wie für eine V100 ist natürlich auch HBM2 drin. AMD hat eben das Problem dass sie HBM für Consumer-Massenware brauchen die nur wenige hundert Euro kosten darf.
 
7 mal Japan in den Top Ten und nur 2 mal Europa, hm. Das geht aber besser.

Ich finde Supercomputer höchst faszinierend, aber habe auch Befürchtungen, wegen Sachen, wie Skynet
Solange sie kein Bewusstsein entwickeln :ugly: Aber da sind wir Jahrzehnte entfernt, wenn das mal reicht. Facebook hat vor ein paar Monaten einen Test durchgeführt. Da sollten zwei Bots 5 Bälle fair untereinander aufteilen. Aber sie habens vermasselt. Sie haben nämlich vergesssen bestimmte Parameter einzugeben. Zum Beispiel das sie ihre Schlussfolgerungen offenlegen müssen und noch andere Sachen.
 
Pro V100 sind 16GB HBM2 verbaut, also die HBM2 Produktion funktioniert scheinbar. Und alle die auf Vega Costum Modelle warten dürfen weiter warten. ^^

Aber das ist ja hier nicht das Thema.^^
4 HBM-Chips pro GPU also ~21200 Chips. Lass 80% davon Funktionsfähig gewesen sein, also 26500 Chips. Das ist doch nichts für eine Massenproduktion;)
 
Zuletzt bearbeitet:
Zurück