HLRS Hawk: Stuttgart bekommt Supercomputer mit 640.000 Zen-2-Kernen

Glaub CB läuft damit net, weil direkt nur die Punkte bzw das Resultat gezeigt wird :D
Kann aber auch sein, dass es zu einer Fehlermeldung kommt, Fatal Error oder so^^

Kannst ja dann zu schlagen und beim CB nen Infakt bekommen, ich glaube der Balken wird da so lang das du denkst dein Monitor hat nen Defekt :D

Für 3 Mark 50 würde ich da auch zuschlagen xD

Da wird nicht nur der Balken lang mein Lieber^^
 
Damit sollte AMD im HPC-Geschäft erst mal wieder einen Fuß drin haben und es bleibt zu hoffen, das noch weitere Aufträge folgen.

So kann AMD dann ordentlich Umsatz machen.
 
Was machen die eigentlich damit? Was wird damit berechnet? Ich lese oft von neuen Supercomputern aber es steht leider nicht in den Berichten was damit so berechnet wird. Weiß das jemand?
Wie bei den meisten Supercomputern wissenschaftliche Berechnungen und Simulationen schätze ich mal.
Welche jetzt genau weiß ich nicht.
 
24 Petaflops = 24000 TFlops.

Wenn eine Grafikkarte 10 TFlops hat, würde man mit 2400 Grafikkarten die selbe Rechenleistung schaffen.
Aber die sind ja anders aufgebaut und können nicht so komplexe Berechnungen.
Sonst würde man vielleicht Supercomputer aus Grafikkarten bauen?:)

Platz 1, 2 und 7 der aktuellen Supercomputer-Top10 gehen an Nvidia Volta, Platz 5 an Nvidia Pascal, Platz 9 an Nvidia Kepler und mit Xeon Phi findet sich noch ein weiteres Beschleunigerkonzept auf Platz 6. Bei den nächsten 10 geht es munter weiter: Volta, Phi, Phi, Phi, Pascal, Phi, Phi, (7 Jahre altes Sparc-CPU-System), Phi, Volta, (6 Jahre alter PowerPC).
Reine CPU-Systeme sind am aussterben; von den vier noch in den Top10 vertretenen wurden ebenfalls eins 2011 und eins 2013 angefahren. Mit Ausnahme von Deutschland scheint nur noch China und derartige Anlagen zu bauen – und beim TaihuLight handelt es sich um ein Prestigeprojekt für die chinesische CPU-Industrie. Sobald es GPUs/andere Parallel-Beschleuniger aus heimischer Produktion gibt würde ich auch dort ein Umschwenken auf hybride Systeme erwarten. Bei 0,6 Millionen CPU-Kernen braucht man über Single-Thread-Performance ohnehin nicht mehr zu reden, da kann man auch gleich für 60 Millionen Vektoreinheiten coden. Vermutlich haben die Top10 Supercomputer schon mehr GPU-Rechenleistung, als alle reinen CPU-Systeme in der gesamten Top500-Liste zusammengenommen.
#CPUs ruled. So did Dinosaurs.
 
Platz 1, 2 und 7 der aktuellen Supercomputer-Top10 gehen an Nvidia Volta, Platz 5 an Nvidia Pascal, Platz 9 an Nvidia Kepler und mit Xeon Phi findet sich noch ein weiteres Beschleunigerkonzept auf Platz 6. Bei den nächsten 10 geht es munter weiter: Volta, Phi, Phi, Phi, Pascal, Phi, Phi, (7 Jahre altes Sparc-CPU-System), Phi, Volta, (6 Jahre alter PowerPC).
Reine CPU-Systeme sind am aussterben; von den vier noch in den Top10 vertretenen wurden ebenfalls eins 2011 und eins 2013 angefahren. Mit Ausnahme von Deutschland scheint nur noch China und derartige Anlagen zu bauen – und beim TaihuLight handelt es sich um ein Prestigeprojekt für die chinesische CPU-Industrie. Sobald es GPUs/andere Parallel-Beschleuniger aus heimischer Produktion gibt würde ich auch dort ein Umschwenken auf hybride Systeme erwarten. Bei 0,6 Millionen CPU-Kernen braucht man über Single-Thread-Performance ohnehin nicht mehr zu reden, da kann man auch gleich für 60 Millionen Vektoreinheiten coden. Vermutlich haben die Top10 Supercomputer schon mehr GPU-Rechenleistung, als alle reinen CPU-Systeme in der gesamten Top500-Liste zusammengenommen.
#CPUs ruled. So did Dinosaurs.
Danke für die Aufklärung!:daumen:
 
Was machen die eigentlich damit? Was wird damit berechnet? Ich lese oft von neuen Supercomputern aber es steht leider nicht in den Berichten was damit so berechnet wird. Weiß das jemand?

Ich rechne im Rahmen meiner Doktorarbeit Strömungs-Simulationen im Bereich der Kühlung von Raketen-Triebwerken auf der Hazelhen (aktuelle Maschine am HLRS).
Ein Großteil der Rechenzeit solcher Maschinen geht für wissenschaftliche Simulationen in den Bereichen Ingenieur-/Materialwissenschaften, Physik, Wetter/Klima oder Chemie drauf.
In Stuttgart dominiert eindeutig die Ingenieurswisschenschaft und hier vor allem der Bereich Strömungssimulation.
Ein paar Rest-Prozent in Stuttgart werden von industriellen Partnern verbraten (hier v.a. Porsche). Was genau die rechnen ist natürlich geheim, es dürfte aber mit ziemlicher Sicherheit
Strömungssimulation und Mechanik-Simulation (Crashverhalten, etc.) sein.

Hier findest du den Jahresbericht 2017 des HLRS:
HLRS High Performance Computing Center Stuttgart - Annual Report
 
24 Petaflops = 24000 TFlops.

Wenn eine Grafikkarte 10 TFlops hat, würde man mit 2400 Grafikkarten die selbe Rechenleistung schaffen.
Aber die sind ja anders aufgebaut und können nicht so komplexe Berechnungen.
Sonst würde man vielleicht Supercomputer aus Grafikkarten bauen?:)

Richtig hauptsächlich laufen dort Monte Carlo Simulationen ab oder CFD in Verbindung mit Verbrennungsprozessen, in beiden Fällen ist eine GPU nur ein kleines Hilfsmittel um die Simualtion von 0 - 50 % zu beschleunigen.


Ein paar Rest-Prozent in Stuttgart werden von industriellen Partnern verbraten (hier v.a. Porsche). Was genau die rechnen ist natürlich geheim, es dürfte aber mit ziemlicher Sicherheit
Strömungssimulation und Mechanik-Simulation (Crashverhalten, etc.) sein.

In der Regel machen die dort CFD Simulationen vom Verbrennungsprozess inkl. der Kühlung. Dann spart man sich einen aufwendigen und weniger aussagekräftigen Versuchsaufbau über die indizierten Drücke und Temperaturen in einem Brennraum. Simulieren kann man zwar nicht alles, aber "testen" war gestern, heute wird fast nur noch validiert. Was so ziemlich viele hier im Forum immer noch nicht glauben wollen, wenn ich mal wieder einen Thread erstellen sollte.
 
Zuletzt bearbeitet:
Zurück