Wer hat den grünsten HPC-Daumen?

AW: Wer hat den grünsten HPC-Daumen?

Vor nun mehr als zwei Jahr hatte nVidia am 21.09.2010, ich berichtete, ihre Roadmap für die Zukunft vorgestellt, und mit Kepler für 2011, nach dem verkorksten Fermi start, eine deutlich gestiegene DP-Flop/s pro Watt Leistung versprochen. Fast genau ein Jahr später wollte nVidia von dieser Roadmap anscheinend nicht mehr wissen, und verschob "einfach" Kepler und Maxwell um jeweils ein Jahr.
21.09.2011? Hmmm ... 05.08.2011 ...

http://www.pcgameshardware.de/Grafi...a-fuer-2012-bestaetigt-News-des-Tages-837507/
 
AW: Wer hat den grünsten HPC-Daumen?

Das ist doch da :ka:, also in beiden Diagrammen.
Für mich ist eine gute Legende _mehr_ als nur die Beschriftugn der x- und y-Achse und der verschiedenfarbigen Kennlinien.
Aber okay, ich hab mich inzwischen auch etwas belesen :schief:

Das ist kein Problem. Beim zweiten hat sich, wie gesagt ein Fehler eingeschlichen. Bin in der Zeile in der Tabelle verrutscht, was mir leider nicht gleich aufgefallen ist. Wie gesagt, da war ein "Ticket" offen, das sofortige Bearbeitung verlangte :lol:
Passiert, ärgerlich. Korrigiert, vorbildlich. Alles in bester Ordnung. Ich hoffe, das "Ticket" wurde zur vollen Zufriedenheit des "Kunden" geschlossen? Okay, privat, geht mich nichts an, will ich nicht wissen :devil:

R_Max und R_Peak sind genau das was ich gesagt habe.
Entschuldige, dann hatte ich das überlesen.

Zumindest soweit ich das verstanden habe.
Ein Satz, der an Deiner Fachkompetenz zweifeln läßt. Bis eben warst Du mein Green500-Guru. :hail:
Nee, im Ernst, Deine "News" bzw Dein Exkurs, kleine Abhandlung, Hausarbeit, vollwertiger Magazinartikel (wink an PCGH, bräuchtet Ihr je einen Redakteur für die Sparte "Supercomputer", hier bietet sich jemand an...), läßt einen echt glauben, Du hast Ahnung von der Materie. Und dann kommt so ein Satz. Was soll man denn nun glauben?

Eben der Maximalwert, den man erreicht hat, und R_Peak der theoretische (kurzfristig ?) erreichbare Wert. Hab auf der Green500 Liste das auch gesucht, aber leider gabs dazu keine Erklärung. Die Bedeutung der Zahl ist aber im Prinzip äquvalent, weshalb ich darauf jetzt nicht rumgeritten bin. In beiden Fällen besteht noch Optimierungspotenzial.
Okay, das ist ne Erklärung, damit kann ich leben.
Auch wenn
Ok, also
R_max: tatsächlich erreichter Wert in einem kompletten Linpack-Run
R_peack: theoretisch möglicher Wert für den Supercomputer an und für sich.

Und die f(x)-Achse zeigt dann halt R_max/R_peak
Jetzt klar?
natürlich viel besser ist :schief:
Jo, alles klar, das reicht mir als Erklärung.


Wie gesagt, ist aber im Prinzip egal, da die Aussage prinzipiell äquivalent sind.
Neenee, das ist nicht äquivalent, das ist ja gerade der springende Punkt. Sie unten (*)

Der Wert für die FirePro ist auf jeden Fall viel zu niedrig. Da hatte schon die HD5k serie bessere Werte. Hab vor kurzem mit Gispel genau darüber ne Diskussion im 3DCenter gehabt. Zudem sieht man ja auch bei der HD7970 das da auf jeden Fall noch deutlich mehr drin ist! Damit steigt zwar sicherlich auch der Verbrauch, aber die Effizienz sollte dennoch steigen. So Sachen wie RAM, CPU usw verbrauchen ja etwa gleich viel.

Laut Gipsel sollte die HD7970 (Tahiti GCN) eigentlich sogar Werte von ~90% für DGEMM erreichen, also ein Wert ähnlich dem von nVidia mit der K20x. Davon ist man aber, wie man sieht WEIT entfernt.

Und genau um den Punkt gings mir auch, weil er einfach so was von extrem auffällig ist, das es schon in den Augen wehtut, das zu sehen. Da kann einfach irgendwas nicht stimmen. Mögliche Ursachen habe ich ja genannt.

In den Hauptartikel wollte ich das aber nicht rein packen. Es war aber mit ein Grund den Artikel zu schreiben. Es ist einfach ZU auffallend. Vor allem weil das System halt trotzdem verdammt! gut dasteht was die Effizienz, also Flop/s pro Watt angeht.
Ja, da ist sicher viel Raum für Spekulationen und Interpretationen.

(*)
Dennoch finde ich da etwas verwunderlich:
Ich vergleiche die beiden Diagramme direkt miteinander:
Green500compare.png
Entschuldige die schlechte Qualität, Du hast die Originale, ich hab das nur mal eben schnell zusammengeschustert, für den besseren Überblick.

Ich pick mir mal den XeonPhi raus und betrachte mal nur den ersten und den letzten Punkt.
Dann stell ich im unteren Diagramm fest, das der XeonPhi verdammt gut mit der Anzahl skaliert.
Aber seine Rechenleistung nimmt laut oberen Diagramm ab?
Das heißt doch, bei einem "kleinen" System, das etwas mehr als 40kW Leistungsaufnahme hat, liefert mit ein XeonPhi 2500 MFlops, was 70% seiner theoretischen Rechenleistung entspricht.
Ein großes System aber, das mehr als 4000kW Leistungsaufnahmen hat, liefert nur noch 500 MFlops, erreicht gleichzeitig aber immer noch fast 70% der theoretischen Rechenleistung?
Oder anders ausgedrückt:
Bei wenigen XeonPhis liegt die theoretische Rechenleistung bei etwa 3500MFlops (2500*10/7), bei vielen XeonPhis bei etwa 720MFlops (500*10/7).
Bei der theoretischen Rechenleistung würde ich aber erwarten, das diese linear mit der Anzahl der Prozessoren wächst.
Zwei Prozessoren haben nunmal theoretisch die doppelte Rechenlsitung von einem.
Wie geht denn das, bitte schön?
Hab ich da nochwas bei Dir im Artikel überlesen? Oder was anderes übersehen?
 
Zuletzt bearbeitet:
AW: Wer hat den grünsten HPC-Daumen?

Passiert, ärgerlich. Korrigiert, vorbildlich. Alles in bester Ordnung. Ich hoffe, das "Ticket" wurde zur vollen Zufriedenheit des "Kunden" geschlossen? Okay, privat, geht mich nichts an, will ich nicht wissen :devil:
Passt schon ;)

Ein Satz, der an Deiner Fachkompetenz zweifeln läßt. Bis eben warst Du mein Green500-Guru. :hail:
Nee, im Ernst, Deine "News" bzw Dein Exkurs, kleine Abhandlung, Hausarbeit, vollwertiger Magazinartikel (wink an PCGH, bräuchtet Ihr je einen Redakteur für die Sparte "Supercomputer", hier bietet sich jemand an...), läßt einen echt glauben, Du hast Ahnung von der Materie. Und dann kommt so ein Satz. Was soll man denn nun glauben?
Naja, ich schau auch nicht jedes winzigste Deailchen immer nach. Da kann man sich dann auch immer mal an was falsch erinnern. Ich nehm bei manchen Sachen, die eigentlich nur am Rande angesprochen werden, es nicht sooo genau. So lang ich mir ziemlich sicher bin, dass der Sinn/Aussage so passt passts halt. Man kann mich dann aber gern korrigieren, falls ich mich doch mal falsch erinnere. Ist halt doch nicht gerade "klein" das Themengebiert :ugly: Da kann man kaum alles im Kopf behalten.

(*)
Dennoch finde ich da etwas verwunderlich:
Ich pick mir mal den XeonPhi raus und vergleiche die beiden Diagramme direkt miteinander:
Anhang anzeigen 601527
Entschuldige die schlechte Qualität, Du hast die Originale, ich hab das nur mal eben schnell zusammengeschustert, für den besseren Überblick.

Ich betrachte mal nur den ersten und den letzten Punkt.
Dann stell ich im unteren Diagramm fest, das der XeonPhi verdammt gut mit der Anzahl skaliert.
Aber seine Rechenleistung nimmt laut oberen Diagramm ab?
Das heißt, bei einem System, das etwas mehr als 40kW Leistungsaufnahme hat, liefert mit ein XeonPhi 2500 MFlops, was 70% seiner theoretischen Rechenleistung entspricht.
Ein System, das mehr als 4000kW Leistungsaufnahmen hat, liefert nur noch 500 MFlops, erreicht aber immer noch fast 70% der theoretischen Rechenleistung?
Oder anders ausgedrückt:
Bei wenigen XeonPhis liegt die theoretische Rechenleistung bei etwa 3500MFlops (2500*10/7), bei vielen XeonPhis bei etwa 720MFlops (500*10/7).
Bei der theoretischen Rechenleistung würde ich erwarten, das diese linear mit der Anzahl der Prozessoren wächst.
2 Prozessoren haben nunmal theoretisch die doppelte Rechenlsitung von einem.
Wie geht denn das beim XeonPhi, bitte schön?
Ab ich da nochwas bei Dir im Artikel überlesen?
Das muss wohl daran liegen, das wie ich schon geschrieben hatte, der XeonPhi/Node Faktor sinkt. Anders kann ich mir das nicht erklären.

Kleines Beispiel:

System 1: 10 TFlop CPU 100 TFLop XeonPhi Verbrauch 100 kW
System 2: 20 TFlop CPU 100 TFlop XeonPhi Verbrauch 130 kW
CPU Effizienz 99% XeonPhi Effizienz 50%

Wie du siehst ist das System Effizienter bzgl R_max/R_Peak, hat aber dennoch eine geringere Perf/W

Das muss halt bei dem von dir genannten Fall so sein. Anders macht es halt einfach keinen Sinn. Oder ich steh VERDAMMT auf dem Schlauch uns seh was total triviales überhaupt nicht.

Ach und Marc:
Die zeitliche Differenz lässt sich denke ich verschmerzen ;) Aber ja, du hast Recht :P
 
AW: Wer hat den grünsten HPC-Daumen?

Das muss wohl daran liegen, das wie ich schon geschrieben hatte, der XeonPhi/Node Faktor sinkt. Anders kann ich mir das nicht erklären.
Ich hätte den "Mehrverbrauch" auf das NIC (das mit größeren Systemen immer komplexer wird und deshalb ineffizienter) geschoben, wenn man nur das obere Diagramm betrachtet, beim Blick auf die Effizienz fiel das dann aber aus. XeonPhi/Node ist natürlich auch ne Erklärung. Wahrscheinlich die bessere. :schief:


Kleines Beispiel:

System 1: 10 TFlop CPU 100 TFLop XeonPhi Verbrauch 100 kW
System 2: 20 TFlop CPU 100 TFlop XeonPhi Verbrauch 130 kW
CPU Effizienz 99% XeonPhi Effizienz 50%

Wie du siehst ist das System Effizienter bzgl R_max/R_Peak, hat aber dennoch eine geringere Perf/W

Das muss halt bei dem von dir genannten Fall so sein. Anders macht es halt einfach keinen Sinn. Oder ich steh VERDAMMT auf dem Schlauch uns seh was total triviales überhaupt nicht.
Okay, das wäre ne Erklärung. Trotzdem, das Gefühl, das Du da zum Schluß beschreibst, kenn ich und es bleibt - trotz Deiner Erklärung...
 
AW: Wer hat den grünsten HPC-Daumen?

Die Green500-Liste ist mir irgendwie entgangen ^^ JUQUEEN ist ja auch dabei :-) Habe das Teil am Mittwoch gesehn, ist schon ein imposanter Aufbau.
 
AW: Wer hat den grünsten HPC-Daumen?

Warste in Jülich? :D

Gell vorallem der "Sound" von som Teil ist geil ne :D

Ich war schon im CERN in deren Rechenzerntrum. War auch nen "nettes" Teil :D

Ich hoffe ja auch, das ich mal während/durch meinen HiWi Job nach Jülich oder so kann. Mal schauen, obs was wird.

Nächstes Jahr schau ich aber auf jeden Fall, das ich auf die SC nach Amerika geh. Ich muss nur dran denken, mich rechtzeitig zu bewerben :ugly: Ne Kollegin nen Platz weiter war/ist jetzt grad schon das zweite mal da :D
 
AW: Wer hat den grünsten HPC-Daumen?

Warste in Jülich? :D

Gell vorallem der "Sound" von som Teil ist geil ne :D

Ich war schon im CERN in deren Rechenzerntrum. War auch nen "nettes" Teil :D

Ich hoffe ja auch, das ich mal während/durch meinen HiWi Job nach Jülich oder so kann. Mal schauen, obs was wird.

Nächstes Jahr schau ich aber auf jeden Fall, das ich auf die SC nach Amerika geh. Ich muss nur dran denken, mich rechtzeitig zu bewerben :ugly: Ne Kollegin nen Platz weiter war/ist jetzt grad schon das zweite mal da :D
Ich habe Vorlesungen am FZJ, daher treibe ich mich dort rum. Wir hatten eine Raumänderung an dem Tag und der neue Raum lag halt direkt oberhalb der Maschinenhalle. Da musste ich dann mal gucken gehen. War allerdings nur durch die Scheibe. Aber trotzdem sehr interessant, man konnte auf Info-Displays einige Daten wie Auslastung, Stromverbrauch (:ugly:) und so sehen. Das ist alles ne ganz andere Größenordnung.

ISC wär bestimmt ziemlich cool :-)
 
AW: Wer hat den grünsten HPC-Daumen?

[]

Ne überhaupt nicht. Wenn man GLÜCK hat, wird die Abluft/"Abwasser" noch zum heizen verwendet, aber in den meisten Serverfarmen geht das schlicht in die Klimaanlage und das wars, also 0 Nutzen. In dem Bereich setzt aber im Moment ein massiver Umdenken ein, das man sich das einfach aus Kostensicht (und ökologisch) nicht mehr erlauben kann![]

Ich verrate mal so viel: Ich komme aus einem Bereich der sich sehr intensiv damit beschäftigt.
Was unser Cluster momentan verbrät muss ich nachfragen. Auch das Gebäude das wir beheizen werden. Ebenso die externe Kühlung mit sehr mächtigen Radiatoren dank intelligenter Klimaanlage. Momentan überlegen wir ob wir noch Geld bekommen um mit der Überschüssigen Wärme die Gehwege und den Parkplatz Eis-und-Schnee frei zu halten. Oder es heißt im Winter: "Gegen den Klimawandel, Heizung voll aufdrehen, alle Fenster auf!" Momentan sieht es so aus das im günstigsten Fall der Verbrauch eines Rechenzentrums 2 ist. Eine Einheit Energie für die Server, eine für deren Kühlung. Google hat es geschafft in eigenen Versuchsauflagen diesen Gesamtwert auf 1,25 zu drücken.

BTW: Wir planen eine neue Anlage. Ich werde demnächst damit beginnen Informationen zu sammeln und bräuchte Diskussionspartner.
Wenn es hier im Bereich Highlight-Performance-Computing (CPUs) gibt, wir sind noch am überlegen was wir als CPU nehmen sollen. Würde dazu gerne nen Extra-Threat öffnen.
Je besser ich informiert bin, desto effektiver werden die Steuergelder, die hier einfließen werden, verwendet werden.;)


Memo an mich selbst: Gewächshaus-Option prüfen!
 
Zuletzt bearbeitet:
AW: Wer hat den grünsten HPC-Daumen?

Naja, so "dumm" ist die Idee mit dem Parkplatz gar nicht. Man spart sich halt echt den Winterdienst :ugly:

Gibt auch nen Spargelbauer irgendwo in Deutschland, der in der Nähe von nem AKW ist. Der lässt vom AKW seine Felder beheizen, damit er mehr und schneller ernten kann :D So was ist halt echt gar nicht verkehrt, da diese Restwärme ansonsten wirklich anders gekühlt werden muss.
 
AW: Wer hat den grünsten HPC-Daumen?

Zumal ein Parkplatz eine Große Fläche ist, die zudem Wasser verdunsten kann.:D Gleiches gilt für die Gehwege.
Und es erhöht die Sicherheit.:P
Vielleicht bekommen wir es später durch, alle Gebäude damit zu heizen.
Müsste mal durchrechnen was uns der Winterdienst kostet... mal ne Gesamtkostenrechnung machen...

Laut Aussagen, wird das Wasser, das wir erwärmen werden, 50°C heiß. Reicht nicht für sehr viel, aber an Ideen mangelt es mir nicht. Nur das Geld aus öffentlicher Hand ist so verdammt knapp.

Verdammt, wir bauen ein beheiztes, offenes, ganzjähriges, Outdoor-Schwimmband. Moment, gleich um die Ecke ist ein Schwimmbad. Fernwärme!

Spaß beiseite, wir überlegen die Abwärme ins Grundwasser, bzw. eine Wasserblase unter den Gebäuden abzugeben, zumindest im Sommer, wo die Radiatoren nicht arbeiten können.
 
Zuletzt bearbeitet:
AW: Wer hat den grünsten HPC-Daumen?

Ähm es gibt da eigentlich einen ganz "einfachen" trick, wie man Radiatoren auch im Sommer zum laufen bekommt, egal wie warm es draußen ist, aber da müsste ich mich erstmal erkundigen, ob das patentiert ist :ugly:
 
AW: Wer hat den grünsten HPC-Daumen?

Nun, bei 40° Außentemperatur geht da noch ein bisschen. Aber da muss die Klima schon ordentlich loslegen.

Immer raus damit.
 
AW: Wer hat den grünsten HPC-Daumen?

Im Winter ist alles kein Problem- kritisch ist wenn dann der Sommer, da es dann so warm ist, dass man mit der überschüssigen Wärme (fast) nichts sinnvolles anfangen kann, vor allem weil man das Temperaturniveau im Kreislauf ja nicht wesentlich erhöhen kann.

Will man Radiatorfläche sparen ist es natürlich eine sehr elegante Möglichkeit über ein (möglichst kaltes) Gewässer zu kühlen, gegebenenfalls auch über einen Kühlturm.

Hab nicht ohne Grund auf meine eigene News von damals verlinkt ;)

Leider funktioniert der Link nicht :schief:
 
Zuletzt bearbeitet:
AW: Wer hat den grünsten HPC-Daumen?

Also hies es wieder warten, und nun mit der Vorstellung von K20 im Rahmen der SC12 in SalteLake-City, hat das Warten nun ein Ende. Wie sich zeigte, verfehlt man aber scheinbar die anvisierte Effizienzsteigerung mehr oder weniger deutlich mit einem Wert von ~2,3 bis ~2,8 bei einem anvisierten Wert von ~3,0.

Wo zeigte sich das? Die Werte die in deinem Link beschrieben sind, vergleichen Peak-DPFP gegen real erreichte DGEMM-Leistung? Und das noch mit einem Wert, der rund 1/6 unter dem real erreichten liegt - glaubt man den Herstellerangaben (aber davon gehst du bei M2090 ja ebenfalls aus).

Schau mal in diese Tabelle:
Intel stellt Larrabee offiziell vor: Xeon Phi 5110P und 3100-Serie mit über 1 TFLOP Double-Precision
 
AW: Wer hat den grünsten HPC-Daumen?

Komisch. Aber danke. Jetzt sollte der Link funktionieren. :daumen:

@Carsten:
Nein, das sind die real DGEMM Werte ausgehend auf den wohl besten DGEMM Implementierungen, die verfügbar sind, bzw dem was nVidia selbst dazu sagt.

Für Fermi erreicht man wie gesagt eine Effizienz von 60-65% und für K20(x), also GK110, soll man etwas um die 80% erreichen.Das passt ja auch ganz gut zu den Ergebnissen aus der zweiten Graphik, die ich später noch gemacht habe. Die Werte von Clustern sind immer etwas schlechter. Deswegen bezieht sich nVidia (wie JEDER Hersteller) da auch auf Single-Nodes usw usw, also den Optimalfall.

Man kann in erster Näherung das aber schon als Referenznehmen, da im großen und Ganzen die Skalierung Optimalfall->realer Cluster relativ ähnlich sein sollte. Den Fehler kann man also erstmal vernachlässigen für so eine prinzipielle Betrachtung.

Die Daten sind hiermit untermauert: http://insidehpc.com/2012/05/18/new...t-gen-cuda-compute-architecture-kepler-gk110/
Das ist auch der Link aus dem Link. Für ich ist das so ziemlich das aktuellste (18.05.12) und offiziellste (Whitepaper)

Whitepaper schrieb:
Kepler GK110 will provide over 1 TFlop of double precision throughput with greater than 80% DGEMM
efficiency versus 60‐65% on the prior Fermi architecture.
Seh da jetzt nicht den Kritikpunkt. :ka: Ok, Sie schreiben >80%, aber wenns >85,90% wäre, würden Sie das auch schreiben. Ergo liegt der Fehler sehr sehr sicher bei <10%. Das ist jetzt nicht mehr ganz vernachlässigbar, aber auch nichts, was ein völlig anderes Ergebnis ergibt.

Berücksichtigt habe ich derartige Unbekannten aber durchaus:
Durch den Konjunktiv sollte das eigentlich hinreichend klar geworden sein, wobei die Best-/Worstcase-Abschätzung ja durchaus zeigt, dass selbst im Bestcase man nicht gerade klar die Ziele erreicht. Die Diagramme sind halt nicht wirklich klar, und lassen einiges an Interpretationsspielraum. Daher habe ich prinzipiell versucht, die Sache eher pro nVidia zu interpretieren. Man muss ja dran denken, das es Marketing-Folien sind :rolleyes: Statt den 3,0 hätte man auch höhere Werte von bis zu etwa 3,3 nehmen können.

Und wenn man das Diagramm/Roadmap als absolute Werte anschaut, dann siehts halt nicht wirklich besser aus.
Denn dann müsste man die Oberkanten der Bildchen nehmen, da Fermi ja auf ~1,8 +/- 0,1 DP-GFlop/s/W kommt. Dann müsste Kepler aber so ca 5,7 +0,1 -0,2 DP-GFlop/s/W (jeweils in DGEMM, da man sich ja drauf bezieht) erreichen. Davon sind wir aber noch VIEL weiter weg, als wenn man das ganze so interpretiert, also als Relation und nicht als absolute Werte, wie ich.

Und jetzt sag noch jemand, ich würde nVidia bashing betreiben :ugly: JA ne is klar, deswegen interpretier ich die Werte ja auch mit gutem Willen, so dass Sie ihre Zielsetzung nur knapp verfehlen bis hin zu knapp erreichen. Wobei man für "knapp erreichen" schon sehr wohlwollend sein muss meiner Meinung nach.

EDIT:
Ach was mir gerade auffällt. Falls du mit deinem Link meintest, das Kepler 1220 GFlop/s schafft in DGEMM statt den von mir angenommenen 1100 GFlop/s, das macht keinen gewaltigen Unterschied.

Die Worst-/Best-Case-Abschätzun ist dann ~2,7 bis ~2,9 (statt ~2,3 bis 2,8) Wie man sieht, war meine Best-Case-Abschätzung recht nah dran. Über die Worst-Case-Abschätzung kann man sich streiten, da ist der Unterschied schon relativ groß, aber es ist halt auch eine WORST-Case-Abschätzung. Daher in meinen Augen noch vertretbar.

Aber schön, das wir jetzt eine bessere Abschätzung haben. An der grundlegenden Aussage ändert sich doch jetzt aber nichts, oder siehst du das anders?
 
Zuletzt bearbeitet:
AW: Wer hat den grünsten HPC-Daumen?

Die grundlegende Aussage? Dass du eine 2,9 anstelle einer 3,0* als „Ziel verfehlt“ ansiehst, bei deinen eigenen Rechnungen aber „Ergo liegt der Fehler sehr sehr sicher bei <10%. Das ist jetzt nicht mehr ganz vernachlässigbar, aber auch nichts, was ein völlig anderes Ergebnis ergibt.“ als Maßstab ansetzt?

Die „Abschätzung“ in unserer Tabelle beruht auf dem, was die jeweiligen Hersteller selbst in ihren Launch-Materialien über ihre Produkte sagen (aus Basis einzelner Systeme, nicht ganzer SC-Anlagen).

Die Diagramme sind halt nicht wirklich klar, und lassen einiges an Interpretationsspielraum. Daher habe ich prinzipiell versucht, die Sache eher pro nVidia zu interpretieren. Man muss ja dran denken, das es Marketing-Folien sind Statt den 3,0 hätte man auch höhere Werte von bis zu etwa 3,3 nehmen können.
Eben, es sind Marketing-Diagramme. Die Datenpunkte von Tesla, Fermi, Kepler und Maxwell sind so große Flächen, dass sich ein herumrechnen daran eigentlich überhaupt nicht lohnt - den Kepler-„Punkt“ könnte man mMn von ~4,25 bis ~5,75 DPFP-GFLOPS/Watt interpretieren. Da ist es irgendwie sinnlos finde ich, von verfehlten Zielen zu sprechen und das dann mit der Green500 zu untermauern.

Denn was die Green500-Liste angeht:
Die ist in dieser Form doch ein Witz! Beacon schafft mit seinen ~45 kW und 157,5 TFLOPS rund 11% mehr als ein einziger Schrank des Titan-SCs (139 TFLOPS). Das ist ungefähr so, als würdest du den pro-100-km-Verbrauch eines Kleinwagens mit einem LKW vergleichen (hier passt der Kfz-Vergleich endlich mal). Wenn ich so einen Schrank am Polarkreis aufstelle oder besser, die Blades auf ein paar Tischen ausbreite) und das Fenster aufmache, spar ich direkt mal 20% Energie bei der Kühlung - was in der Green500 auch nicht berücksichtigt wird (darum steht der SANAM wohl auch nicht in Riad).

Außerdem: Beim Titan schlägt bereits der Idle-Betrieb mit rund 5 MW zu Buche - inklusive Kühlung. Der wirkliche Mehrverbrauch unter Last ist auf dieser Basis geradezu lächerlich gering. Für die Umwelt ist der Wert natürlich wichtig, für die Effizienz der Architekturen über solcherlei enorm unterschiedlich skalierten System aber mMn. kein brauchbarer Gradmesser.

Ich glaube ich muss mal eine allgemeine Kritik an der green500 schreiben (Stichwort: Excel-Joke).

P.S.: Ich muss jetzt erstmal WE betreiben.
 
AW: Wer hat den grünsten HPC-Daumen?

Da hast du durchaus zum Teil recht, aber schau dir mal BlueGene/Q an. DAS ist ne richtig gute SuperComputer-Architektur, die richtig richtig gut skaliert. Deswegen will/kann ich dir auch mit deinem Skalierungsargument nicht ganz Recht geben.
 
AW: Wer hat den grünsten HPC-Daumen?

Laut Aussagen, wird das Wasser, das wir erwärmen werden, 50°C heiß. [...] Moment, gleich um die Ecke ist ein Schwimmbad. Fernwärme!

Spaß beiseite
Wieso Spaß? Sowas wird wirklich gemacht!

wir überlegen die Abwärme ins Grundwasser, bzw. eine Wasserblase unter den Gebäuden abzugeben, zumindest im Sommer, wo die Radiatoren nicht arbeiten können.
Paßt auf, das Euch da die Umweltschützer nicht aufs Dach steigen. Gerade wenn es ums Grundwasser geht.
Abgesehen davon gibt es das Problem, das es wieder wärmer wird, wenn man tiefer geht. Mit Erdwärme aus etwa 85m Tiefe lassen sich in unseren Breitengraden im Winter bereits Einfamilienhäuser heizen.

Ähm es gibt da eigentlich einen ganz "einfachen" trick, wie man Radiatoren auch im Sommer zum laufen bekommt, egal wie warm es draußen ist, aber da müsste ich mich erstmal erkundigen, ob das patentiert ist :ugly:

Nun, bei 40° Außentemperatur geht da noch ein bisschen. Aber da muss die Klima schon ordentlich loslegen.

Immer raus damit.

Im Winter ist alles kein Problem- kritisch ist wenn dann der Sommer, da es dann so warm ist, dass man mit der überschüssigen Wärme (fast) nichts sinnvolles anfangen kann, vor allem weil man das Temperaturniveau im Kreislauf ja nicht wesentlich erhöhen kann.

Will man Radiatorfläche sparen ist es natürlich eine sehr elegante Möglichkeit über ein (möglichst kaltes) Gewässer zu kühlen, gegebenenfalls auch über einen Kühlturm.
Warmwasserkühlung könnte Abhilfe schaffen - auch im Sommer. Man verbraucht weniger Energie bei der Kühlung, weil das Kühlmedium nicht auf Umgebungstemperatur heruntergekühlt wird.
Nachteil: Flüssigkeitskühlung ist aufwendiger als Luftkühlung (Schläuche etc.), gerade bei so großen Anlagen.
 
AW: Wer hat den grünsten HPC-Daumen?

Wieso Spaß? Sowas wird wirklich gemacht!

mit gut 1.3 km Luftlinie wird das bei uns nichts.;)

Paßt auf, das Euch da die Umweltschützer nicht aufs Dach steigen. Gerade wenn es ums Grundwasser geht.
Abgesehen davon gibt es das Problem, das es wieder wärmer wird, wenn man tiefer geht. Mit Erdwärme aus etwa 85m Tiefe lassen sich in unseren Breitengraden im Winter bereits Einfamilienhäuser heizen.
In der Branche arbeiten wir selber.:D
Das man das nur sauber zurück leiten darf, ist mir bewusst. Nennt sich nicht umsonst Grundwasser.
Bin am überlegen ob das mit gesammelten Regenwasser in Erdtanks geht...
Und ob es einfach kein Kaltwasser, aus den Leitungen, gibt.


Warmwasserkühlung könnte Abhilfe schaffen - auch im Sommer. Man verbraucht weniger Energie bei der Kühlung, weil das Kühlmedium nicht auf Umgebungstemperatur heruntergekühlt wird.
Nachteil: Flüssigkeitskühlung ist aufwendiger als Luftkühlung (Schläuche etc.), gerade bei so großen Anlagen.
Das hilft uns leider nicht da wir die Wärme trotzdem abführen müssen. Wir produzieren immer zu viel, und heizen wollen wir damit schon. Aber was macht man im Sommer bei 40°C+?
 
Zuletzt bearbeitet:
Zurück