Skysnake
Lötkolbengott/-göttin
Wer hat den grünsten HPC-Daumen?
Vor nun mehr als zwei Jahr hatte nVidia am 21.09.2010, ich berichtete, ihre Roadmap für die Zukunft vorgestellt, und mit Kepler für 2011, nach dem verkorksten Fermi start, eine deutlich gestiegene DP-Flop/s pro Watt Leistung versprochen.
Quelle: http://tof.canardpc.com/preview2/2bc85b54-ed2d-4754-87ba-48ce59046ce0.jpg
Fast genau ein Jahr später wollte nVidia von dieser Roadmap anscheinend nicht mehr wissen, und verschob "einfach" Kepler und Maxwell um jeweils ein Jahr. Also war zunächst einmal wieder warten angesagt, welches am 22. März 2012 dann ein Ende zu haben schien mit dem Launch der GTX680 auf Basis des GK104. Doch leider weit gefehlt. Die neu gelaunchte Karte entpuppte sich leider als völlig unbrauchbar, was ihre DP-Performance anbelangt, auf welche sich nVidia ja bei ihrer Roadmap stütze. Also hies es erneut warten, denn die geringe DP-Performance kam nicht durch eine Beschneidung zustande, sondern lag im Chip an und für sich begründet, wie später die K10 GPU zeigte.
Quelle: Nvidia Kepler: Produziert 2011, verkauft 2012 - 08.09.2011 - ComputerBase
Also hies es wieder warten, und nun mit der Vorstellung von K20 im Rahmen der SC12 in SalteLake-City, hat das Warten nun ein Ende. Wie sich zeigte, verfehlt man aber scheinbar die anvisierte Effizienzsteigerung mehr oder weniger deutlich mit einem Wert von ~2,3 bis ~2,8 bei einem anvisierten Wert von ~3,0. Gleichzeitig konnte AMD und Intel mit ihrer neuen FirePro bzw. XeonPhi Beschleunigerkarte auf sich aufmerksam machen.
Insbesondere die neue Green500, welche in Rahmen der Top500 und SC12 ebenfalls veröffentlicht wurde, hatte einige Überraschungen parat. Waren auf der letzten Green500 vom Juni 2012 noch die BlueGene/Q Modelle von IBM unangefochten an der Spitze (Platz 1-20) mit über 2,069 GFlop/s pro Watt und damit deutlich vor den ersten nicht BlueGene/Q Modell mit ~1,380 bzw. 1266 GFlop/s pro Watt. Hierbei handet es sich um ein Intel Xeon System mit MIC (Vorgänger/Alias von XeonPhi), ein System mit Intel i5 & AMD Radeon sowie einem IntelXeon und nVidia M2090 (Fermi).
Wie man sieht war IBM in Sachen Perf/W unangefochten an der Spitze, und selbst nVidia musste sich bereits einem System mit Intels Beschleunigerkarte, sowie einem mit AMDs Konsumerkarten geschlagen geben.
Auf der nun aktuellen Green500 vom Nobember 2012 hat sich nun doch grundlegend etwas geändert. Die zuvor beeindruckend führenden BlueGene/Q wurden nun auf die Plätze 5 und dahinter verwiesen.
Auf Platz 1 setzt sich überraschend mit 2,499 GFlup/s pro Watt ein System mit Intels XeonPhi Beschleunigerkarten der University of Tennessee. Hatte man doch aufgrund nVidias großer Fokusierung auf das Thema DP-Flop/s pro Watt doch angenommen, das sich hier ein System mit nVidias neuem TopDog K20(x) an die Spitze setzt.
Auf Platz 2 schafft es dann mit bereits rund 6% Rückstand allerdings ebenfalls nicht das groß in den Medien presente Titan System von Cray mit K20x Beschleunigerkarten von nVidia, welches aktuell auch die Top500 anführt, sondern völlig überraschend ein System mit AMDs erst kürzlich auf der SC12 vorgestellten S1000. Hierbei handelt es sich um eine Dual-GPU Karte, welche auf den TahitiPro, welcher auch in der HD7950 verbaut wird, setzt. Um so überraschender, da man die Karte zwar schon auf dem letzten FDS von AMD gesehen hatte, aber nicht daran geblaubt hatte, das diese Karte eine FirePro Karte wird. Hier hat AMD praktisch aus dem Nichts heraus angegriffen, und nVidia zumindest in diesem System in ihrer "Paradedisziplin" überflügelt.
Auf Platz 3 folgt dann mit 2,143 GFLop/s pro Watt, und somit 14 bzw 9 Prozent Rückstand auf die beiden Topsysteme der Titan Supercomputer.
Dieser Rückstand überrascht aufgrund der extremen Betonung der Energieffizienz von Systemen mit nVidia GPUs im Vergleich zu reinen CPU-Systemen doch sehr. Insbesondere da man eben derart große Steigerungen bei der Perf/W versprochen hatte. Hier scheint sich nun anscheinend die Verschiebung um ein Jahr, als auch die scheinbar geringere Perf/W-Steigerung nVidia zum Verhängnis zu werden. Muss man doch festhalten, dass sich das Titan-System auf der vorhergehenden Green500 noch auf Platz 1 wiedergefunden hätte! Besonders bitter wird dies, da nVidia selbst mit der K20x, welche Scheinbar vorzugsweise in Supercomputern zum Einsatz kommt, nur 14 der 15 SMX aktiv hat, was eben rund 7% weniger Einheiten bedeutet.
Doch was sind die Ursachen hierfür?
Über diese wurde schon seit längerem spekuliert. Sind es zu viele Deals, die man in zu kurzer Zeit bedienen musste? Ist man im Vergleich zu Konkurrenz stark genug mit dieser Karte? Hat man Probleme mit der Produktion? usw usw
Am Ende wird es wohl eine Mischung aus allem sein, wobei ich für meinen Teil der Produktionsproblematik bei einem derartig großen Chip durchaus ein größeres/großes Gewicht beimessen würde.
Bis zu diesem Punkt müsste man davon ausgehen, das Intel mit ihrem XeonPhi einen wirklichen Bilderbuchstart hingelegt hat, AMD überrascht und nVidia mehr oder weniger enttäuscht. Dies wäre aber durchaus zu kurzsichtig, denn wir vergleichen hier Systeme mit knapp 45kW Gesamtleistung mit solchen, die rund 8.209kW an Verbrauch haben. Das sind also mehr als zwei Größenordnungen Unterschied!!!
Hier wäre es also sträflich, derart komplexe Systeme wie Supercomputer einfach aufgrund von drei Werten miteinander zu vergleichen. Denn ein derartiges System skaliert im Allgemeinen nicht linear mit seiner Größe. In der Regel wird eine Skalierung von kleiner 1 erfolgen, also weniger als linear. Das Problem der Skalierung durch Parallelisierung, welches Amdahl und Gustafson versucht haben zu beschreiben mal ganz außen vor gelassen.
Bleiben doch noch einige Punkte, die auch für den Laien leicht verständlich sind. Fangen wir an, aus was so ein Supercomputer besteht. Auf der einen Seite ein "ganz normaler" PC, wie man ihn auch zu Hause stehen hat. Das macht aber noch keinen Supercomputer aus, denn dies wären einfach nur sehr viele einzelne PCs. Erst durch das Netzwerk, auch NetworkInterfaceCard genannt, wird ein Sueprcomputer (Cluster) zu einem Supercomputer. Hier verwendet man auch kein GBit Lan mehr wie im Heimgebrauch, sondern zumeist Glasfasernetze mit 40GBit+ die Sekunde. Bekannte Unternehmen sind hier Infiniband mit Firmen wie Mellanox, aber auch propritäre NICs, wie das Gemini (HT) bzw Aries (PCI-E) von Cray, oder das TOFU Netzwerk von Fujits zeigen, wie wichtig das Netzwerk für einen Supercomputer ist. Bestes Beispiel hierfür sind auch die IBM BlueGene Systeme, welche gleich über eine ganze Reihe von Netzwerken für unterschiedliche Aufgaben verfügen. Insbesondere die Skalierung von solchen Netzwerken stellt einen wichtigen Faktor für das Design eine Supercomputers da, aber auch einen entscheidenden Verbrauchsfaktor, denn die meisten dieser Netzwerke sind sogenannten geswitchte Netzwerke, welche, wie man es von zu Hause kennt, noch separate Switches haben, die die einzelnen Rechner miteinander verbinden. Da hier sehr große Bandbreiten zur Verfügung stellt werden und das meist bei einer 1:1 Verbindung innerhalb des Switches, spielt dieser Part einen entscheidenden Kosten aber auch Verbrauchfaktor dar. Ein 648-Port Switch von Mellanox steht z.B. bei rund 1kW. Je nachdem wie "kurz" man die Verbindungswege innerhalb des Clusters halten will, braucht man teilweise sehr viele derartiger Switches.
Auf der anderen Seite gibt es aber auch nicht geswitchte Netwerke, wie das Extoll Netzwerk aus Deutschland, welches komplett auf externe Switches verzichten kann.
Wie man sieht ist Skalierung ein entscheidender Faktor, den wir uns auch gleich noch näher anschauen. Ein weiterer sehr wichtiger Faktor ist auch die Kühlung, denn im Gegensatz zum PC daheim, muss ein Supercomputer aktiv gekühlt werden. In der Vergangenheit wurde hierfür meist eine Luftkühlung in Verbindung mit einer Klimaanlage benutzt. Dies hat natürlich zur Folge, das man sehr viel Energie dafür benötigt, um die Luft erstmal zu kühlen, um Sie dann in den Servern wieder zu erwärmen. Meist wird bei einer solchen Kühlung rund 50% des gesamten Stromverbrauchs nur für die Kühlung aufgewendet. Da der Stromverbrauch eines solchen Rechners immer entscheidender wird, beginnen inzwischen auch Flüssigkeitskühlungen sich immer mehr durch zu setzen. Hier sind der Energiebedarf der Kühlung oft auf einen Bereich von 30% und weniger. Dies macht natürlich den direkten Vergleich von Systemen noch schwerer. Dennoch wollen wir es nun versuchen, auch wenn wir die Kühlung erst einmal außen vor lassen. Die Daten sprechen für sich.
Bitte beachten Sie die ogarithmische Skalierung der x-Achse
Wie man sieht, sieht man ein sehr unterschiedliches Verhalten der unterschiedlichen Systeme. Die bis zu dieser Green500 führenden BlueGene/Q skalieren praktisch perfekt von sehr kleinen Systemen im Bereich von 40kW bis hin zu sehr großen Systemen von ~8000kW.
Ähnlich sieht es bei den beiden Systemen mit K20x aus. Im Bereich von 130 bis 8200kW scheint eine sehr gute Skalierung möglich zu sein, wobei hier eindeutig festgehalten werden sollte, das es sich hier eben nur um zwei Werte handelt, die allerdings an den beiden Extrempunkten der Skala liegen. Es ist also davon auszugehen, das theoretisch zumindest gleichwertige Systeme im Bereich dazwischen möglich sind.
Ein völlig anderes Bild ergibt sich, wenn man sich die Systeme mit M2090 anschaut. Hier sieht man doch sehr große Schwankungen, und einen deutlich Abfall hin zu großen Systemen. Hier sollte man allerdings nicht zu vorschnell urteilen, denn zum einen zeigen die beiden Zacken in der Mitte, das man durchaus gute Skalierungswerte erreichen kann. Hier wird vermutlich der Grund in einer sehr unterschiedlichen Bestückung mit M2090 Karten bei den Clustern zu suchen sein.
Daher sollte man sich für die Abschätzung der Skalierung vorallem den ersten Wert und die beiden großen Zacken (um 400kW) in der Mitte anschauen. Wie man sieht, kann man mit K20x deutlich zulegen.
Kommen wir nun zu XeonPhi. Auf den ersten Blick erkennt man eine recht eindeutige Skalierung mit einigen Unstimmigkeiten in der Mitte. Hier sind allerdings wieder die mangelnde Anzahl an Messpunkten die Ursache hierfür. Doch gerade der Bereich in der Mitte zeicht wieder, das man hier wohl sehr inhomogene Systeme miteinander vergleicht. Man sollte daher wiederum nur die drei höchsten Werte für eine Skalierungsabschätzung in Betracht ziehen.
Tut man dies, erkennt man, das XeonPhi-Systeme wohl etwas schelchter skalieren als die der Konkurrenz. Genaues kann man hier allerdings noch nicht sagen, da der kleinste Cluster eben sehr gut performt. Durch Optimierungen am Clusterdesign könnte sich also durchaus auch noch XeonPhi oberhalb von K20x einsortieren.
Betrachten wir nun abschließend noch die beiden AMD Systeme. Einmal eines mit HD7970 Consumerkarten, und eines mit FirePro-Karten. Wie man sieht, performen die FirePro Karten scheinbar sehr gut im Vergleich zu den HD7970. Für genauere Aussagen müsste man allerdings die beiden Cluster sehr genau vergleichen. Auf jeden Fall wird klar, das AMD hier scheinbar ein sehr heises Eisen im Feuer hat und zu nVidia offensichtlich in Sachen Perf/W aufgeschlossen hat.
Man kann also von einem Kopf-an-Kopf-Rennen der drei Hersteller ausgehen, was in Anbetracht der Dominanz von nVidia in den vergangenen Jahren doch SEHR verwunderlich ist. Bleibt ab zu warten, ob AMD, aber insbesondere nVidia in Anbetracht der agressiven Preisgestaltung von Intel lange ihre Preise so hoch halten können, oder ob wir einen Preiskampf im HPC-Bereich zu sehen bekommen.
Quelle:
Top500.org
Green500.org
Vor nun mehr als zwei Jahr hatte nVidia am 21.09.2010, ich berichtete, ihre Roadmap für die Zukunft vorgestellt, und mit Kepler für 2011, nach dem verkorksten Fermi start, eine deutlich gestiegene DP-Flop/s pro Watt Leistung versprochen.
Quelle: http://tof.canardpc.com/preview2/2bc85b54-ed2d-4754-87ba-48ce59046ce0.jpg
Fast genau ein Jahr später wollte nVidia von dieser Roadmap anscheinend nicht mehr wissen, und verschob "einfach" Kepler und Maxwell um jeweils ein Jahr. Also war zunächst einmal wieder warten angesagt, welches am 22. März 2012 dann ein Ende zu haben schien mit dem Launch der GTX680 auf Basis des GK104. Doch leider weit gefehlt. Die neu gelaunchte Karte entpuppte sich leider als völlig unbrauchbar, was ihre DP-Performance anbelangt, auf welche sich nVidia ja bei ihrer Roadmap stütze. Also hies es erneut warten, denn die geringe DP-Performance kam nicht durch eine Beschneidung zustande, sondern lag im Chip an und für sich begründet, wie später die K10 GPU zeigte.
Also hies es wieder warten, und nun mit der Vorstellung von K20 im Rahmen der SC12 in SalteLake-City, hat das Warten nun ein Ende. Wie sich zeigte, verfehlt man aber scheinbar die anvisierte Effizienzsteigerung mehr oder weniger deutlich mit einem Wert von ~2,3 bis ~2,8 bei einem anvisierten Wert von ~3,0. Gleichzeitig konnte AMD und Intel mit ihrer neuen FirePro bzw. XeonPhi Beschleunigerkarte auf sich aufmerksam machen.
Insbesondere die neue Green500, welche in Rahmen der Top500 und SC12 ebenfalls veröffentlicht wurde, hatte einige Überraschungen parat. Waren auf der letzten Green500 vom Juni 2012 noch die BlueGene/Q Modelle von IBM unangefochten an der Spitze (Platz 1-20) mit über 2,069 GFlop/s pro Watt und damit deutlich vor den ersten nicht BlueGene/Q Modell mit ~1,380 bzw. 1266 GFlop/s pro Watt. Hierbei handet es sich um ein Intel Xeon System mit MIC (Vorgänger/Alias von XeonPhi), ein System mit Intel i5 & AMD Radeon sowie einem IntelXeon und nVidia M2090 (Fermi).
Wie man sieht war IBM in Sachen Perf/W unangefochten an der Spitze, und selbst nVidia musste sich bereits einem System mit Intels Beschleunigerkarte, sowie einem mit AMDs Konsumerkarten geschlagen geben.
Auf der nun aktuellen Green500 vom Nobember 2012 hat sich nun doch grundlegend etwas geändert. Die zuvor beeindruckend führenden BlueGene/Q wurden nun auf die Plätze 5 und dahinter verwiesen.
Auf Platz 1 setzt sich überraschend mit 2,499 GFlup/s pro Watt ein System mit Intels XeonPhi Beschleunigerkarten der University of Tennessee. Hatte man doch aufgrund nVidias großer Fokusierung auf das Thema DP-Flop/s pro Watt doch angenommen, das sich hier ein System mit nVidias neuem TopDog K20(x) an die Spitze setzt.
Auf Platz 2 schafft es dann mit bereits rund 6% Rückstand allerdings ebenfalls nicht das groß in den Medien presente Titan System von Cray mit K20x Beschleunigerkarten von nVidia, welches aktuell auch die Top500 anführt, sondern völlig überraschend ein System mit AMDs erst kürzlich auf der SC12 vorgestellten S1000. Hierbei handelt es sich um eine Dual-GPU Karte, welche auf den TahitiPro, welcher auch in der HD7950 verbaut wird, setzt. Um so überraschender, da man die Karte zwar schon auf dem letzten FDS von AMD gesehen hatte, aber nicht daran geblaubt hatte, das diese Karte eine FirePro Karte wird. Hier hat AMD praktisch aus dem Nichts heraus angegriffen, und nVidia zumindest in diesem System in ihrer "Paradedisziplin" überflügelt.
Auf Platz 3 folgt dann mit 2,143 GFLop/s pro Watt, und somit 14 bzw 9 Prozent Rückstand auf die beiden Topsysteme der Titan Supercomputer.
Dieser Rückstand überrascht aufgrund der extremen Betonung der Energieffizienz von Systemen mit nVidia GPUs im Vergleich zu reinen CPU-Systemen doch sehr. Insbesondere da man eben derart große Steigerungen bei der Perf/W versprochen hatte. Hier scheint sich nun anscheinend die Verschiebung um ein Jahr, als auch die scheinbar geringere Perf/W-Steigerung nVidia zum Verhängnis zu werden. Muss man doch festhalten, dass sich das Titan-System auf der vorhergehenden Green500 noch auf Platz 1 wiedergefunden hätte! Besonders bitter wird dies, da nVidia selbst mit der K20x, welche Scheinbar vorzugsweise in Supercomputern zum Einsatz kommt, nur 14 der 15 SMX aktiv hat, was eben rund 7% weniger Einheiten bedeutet.
Doch was sind die Ursachen hierfür?
Über diese wurde schon seit längerem spekuliert. Sind es zu viele Deals, die man in zu kurzer Zeit bedienen musste? Ist man im Vergleich zu Konkurrenz stark genug mit dieser Karte? Hat man Probleme mit der Produktion? usw usw
Am Ende wird es wohl eine Mischung aus allem sein, wobei ich für meinen Teil der Produktionsproblematik bei einem derartig großen Chip durchaus ein größeres/großes Gewicht beimessen würde.
Bis zu diesem Punkt müsste man davon ausgehen, das Intel mit ihrem XeonPhi einen wirklichen Bilderbuchstart hingelegt hat, AMD überrascht und nVidia mehr oder weniger enttäuscht. Dies wäre aber durchaus zu kurzsichtig, denn wir vergleichen hier Systeme mit knapp 45kW Gesamtleistung mit solchen, die rund 8.209kW an Verbrauch haben. Das sind also mehr als zwei Größenordnungen Unterschied!!!
Hier wäre es also sträflich, derart komplexe Systeme wie Supercomputer einfach aufgrund von drei Werten miteinander zu vergleichen. Denn ein derartiges System skaliert im Allgemeinen nicht linear mit seiner Größe. In der Regel wird eine Skalierung von kleiner 1 erfolgen, also weniger als linear. Das Problem der Skalierung durch Parallelisierung, welches Amdahl und Gustafson versucht haben zu beschreiben mal ganz außen vor gelassen.
Bleiben doch noch einige Punkte, die auch für den Laien leicht verständlich sind. Fangen wir an, aus was so ein Supercomputer besteht. Auf der einen Seite ein "ganz normaler" PC, wie man ihn auch zu Hause stehen hat. Das macht aber noch keinen Supercomputer aus, denn dies wären einfach nur sehr viele einzelne PCs. Erst durch das Netzwerk, auch NetworkInterfaceCard genannt, wird ein Sueprcomputer (Cluster) zu einem Supercomputer. Hier verwendet man auch kein GBit Lan mehr wie im Heimgebrauch, sondern zumeist Glasfasernetze mit 40GBit+ die Sekunde. Bekannte Unternehmen sind hier Infiniband mit Firmen wie Mellanox, aber auch propritäre NICs, wie das Gemini (HT) bzw Aries (PCI-E) von Cray, oder das TOFU Netzwerk von Fujits zeigen, wie wichtig das Netzwerk für einen Supercomputer ist. Bestes Beispiel hierfür sind auch die IBM BlueGene Systeme, welche gleich über eine ganze Reihe von Netzwerken für unterschiedliche Aufgaben verfügen. Insbesondere die Skalierung von solchen Netzwerken stellt einen wichtigen Faktor für das Design eine Supercomputers da, aber auch einen entscheidenden Verbrauchsfaktor, denn die meisten dieser Netzwerke sind sogenannten geswitchte Netzwerke, welche, wie man es von zu Hause kennt, noch separate Switches haben, die die einzelnen Rechner miteinander verbinden. Da hier sehr große Bandbreiten zur Verfügung stellt werden und das meist bei einer 1:1 Verbindung innerhalb des Switches, spielt dieser Part einen entscheidenden Kosten aber auch Verbrauchfaktor dar. Ein 648-Port Switch von Mellanox steht z.B. bei rund 1kW. Je nachdem wie "kurz" man die Verbindungswege innerhalb des Clusters halten will, braucht man teilweise sehr viele derartiger Switches.
Auf der anderen Seite gibt es aber auch nicht geswitchte Netwerke, wie das Extoll Netzwerk aus Deutschland, welches komplett auf externe Switches verzichten kann.
Wie man sieht ist Skalierung ein entscheidender Faktor, den wir uns auch gleich noch näher anschauen. Ein weiterer sehr wichtiger Faktor ist auch die Kühlung, denn im Gegensatz zum PC daheim, muss ein Supercomputer aktiv gekühlt werden. In der Vergangenheit wurde hierfür meist eine Luftkühlung in Verbindung mit einer Klimaanlage benutzt. Dies hat natürlich zur Folge, das man sehr viel Energie dafür benötigt, um die Luft erstmal zu kühlen, um Sie dann in den Servern wieder zu erwärmen. Meist wird bei einer solchen Kühlung rund 50% des gesamten Stromverbrauchs nur für die Kühlung aufgewendet. Da der Stromverbrauch eines solchen Rechners immer entscheidender wird, beginnen inzwischen auch Flüssigkeitskühlungen sich immer mehr durch zu setzen. Hier sind der Energiebedarf der Kühlung oft auf einen Bereich von 30% und weniger. Dies macht natürlich den direkten Vergleich von Systemen noch schwerer. Dennoch wollen wir es nun versuchen, auch wenn wir die Kühlung erst einmal außen vor lassen. Die Daten sprechen für sich.
Wie man sieht, sieht man ein sehr unterschiedliches Verhalten der unterschiedlichen Systeme. Die bis zu dieser Green500 führenden BlueGene/Q skalieren praktisch perfekt von sehr kleinen Systemen im Bereich von 40kW bis hin zu sehr großen Systemen von ~8000kW.
Ähnlich sieht es bei den beiden Systemen mit K20x aus. Im Bereich von 130 bis 8200kW scheint eine sehr gute Skalierung möglich zu sein, wobei hier eindeutig festgehalten werden sollte, das es sich hier eben nur um zwei Werte handelt, die allerdings an den beiden Extrempunkten der Skala liegen. Es ist also davon auszugehen, das theoretisch zumindest gleichwertige Systeme im Bereich dazwischen möglich sind.
Ein völlig anderes Bild ergibt sich, wenn man sich die Systeme mit M2090 anschaut. Hier sieht man doch sehr große Schwankungen, und einen deutlich Abfall hin zu großen Systemen. Hier sollte man allerdings nicht zu vorschnell urteilen, denn zum einen zeigen die beiden Zacken in der Mitte, das man durchaus gute Skalierungswerte erreichen kann. Hier wird vermutlich der Grund in einer sehr unterschiedlichen Bestückung mit M2090 Karten bei den Clustern zu suchen sein.
Daher sollte man sich für die Abschätzung der Skalierung vorallem den ersten Wert und die beiden großen Zacken (um 400kW) in der Mitte anschauen. Wie man sieht, kann man mit K20x deutlich zulegen.
Kommen wir nun zu XeonPhi. Auf den ersten Blick erkennt man eine recht eindeutige Skalierung mit einigen Unstimmigkeiten in der Mitte. Hier sind allerdings wieder die mangelnde Anzahl an Messpunkten die Ursache hierfür. Doch gerade der Bereich in der Mitte zeicht wieder, das man hier wohl sehr inhomogene Systeme miteinander vergleicht. Man sollte daher wiederum nur die drei höchsten Werte für eine Skalierungsabschätzung in Betracht ziehen.
Tut man dies, erkennt man, das XeonPhi-Systeme wohl etwas schelchter skalieren als die der Konkurrenz. Genaues kann man hier allerdings noch nicht sagen, da der kleinste Cluster eben sehr gut performt. Durch Optimierungen am Clusterdesign könnte sich also durchaus auch noch XeonPhi oberhalb von K20x einsortieren.
Betrachten wir nun abschließend noch die beiden AMD Systeme. Einmal eines mit HD7970 Consumerkarten, und eines mit FirePro-Karten. Wie man sieht, performen die FirePro Karten scheinbar sehr gut im Vergleich zu den HD7970. Für genauere Aussagen müsste man allerdings die beiden Cluster sehr genau vergleichen. Auf jeden Fall wird klar, das AMD hier scheinbar ein sehr heises Eisen im Feuer hat und zu nVidia offensichtlich in Sachen Perf/W aufgeschlossen hat.
Man kann also von einem Kopf-an-Kopf-Rennen der drei Hersteller ausgehen, was in Anbetracht der Dominanz von nVidia in den vergangenen Jahren doch SEHR verwunderlich ist. Bleibt ab zu warten, ob AMD, aber insbesondere nVidia in Anbetracht der agressiven Preisgestaltung von Intel lange ihre Preise so hoch halten können, oder ob wir einen Preiskampf im HPC-Bereich zu sehen bekommen.
Quelle:
Top500.org
Green500.org
Zuletzt bearbeitet: