Nvidia Tesla K80: Server-Grafikkarte mit Dual-GK210 und 24 GiByte VRAM

Es gibt in Profi-Segment momentan nichts besseres außer NVidia. Was sich Kunden in dieser Branche wünschen sind: High-Level-Support der erschwinglich und Kundennah ist + eine perfekte Garantieleistung. Das kann AMD mit ihren Produkten immer noch nicht bieten. Da sind dir paar Watt weniger verbrauch in Relation zu den DPs humpitz. Dessweiteren bietet NVidia mit Cuda eine perfekte Plattform für effizientere Programmierung ohne einen eigenen Entwickler im Hause sitzen zu haben. All das ist der Grund für diesen Marktanteil. Leute die sich Rechner oder Server mit Teslas kaufen schauen nicht in die Bildzeitung. Da sind ausgewählte Fachhändler für zuständig. Das hat beim besten Willen nichts mit Marketing zutuen.

Sind die nicht eh alle wassergekühlt? Luftkühlung in so einem vollgepackten Rack wäre blöd...
Nein, die sind in der Regel rein passiv gekühlt in Rechenzentren. Ein Lüfter kann ausfallen, ohne dads man es merkt, und durch die Serverblades geht eh nen "Orkan". ;)

Wenn etwas mehr Kühlung braucht, entweder mehr Luftdurchsatz, oder kühlere Frischluft. Da geht schon einiges, Klimaanlage sei Dank. Der Effizienz tut das natürlich nicht gut, aber es kommt auch nicht von Ungefähr, das Rechenzentren oft rund die Hälfte der Energie für die Klimaanlage aufwenden müssen.

Kommt drauf an welche Version du nimmst. Die K40x ist ohne Lüfter.

Mal so ne Frage für was braucht ein Server ne Graka? Ist mir bis jetzt noch gar nicht untergekommen, und muss ich beschämt zugeben, ich habe keine Ahnung wofür ein Server so ne Graka brauchen könnte.
Für Berechnungen aller Art, also Crashtest-Simulationen, Wettervorhersage, Gas- & Ölsuche, Hydrodynamik usw usw. Also alles, bei dem man extrem viel rechnen muss; zumeist auf Matrizen.
Gibt aber auch Anwendungen für Datenbanken die davon profitieren, da man Sortieralgorithmen auch teils gut auf GPUs packen kann.

Warum nicht gleich 128GB RAM und ne 512GiB SSD an die Karte ran, dann am besten zwei Dual GRX 980 und und und ... ( :ugly: ).
Ach ja: kann der Chip eigentlich die 24GB verarbeitet? !?
12GB. Es sind zwei GPUs ;) Aber ja, mit entsprechender Software kann man natürlich den gesamten Speicher nutzen. Würde ja auch wenig Sinn machen den ansonstne zu verbauen.

Nvidia ist im Profi Bereich doch schon einen Schritt

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die AMIS wollen wieder an die Spitze der Rechenleistung mit 150 - 300 Petaflops, zudem ist die Rede dort schon von Nv Link/Stacked Ram. Vielleicht gehen die in dem Bereich gleich zu Pascal/Volta über, mit angepasster 16nm Finfet Fertigung und Maxwell 28/20nm bleibt hier vorerst nur als Lückenfüller für Quadro und Gamerbereich
Die Amis wollen viel wenn der Tag lang ist, und auch nVidia. Warten wir mal einfach ab, was am Ende bei rum kommt, aber einfach wird es nicht, auch andere wollen in die Größenordnung in nächster Zeit vorstoßen.

Nun in den allermeisten Fällen ist guter Service einfach wichtiger als ein paar Prozent mehr Leistung. Bei nVidia hat man im Falle eines Defekts (natürlich nur mit Servicevertrag) innerhalb von 4 Stunden eine neue Teslakarte. Diese kommt per Taxi. Dort wo ich arbeite waren die Ersatzkarten in den letzten Jahren sogar innerhalb 3 Stunden geliefert.
AMD garantiert bei einer Firepro lediglich Ersatz innerhalb von 48 Stunden. Das ist ein riesiger Unterschied wenn man als Ingenieur vor seinem Rechner sitzt und nicht arbeiten kann. Was den Service betrifft kann im Übrigen auch nicht mal Intel mit seinen Phi-Karten mit nVidia mithalten.

Das ist Fakt und hat einfach gar nichts mit "treuen Vasallen" oder "Werbetrommel" zu tun.
Was du beschreibst ist aber nur ein sehr sehr sehr spezieller Gesichtspunkt im Bezug auf "Service". Ein Austauschservice ist schön und gut, aber sowas kann man sich im Prinzip immer für Geld einkaufen, man muss nur danach suchen, und eben auch bereit sein, es zu bezahlen.

Gibt es in genug Branchen, wo auch mal aus Spanien usw. Teile auch per Flugzeug, oder auch Taxi beschafft werden. Ist halt immer nur die Frage, was ein Stillstand kostet. So etwas ist aber schon sehr speziell, und hat an sich nichts mit einem Speziellen HErsteller zu tun.

Wenns ja wenigstens ein paar Prozent wären;)

Hinter der Software kackt der Bär, und da bleibt von AMDs hypothetischer Rohpower oftmals nur noch ein kümmerlicher Rest übrig, in den für die Unternehmen interessanten Anwendungsszenarios.


Braucht sich doch einer nur die top 500 der Supercomputer anzuschauen und eins + eins zusammen zu zählen. Xeon Phi und Tesla sind dort trotz ihres "exclusiven" Preises die GPGPU Leader, obwohl die Phi Module ja eigentlich streng genommen schon wieder x86 Architektur sind.

Da lässt sich keiner von der reinen Rohpower blenden, sondern sieht das Gesamtpaket:daumen:
Naja, so Pauschal kannste das auch nicht sagen. Es kommt immer darauf an, was man wo und wie macht. Je nachdem war und ist AMD immer eine gute Wahl. Die Frankfurter setzen AMD auch nicht ohne Grund ein, zumal Sie auch sehr gute Werte bei der Green500 erreichen. Was mit der S9150 machbar ist, wird noch spannend sein.


AMD verlor im zweiten Quartal Marktanteile bei GPUs

Irgend wer ist hier schon wieder im Radeon Traumland wer das wohl ist

Und was bitteschön soll 1:2 DP sein? Redest du vom Shaderverhältniss SP zu DP?

Ob das mal soviel juckt wie Opas eitriger Fuß:ugly:

Software, Service und Applikationsperformance sind ausschlaggebend ,und nicht irgendwelche nackten Zahlen, die Architektur betreffend
-.-

Sich hier als strammer Max ausm Profisegment hinstellen, aber noch nicht mal den Unterschied zwischen SP und DP kennen :klatsch:

EDIT:
Btw. Scully, du warst doch LZ nicht war, da klingelt gerade ein Glöckchen in meinem Hinterkopf ;D

Und bzgl RAM. Das ist aber wenn dann nonuniform Memory access, und kaum schneller als aus dem RAM der CPU, was schnarch lahm ist, weil es eben schon mal über den PCI-E Bus drüber muss. Damit gewinnste keinen Blumentopf. Die 12 GB der anderen GPU kannste daher getrost vergessen.
 
Sich hier als strammer Max ausm Profisegment hinstellen, aber noch nicht mal den Unterschied zwischen SP und DP kennen :klatsch:

EDIT:
Btw. Scully, du warst doch LZ nicht war, da klingelt gerade ein Glöckchen in meinem Hinterkopf ;D

.

Bitte was? :what:

Und ich kenne den Unterschied zwischen SP und DP nur erstens hat er das Shaderverhältniss nicht so angegeben weswegen ich nochmal nachgefragt hatte und zweitens spielt das in dem Umfeld keine Rolle die Konfigurationen werden dort so gewählt das es für das spezielle Einsatzszenario passt

Abgesehen davon ist das mit der K80 eh absolute Makulatur , da sie in beiden Bereichen die Krone zurück holt, aber die nackten Zahlen sind im Endeffekt sowieso nicht ausschlaggebend wie ich schon mal sagte,kackt hinter der Software erst der Bär
 
AMD verlor im zweiten Quartal Marktanteile bei GPUs

Irgend wer ist hier schon wieder im Radeon Traumland wer das wohl ist

Was hat das mit dem professionellen Sektor zu tun?:schief:

Ob das mal soviel juckt wie Opas eitriger Fuß:ugly:
Kannst du auch mal irgendetwas sinvolles schreiben?:schief:

Software, Service und Applikationsperformance sind ausschlaggebend ,und nicht irgendwelche nackten Zahlen, die Architektur betreffend
Dann schau dir doch mal die Applikationsperformance beim Test den ich dir extra verlinkt habe.
Da ist weder die rede, dass AMD wie ein eitriger Fuß stinkt, noch ist die Rede davon dass AMD Softwareseitig nix zu bieten hat, aber dein Schwarz-Weiß rumgepampe kennt man ja.

Abgesehen davon ist das mit der K80 eh absolute Makulatur , da sie in beiden Bereichen die Krone zurück holt,

Würde AMD ne Dualkartebauen, wäre sie sicherlich weit vor der K80.
AMD gewinnt hinsichtlich der Effizienz mit einer Karte gegen 2 GK210.



http://www.computerbase.de/2014-11/nvidia-tesla-k80-rechnet-mit-bis-zu-8.7-teraflops/
 
Zuletzt bearbeitet:
Würde AMD ne Dualkartebauen, wäre sie sicherlich weit vor der K80.
AMD gewinnt hinsichtlich der Effizienz mit einer Karte gegen 2 GK210.

Ja bau mal die Server Rack Konformität bezogen auf die TDP will ich erstmal erleben;)

Nen Ladenhüter mit 400Watt TDP um sich vor die K80 zu patchen nützt da reichlich wenig, das ging schon mal nicht auf im Serversegment

Nicht hätte hätte Fahrradkette
 
Zuletzt bearbeitet von einem Moderator:
DAs was ich da gesehen habe, war CPU und GPU Speicher als 1, also das was AMD schon länger bei dem APU's kann. Aber nichts das beide GPU's gemeinsam auf den Speicher zugreifen können.

Soweit ich das sehe wird die TESLA K80 mit "shared memory" beworben und nicht mit SLI. Demnach können Anwendungen auf den vollen Speicher zugreifen. Bewerkstelligt wird das dann wahrscheinlich von CUDA 6 und dem "unified memory".
 
Nen Ladenhüter mit 400Watt TDP um sich vor die K80 zu patchen nützt da reichlich wenig, das ging schon mal nicht auf im Serversegment

AMD FirePro S9150: 235 Watt
Nvidia Tesla K80: 300 Watt

Wenn Nvidia eine Dualkarte bauen kann, dann kann das AMD prinzipiell auch, zumal AMD ja effizienter ist, vorn daher, erhöht sich die Effizienz bei einem Dualdesign mit niedrigem Takt.

Nicht hätte hätte Fahrradkette
Das war ja nur ein fiktives Beispiel um zu zeigen, dass nvidia ineffizienter ist.
Selbst mit einer Karte ist AMD noch effizienter.
 
Zuletzt bearbeitet von einem Moderator:
Hinter der Software kackt der Bär, und da bleibt von AMDs hypothetischer Rohpower oftmals nur noch ein kümmerlicher Rest übrig, in den für die Unternehmen interessanten Anwendungsszenarios.

So ist es, und leider ist AMDs OpenCL-Compiler immer noch bescheiden - und zwar so bescheiden, dass man mittlerweile in manchen Bereichen an CUDA gar nicht mehr vorbei kommt. :(
 
Soweit ich das sehe wird die TESLA K80 mit "VIRTUAL shared memory" beworben und nicht mit SLI. Demnach können Anwendungen auf den vollen Speicher zugreifen. Bewerkstelligt wird das dann wahrscheinlich von CUDA 6 und dem "unified memory".
Ich habe das mal für dich mal korrigiert. Von nVidias groß angekündigter SecretSource bzgl Hardwarebuildingblocks ist nämlich nichts außer heiser Luft übrig geblieben.

Im Endeffekt ist das nur eine Softwareroutine im Treiber, die die Übersetzung der Adressen vornimmt. Also quasi ein lookup, und entsprechendes automatische allocieren und rumkopieren. Das Problem dabei ist halt, dass das immer erst dann passiert, wenn man die Daten eigentlich schon braucht...

Bei uns hatte das auch mal jemand in einem Seminar untersucht und herausgefunden, das nVidia hier auch einfach fixe Blockgrößen kopiert. Wenn du also nur ein einziges Datum brauchst, kopiert der Treiber viel viel viel mehr. Auf der anderen Seite, wird ein richtig großer Speicherbereich eben nicht auf einmal kopiert, sondern Häppchenweise....

Das Ding eignet sich nur zum prototyping, um schnell einen überhaupt lauffähigen Code zu haben. Performance ist dabei erstmal völlig irrelevant.


Welche Fäkalsprache du träumst wohl langsam ein bisschen ,oder was fantasierst du dir hier zusammen ?:what:

Allein für diese Unterstellung sollte man dich abschalten




http://acceleware.com/blog/nvidia-cuda-60-unified-memory-performance

Anhang anzeigen 786227


So schlimm und schnarch langsam sieht es gar nicht aus für meine Begriffe, dafür das der doppelte V Ram dann zu Verfügung steht
:klatsch: Wer lesen kann ist klar im Vorteil...

Die Version mit dem Virtual shared Memory ist um mindestens 50% langsamer, wenn man wirklich alles mit rein nimmt. Wenn man davon ausgeht, das man den gepinnten Speicher wiederverwenden kann, was an sich immer ein Ziel sein sollte eines Entwicklers, dann ist die pinned Version sogar 6 mal schnell....

Stimmt, Virtual Unified Memory ist wirklich richtig "toll" :-_-:

Les einfach mal deine eigenen Links, da steht z.B.

Unified Memory does simplify code, and perhaps also lower the bar of entry for parallel programming in CUDA, but it appears that (at least for now), tasking memory management to the developer rather than the runtime is the best bet for achieving high-performance applications.
LZ, gib dir wenigstens etwas mehr mühe, das konntest du schon weitaus besser.... :schief:
 
Btt:
Ja eine neue Profikarte. Und es diskutieren wieder Leute drüber die nicht damit arbeiten. Hat in meinen Augen hier nix verloren. Dem Namen nach eine Grafikkarte. Nur assoziieren hier 99%damit Spiele. Nicht das wofür diese gedacht sind. Arbeit. Sieht man an den Kommentaren.
 
Zuletzt bearbeitet von einem Moderator:
24GiB ? Was soll ich denn damit ? Damit kann man ja nich mal Mordors Schatten oder Watch Dogs in 720p zocken -.-

Nein Spaß bei Seite
Für CAD arbeiten und DP berechnungen bestimmt Top, für mich aber unbrauchbar
Die sollen lieber mal die Titan II bringen
 
Warum wird das Dingen von Anhängern der grünen Marke in den Himmel gelobt? Letztendlich ist es nur eine DualGPU. Da hat AMD noch nichts entsprechendes zu bieten aber mit einer sparsameren SingleGPU annähernde Leistung zu bieten. Jetzt müssen sie nur eine Profi 295X2 basteln, den Takt anpassen, um den Verbrauch zu senken, und sie haben mit 2 HawaiiXT, mit nur 500 MHz mathematisch eine höhere Leistung bei geringerem Verbrauch...
Effizenter und stärker bleibt also trotzdem AMD.

Wird Zeit für den großen Maxwell auf den professionellen Karten, sonst kann nVidia in dem Bereich einfach nichts mehr reißen. Selbst wenn sie hundertmal mit einem "neuen". überarbeiteten Uraltchip kommen.

W9150 bringt mit nur einem einzigen Chip schon 2,53 TFlops DP-Leistung während die "starke" NV 2 Chips für berauschende 0,38 TFlops mehr braucht? Joa, toll... -.-
 
Zuletzt bearbeitet:
Zur Info:

Es wurden einige Beiträge ausgeblendet bzw. editiert, da sie offensichtliche Provokationen bzw. Antworten darauf enthielten. Klärt eure Streitigkeiten bitte sachlich per PN.

B2T
 
Ja, die existiert aber nmur im SP-Bereich. Bei der im professionellen Bereich wichtigen DP-Performance sind die AMD-Karten seit langer Zeit schneller und viel effizienter unterwegs. Selbst Maxwell wird da seine liebe Not haben ranzukommen.
Übrigens beschneidet AMD die DP-Performance auf normalen Consumerkarten auch nicht künstlich wie NV das tut.

Doch, schon. Hawaii ist beschnitten - der ASIC erlaubt 1:2 in der Fire Pro, die Radeon R9 290(X) haben aber nur 1:8. Tahitit war bei 1:4 nicht beschnitten.

Die bisher vorgestellten Maxwells sind ebenfalls nicht beschnitten: Da ist 1:32 in Hardware vorgegeben, ebenso wie 1:24 beim Gamiing-Kepler festgezurrt war. Nur die Fermis und die GK110 (außerhalb der Titan!) waren zuletzt beschnitten.


AMD FirePro S9150: 235 Watt
Nvidia Tesla K80: 300 Watt

Ich frage mich, ob die 300 Watt nicht hauptsächlich zugunsten möglichst hoher Boost-Taktraten ermöglicht werden. Im verlinkten Test von THG zog ja schon die mit 225 Watt angegebene FP W9100 im Compute-Bereich bis zu 260 Watt Average.
 
Zuletzt bearbeitet:
Zurück