Nvidia Ampere als Karte: A100 mit PCI-Express 4.0 für Server

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Ampere als Karte: A100 mit PCI-Express 4.0 für Server

Nvidias Ampere ist neuerdings auch als PCI-Express-Karte erhältlich - als Nachfolger der Tesla V100 für Server. Auf Seiten der Spezifikationen stehen 40 GiByte HBM2 und PCIe 4.0. Server-Anbieter haben bereits Pläne für den Beschleuniger.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Ampere als Karte: A100 mit PCI-Express 4.0 für Server
 
Klingt nach einem ziemlichen Monster die Karte :cool:
Und auch für AMD eine win win Position, da intel kein pciex4 anbietet, muss nvidia ja zwingend Epyc als Plattform empfehlen, was nochmal ordentlich für einen boost sorgen sollte.
 
Klingt nach einem ziemlichen Monster die Karte :cool:
Und auch für AMD eine win win Position, da intel kein pciex4 anbietet, muss nvidia ja zwingend Epyc als Plattform empfehlen, was nochmal ordentlich für einen boost sorgen sollte.

Mit AMD hat das eher wenig zu tun. Zum einen ist Ice Lake SP bereits nicht mehr fern und der unterstützt PCIe 4 schon lange (und dessen Nachfolger wird zudem voraussichtlich noch vor AMD auf PCIe 5 wechseln), zum anderen kann man hier auch durchaus IBM und insbesondere ARM ins Auge fassen. Gerade bzgl. letzteren hat nVidia in letzter Zeit viel Aufwand betrieben und bzgl. I/O stehen die ARM-Server einem Epyc in nichts nach.
Darüber hinaus hat AMD das Problem, dass sie nur beschränkte Stückzahlen liefern können. Der erschlagende Großteil des Server-Marktes wird nach wie vor von Intel bedient. AMD musste im vergangenen Quartal gar einen Operating Loss (anstatt Income) in seinem Enterprise-Segment verbuchen (voraussichtlich aufgrund des Entfalls der CurrentGen-Konsolen-SoCs, die ebenfalls in diesem Segment verrechnet werden). Gemäß Revenue setzt Intel hier gut das 20-fache pro Quartal um und mit einem Operating Income von 3,5 Mrd. US$ steht Intel auch hier um ein Vielfaches besser da im Vergleich zu den 26 Mio. US$ Operating Loss bei AMD. Das ist noch ein weiter Weg für AMD, da hat ein so singulärer Product-Launch eines Drittherstellers nur wenig bis bestenfalls mäßigen Einfluss.
 
Zuletzt bearbeitet:
Auch wenn du Recht haben magst, die Ambitionen von Gigabyte mit gleich 10 Beschleunigern sprechen doch auch für EPYC als Basis, kann jener einzeln schon um die 160 Lanes liefern.

Oder kennst du eine andere Möglichkeit, ohne dass die Karten gleich beim Stichwort "Bandbreite" verhungern?
 
Wegen mir kann die Consumer Ampere genauso aussehen, dann würde ich mir auch mal ne FE holen. Finde das Design schick, natürlich unter der Prämisse, dass die Kernfunktion des Kühlens/Lautstärke nicht zu stark darunter leidet.
 
Auch wenn du Recht haben magst, die Ambitionen von Gigabyte mit gleich 10 Beschleunigern sprechen doch auch für EPYC als Basis, kann jener einzeln schon um die 160 Lanes liefern.

Oder kennst du eine andere Möglichkeit, ohne dass die Karten gleich beim Stichwort "Bandbreite" verhungern?

a) Die 160 Lanes bei Epyc ist eine Spezialkonfiguration, die kaum ein Hersteller nutzt. Diese benötigen spezielle Boards und verringern zudem die Bandbreite zwischen den CPUs und beeinträchtigen damit auch den RAM-Durchsatz. Das Setup ist nur für sehr spezielle Szenarien überhaupt eine Überlegung wert. Effektiv sind es nach wie vor typischerweise 128 PCIe4-Lanes bei Epyc.

b) Stand doch bereits in meinem Post, man muss nur mal richtig lesen. ;-)
Mit die aktuellsten, unmittelbar bevorstehenden Designs, soweit ich das aus dem Ärmel schütteln kann (da ARM nicht unbedingt meine Domäne ist):

Unter anderem Marvell's ThunderX3 mit 96 ARM-v8.3+-Kernen und 4-fach SMT. Hinzu kommen 8x DDR4-3200-Speicherkanäle, sowie 64 PCIe4-Lanes und die Systeme lassen sich bei Bedarf ebenfalls als Dual-Socket-System konfigurieren. Erste Systeme dürften in wenigen Monaten verfügbar werden.

Ampere Computing's Altra ("QuickSilver"). 80 ARM-v8.2+-Kerne auch hier kommen acht DDR4-3200-ECC-Speicherkanäle zum Einsatz, die mit bis zu 4 TiB pro Socket bestückt werden können. Die Single-Socket-Variante bietet 128 PCIe4-Lanes, in der Dual-Socket-Variante stehen gar 192 PCIe4-Lanes zur Verfügung (zudem auch bereits mit CCIX und später auch mit CXL). Das Design dürfte wohl noch vor dem ThunderX3 verfügbar werden, also bereits jetzt im kommenden Quartal 3Q20.

Amazon's schon länger verfügbarer Graviton2 auf Basis von 64 ARM-v8.2/Neoverse N1-Kernen, ebenfalls acht DDR4-3200-Speicherkanäle und 64 PCIe4-Lanes pro Socket. Da Amazon das Design vorrangig für seine Cloud fertigt, sind weitere Details hier nicht ganz so einfach zu beschaffen. Als Host für eine derartiges Compute-System reicht aber bereits dieser schon problemlos aus.

Wegen mir kann die Consumer Ampere genauso aussehen, dann würde ich mir auch mal ne FE holen. Finde das Design schick, natürlich unter der Prämisse, dass die Kernfunktion des Kühlens/Lautstärke nicht zu stark darunter leidet.

Die Preisanmerkung im Artikel hast du dann aber geschickt überlesen oder sicherheitshalber ignoriert? ;-)

Abseits dessen könnte man jedoch tatsächlich spekulieren, dass die diesjährige Titan ggf. auf einem weiter abgespeckten GA100 basieren könnte (und nicht auf dem GA102; so wie nVidia zuvor auch schon Volta auf der Titan V nutzte). Die SMs reduziert man dann vielleicht auf 96 - 100 und man streicht noch einen weiteren HBM-Stack, sodass 32 GiB mit etwa 1,2 TiB/s verbleiben. Eine derartige Titan dürfte aber absehbar teuerer als das aktuelle Modelle werden, so wie auch schon die Titan V zu den teuersten Vertretern ihrer Art gehörte. (Und nicht zu vergessen, alles nur spekulation; zwar nicht abwegig, aber halt nur eine Möglichkeit.)

Edit/Anmerkung zu unten: Da du es dermaßen allgemein formuliert hast, habe ich das wohl hinreichend genau gelesen und auslegen müssen. Wenn es dir rein um das optische Design geht, solltest du das beim nächsten mal vielleicht hinzuschreiben. In einem Technikforum dürfte es den meisten wohl eher um die 108 SMs und fünf HBM-Stacks gehen, wenn man schreibt "dass das Design ruhig auch so aussehen darf" (und weniger darum wie die Lamellen gebogen sind und ob sie schwarz oder grün fluoreszierend sind. ;-)
Schwamm drüber ... darüber hinaus ist der unter Spekulatius jedoch unabhängig von unser beidigem Missverständnis durchaus eine Möglichkeit.
 
Zuletzt bearbeitet:
Die Preisanmerkung im Artikel hast du dann aber geschickt überlesen oder sicherheitshalber ignoriert? ;-)

Abseits dessen könnte man jedoch tatsächlich spekulieren, dass die diesjährige Titan ggf. auf einem weiter abgespeckten GA100 basieren könnte (und nicht auf dem GA102; so wie nVidia zuvor auch schon Volta auf der Titan V nutzte). Die SMs reduziert man dann vielleicht auf 96 - 100 und man streicht noch einen weiteren HBM-Stack, sodass 32 GiB mit etwa 1,2 TiB/s verbleiben. Eine derartige Titan dürfte aber absehbar teuerer als das aktuelle Modelle werden, so wie auch schon die Titan V zu den teuersten Vertretern ihrer Art gehörte. (Und nicht zu vergessen, alles nur spekulation; zwar nicht abwegig, aber halt nur eine Möglichkeit.)

Ich glaube du hast nicht genau genug gelesen was ich schrieb. Die Consumer Ampere (also RTX 30xx) dürfte m.M.n. OPTISCH genauso so aussehen, also nur das Kühler/Backpalte Design, nicht der Chip... ;)
 
Wegen mir kann die Consumer Ampere genauso aussehen, dann würde ich mir auch mal ne FE holen. Finde das Design schick, natürlich unter der Prämisse, dass die Kernfunktion des Kühlens/Lautstärke nicht zu stark darunter leidet.

In dem "Design" werden die definitiv nicht als Consumer-Karten kommen. Leise wären sie, da sie keinen eigenen Lüfter haben. Die sind für Server konzipiert und sind darauf angewiesen, dass die Lüfter des Servers diese mit kühlen!
 
Mit AMD hat das eher wenig zu tun. Zum einen ist Ice Lake SP bereits nicht mehr fern und der unterstützt PCIe 4 schon lange (und dessen Nachfolger wird zudem voraussichtlich noch vor AMD auf PCIe 5 wechseln), zum anderen kann man hier auch durchaus IBM und insbesondere ARM ins Auge fassen.

Dass die intelfanboys da gleich wieder aus den Löchern gekrochen kommen ist ja nichts neues. Wenn nvidia aktuell ihre Karten mit PCIe 4 an den Markt bringen möchte, dann führt kein Weg an einer Epyc Plattform vorbei, sofern man sich zwischen intel und AMD entscheidet und nicht sowieso auf IBM setzt.
Ansonsten kannst du uns gerne posten, wo die ganzen intel Serverplattformen mit PCIe 4 sind die es aktuell zu kaufen gibt? Bzw. das Zen 3 auch schon sehr nah ist und nochmal eine Schippe drauf legt ist dir entgangen?
Zudem hat auch erst im Mai nvidia Epyc als Plattform für ihre DGX A100 beworben, wieso sollen sie das plötzlich revidieren?
Nvidia Ampere GPU-Architektur und A100-GPU: DGX A100 kommt mit acht A100-GPUs - ComputerBase

Gerade bzgl. letzteren hat nVidia in letzter Zeit viel Aufwand betrieben und bzgl. I/O stehen die ARM-Server einem Epyc in nichts nach.
Siehe link oben, Epyc scheint da wohl eher Nvidias erste Wahl zu sein... Ansonsten können sie ja die intel Server mit ARM-Server ersetzen, da sparen sie bestimmt viel Strom ;)

Darüber hinaus hat AMD das Problem, dass sie nur beschränkte Stückzahlen liefern können.
Wo ist da jetzt das Problem? Du meinst Nvidia kann mehr von ihren A100er Karten liefern, wie AMD Plattformen bereitstellen kann? Du weißt das beide bei TSMC fertigen? Und dass die A100er Karten das rießen Maßenprodukt glaube ich jetzt auch nicht so ganz oder hast du Zahlen?

Der erschlagende Großteil des Server-Marktes wird nach wie vor von Intel bedient.
Hat ja auch niemand bestritten, dass intel noch größere Marktanteile hat oder steht das irgendwo? Jedoch bewirbt Nvidia für ihr Produkt halt die Epyc Plattform, eben weil intel in dem Segment nichts bieten kann, auch wenn dir das irgendwie zu Nahe zu gehen scheint...

AMD musste im vergangenen Quartal gar einen Operating Loss (anstatt Income) in seinem Enterprise-Segment verbuchen (voraussichtlich aufgrund des Entfalls der CurrentGen-Konsolen-SoCs, die ebenfalls in diesem Segment verrechnet werden).

Als findiger Leser der Quartalszahlen ist dir bestimmt aufgefallen, dass dies nicht an Epyc lag? Sondern an den Custom SoCs für Konsolen, wurde sogar erwähnt... Aber hast du bestimmt nur "ausversehen" vergessen.

Gemäß Revenue setzt Intel hier gut das 20-fache pro Quartal um und mit einem Operating Income von 3,5 Mrd. US$ steht Intel auch hier um ein Vielfaches besser da im Vergleich zu den 26 Mio. US$ Operating Loss bei AMD. Das ist noch ein weiter Weg für AMD, da hat ein so singulärer Product-Launch eines Drittherstellers nur wenig bis bestenfalls mäßigen Einfluss.

Wenn man keine Ahnung hat sollte man einfach nichts schreiben. Wieso nimmst du hier den Operation Loss der Sparte, obwohl da nicht nur die Server CPUs drin sind? Und was hat der aktuelle Umsatz damit zu tun, dass AMD in vielen Bereichen das bessere Produkt liefert? Auch mit Features die intel gar nicht liefern kann aktuell siehe PCIe 4? Man kann sich natürlich alles schönreden, aber mit der Realität hat dies wenig zu tun.
 
Heute ist wohl Korinter bzw. Klugschxxxer Tag. Man ich wollte nur sagen das ich das Design schicke finde und so ein Design rein optisch Visuell anziehend finde. IST mir schon klar das dieser Chip so als Consumerprodukt nicht kommt (würde auch kein sinn ergeben) und ohne Lüfter oder sonstigen Kühlmöglichkeiten nicht funktioniert... Was ist los mit euch... :lol:
 
Wow ist NV jetzt erst auf die Idee gekommen auf PCI-E zu setzen was haben die vorher gemacht noch auf PCI gesetzt :-)

Denke mal der Text sollte in der Richtung mal angepasst werden aber wenn man das so liest könnte man obiges vermuten :-)
 
Mit AMD hat das eher wenig zu tun. Zum einen ist Ice Lake SP bereits nicht mehr fern und der unterstützt PCIe 4 schon lange
Mit wie vielen/wenig Lanes?
Zu behaupten der unterstützt es schon lange, wenn er noch nichtmal am Markt ist, ist aber auch irgendwie ein starkes Stück^^

Hm... hätte ich gar nicht gedacht. 40GB, obwohl die MI100 mit "nur" 32 kommt. Nicht schlecht.
Beide Hersteller könnten theoretisch noch verdoppeln, also 80GB vs. 64GB

Wow ist NV jetzt erst auf die Idee gekommen auf PCI-E zu setzen was haben die vorher gemacht noch auf PCI gesetzt :-)

Denke mal der Text sollte in der Richtung mal angepasst werden aber wenn man das so liest könnte man obiges vermuten :-)
Was passt daran denn nicht?
Wie würdest du es schreiben?
 
a) Die 160 Lanes bei Epyc ist eine Spezialkonfiguration, die kaum ein Hersteller nutzt. Diese benötigen spezielle Boards und verringern zudem die Bandbreite zwischen den CPUs und beeinträchtigen damit auch den RAM-Durchsatz.

10 Grafikkarten in einem Rack sind keine Spezialkonfiguration? Und falls alle 10 Karten noch über NVLink kommunizieren können und der Workload hauptsächlich im VRAM stattfindet, wird der RAM-Durchsatz recht nebensächlich. Und genau dann reicht auch eine CPU völlig aus.
 
Jaja - "Es führt kein weg an AMD vorbei wenn man nur AMD nehmen darf und keine der anderen Alternativen".
Gratuliere - da kann ich auch genauso sagen es führt kein Weg an Intel vorbei - ist genauso falsch wie dein geschwafel.
Nicht wirklich. x86 Kompatibilität und PCIe 4 sind keine völlig realitätsfremden Forderungen im Rechenzentrum, sondern quasi das Standardpflichtenheft. Ersteres, weil x86 (bzw AMD64 +drölfzigtausend Extensions), halt das meistverbreitete, ergo am meisten ausgereifte System ist. Letzteres, weil man sowohl die Beschleunigerkarten, als auch die Interconnects nicht verhungern lassen will. Ein Rackeinschub mit ein paar Ampere Karten kommt ja üblicherweise nicht alleine, sondern eher zu hundertfach. Die müssen aber alle vernetzt werden, und wer 100 GB/s Ehthernet oder gar noch schnelleres Infiniband ausnutzen will, braucht nochmal eine ganze Menge PCIe Lanes. Und auch SSD-Caches hängen an PCIe....

Klar, man könnte natürlich auch Intel kaufen. Für manche Anwendungen macht das auch immer noch Sinn. Aber wer möglichst viele Ampere Karten kosteneffektiv einbinden will, nimmt sich im Moment zumindest wirklich einfach einen Epyc, die Dinger sind verhältnismäßig Spottbillig und erfüllen ihren Zweck hervorragend. Man kauft also im Prinzip nur den IO-Die, und missbraucht die Zen-2 Kerne zum Daten verteilen- und aufbereiten :D.
 
Korrekt, dafür reicht dann je nach Anwendungsfall auch ein kleiner billiger Epyc, da braucht man oft keinen mit 64 Kernen.
I/O ist ja bei allen gleich!
 
Zurück