Volta: Nvidia verschenkt Tesla V100 an AI-Wissenschaftler

Weil Volta eigentlich nur Pascal + Tensor Cores ist.
Für Gaming bringt das nichts.
[...]
Eine neue ISA, mit durchschnittlich 4-Cycles für Instruktionen gegenüber den aktuellen 6-Cycles und einer veränderten Cache-Struktur stellt "eigentlicht" nur Pascal + Tensor Cores dar?

[...]
Von der Fertigung?

"New Streaming Multiprocessor (SM) Architecture Optimized for Deep Learning

Volta features a major new redesign of the SM processor architecture that is at the center of the GPU.
The new Volta SM is 50% more energy efficient than the previous generation Pascal design, enabling major boosts in FP32 and FP64 performance in the same power envelope
.
New Tensor Cores designed specifically for deep learning deliver up to 12x higher peak TFLOPSfor training and 6x higher peak TFLOPS for inference.
With independent parallel integer and floating-point data paths, the Volta SM is also much more efficient on workloads with a mix of computation and addressing calculations.
Volta’s new independent thread scheduling capability enables finer -grain synchronization and coope ration between parallel threads.
Finally, a new combined L1 data cache and shared memory unit significantly improves performance while also simplifying programming.New Streaming Multiprocessor (SM) Architecture Optimized for Deep Learning"

https://images.nvidia.com/content/volta-architecture/pdf/Volta-Architecture-Whitepaper-v1.0.pdf

[...]
Ja, was ist daran jetzt so schwer zu verstehen?
Es ergibt wenig Sinn, dass eine kostenoptimierte Node für große Effizienzsteigerungen sorgen soll.
[...]
DP schein da bei Vega übrigens falsch angegeben zu sein!
[...]
An die CPU trotzdem nur per PCIe, nur bei POWER gibt es NVLink in der CPU.

Klarer Punkt für AMD, sie können Vega per HT an Naples anbinden!
1. Bei Vega 10 ist die DP-Leistung mit 1/16 richtig angegeben, mehr hat der Chip (höchstwahrscheinlich) nicht drauf.
Für einen anderen Vega-Ableger könnte AMD natürlich auch 1/2 verwenden, aber darüber gibt es keine offiziellen Informationen.

2. Stellt sich nur die Frage, wann AMD das auch wirklich tut (IF/xGMI) und anbietet.
 
Verstehe ich Sie allen Ernstes richtig, Sie finden es also super, wenn todkranke Menschen als Betatester für Nvidia herhalten müssen, damit nVidia noch ein wenig mehr Budget sparen und tolle PR machen kann?! Da erübrigt sich in meinen Augen jeder weitere Kommentar...
Handelt sich hier wohl um eine Missinterpretation.

Die Überschrift lautet:
"Volta: Nvidia verschenkt Tesla V100 an AI-Wissenschaftler"
 
Zuletzt bearbeitet:
@PCGH
Bitte so schnell wie Möglich so eine Workstationkarte ordern und durch den Gaming-Parcour schicken.
Wenn die dann mangels entsprechender Treiber verkackt, kann die Gamerwelt direkt aufschreien..:motz:


Und ja, das war komplett zynisch gemeint (in Anlehnung an den Test der Vega FE Workstationkarte)
;)
Wird schwierig an einer 'Tesla V100' einen Monitor anzuschließen ohne entsprechende Anschlüsse. Ein 'Quadro GP100' Nachfolger wurde in Form von möglicherweise 'Quadro GV100' bisher nicht vorstellt/angekündigt. Allerdings fände ich es auch interessant diese beiden nVidia HBM2 GPUs (GP100 & GV100) mal in Spielen zu sehen, oder auch wie die PCIe Boards unter dem Kühler bestückt sind :daumen:

Hatte PCGH hier nicht ne Anfrage gestellt für ein Quadro GP100 Testsample :huh:
 
Zuletzt bearbeitet:
Wird schwierig an einer Tesla V100 einen Monitor anzuschließen ohne entsprechende Anschlüsse. Ein 'Quadro GP100' Nachfolger wurde in Form von möglicherweise 'Quadro GV100' bisher nicht vorstellt/angekündigt. Allerdings fände ich es auch interessant diese beiden nVidia HBM2 GPUs (GP100 & GV100) mal in Spielen zu sehen, oder auch wie die PCIe Boards unter dem Kühler bestückt sind :daumen:

Hatte PCGH hier nicht ne Anfrage gestellt für ein Quadro GP100 Testsample :huh:

Dafür bekommen sie wohl eher 15 GTX 1080Ti!:D
 
Dem Herrn Huang geht irgendeine Krebsstation total am Allerwertesten vorbei, Sie scheinen mir da reichlich naiv gestrickt zu sein. Niemand spendet aus reiner Barmherzigkeit, da stecken knallharte ökonomische und werbetechnische Aspekte dahinter, von denen man sich einen positiven Aspekt auf den Absatz bzw. Umsatz erhofft. Dass dazu notleidende Menschen zweckentfremdet werden macht die Angelegenheit noch viel perverser...

Edit: Und weil ich so ein großer AMD-Fanboy bin, werkelt in meinem Rechner eine Intel-CPU in Kombination mit nVidia-GPU, aber immer schön oberflächlich bleiben, dem Pawlow'schen Reflex nachgeben und die Leute lapidar in Schubladen stecken, ist ja auch wesentlich einfacher, als sich unvoreingenommen mit den Leuten auseinander zu setzen. Reichlich opportun...

Klar stecken da vorrangig ökonomische Ziele und Marketing dahinter. Trotzdem kommt es im Endeffekt der entsprechenden Forschung zugute. Man könnte Werbung auch sonst wie anders machen, ich finde solche Wege allerdings besser, als beispielsweise auf Websiten, TV, Zeitschriften... Im Endeffekt ist der Mensch von Natur aus eben nicht 100% altruistisch eingestellt und Unternehmen schon mal gar nicht. Man will immer eine Gegenleistung haben. Nvidia bekommt so relativ günstig Werbung mit hoher Reichweite in einem sehr speziellen Kundenstamm und die Forscher bekommen gratis Hardware... so what?

Verstehe ich Sie allen Ernstes richtig, Sie finden es also super, wenn todkranke Menschen als Betatester für Nvidia herhalten müssen, damit nVidia noch ein wenig mehr Budget sparen und tolle PR machen kann?! Da erübrigt sich in meinen Augen jeder weitere Kommentar...

1. handelt es sich hier um AI-Forscher, die rein gar nichts mit todkranken Menschen zu tun haben. 2. Habe ich zufälligerweise bereits in der Krebsforschung gearbeitet und kann dir versichern, dass beispielsweise HPC Berechnungen (wie beispielsweise bei Folding@Home) mehr in der Grundlagenforschung Anwendung finden, aber sicherlich nicht 'am Patienten'. Bis ein Medikament zur Marktreife entwickelt ist, dauert es oft Jahre bis Jahrzehnte, wovon die letzten Jahre allein klinische Studien sind, die auf haufenweise experimenteller Daten bspw. an Tieren basieren. Diese Daten basieren dann wiederum auf Experimenten mit einfachen Zellkulturen. Falls irgendwo HPC Berechnungen zu suchen sind, wäre das am ehesten während dieser Phase oder noch eine Phase früher, in der generell erstmal Wirkstoffkandidaten/Targets o.ä. gesucht werden.
 
Zuletzt bearbeitet:
Mann man man ,ich habe mal das ganze überflogen und manche tuen so als ob ide karte so schwache wäre um nicht mal tetris dort abspielen zu können.

Und Leute die mehr hardware fordern,im moment gibt es nichts was noch mehr hardware benötigt.Im Moment ist ne spiel flaute.DIe guten Spiele kommen schon noch und dann wird auch das thema hardware wieder noch mehr und besser sein als es jetzt ist.
Denn nur fordern bringt nix.Im moment ist das thema nicht so das man gleich umhaut.Ich weis nicht ich bin einfach irgendwie nicht so beendruckt wie damals,an was das wohl liegen mag.
 
Hat doch keinen Sinn..., hier treiben sich doch wieder 90% AMD-Fanboys rum und versuchen alles schlecht zu reden.
Aber wir bekommen nächstes Jahr unsere GTX1180 und ihr dürft mal wieder in die Röhre gucken. So siehts aus!
 
Künstliche Intelligenz wird mal der Untergang der Menschheit sein. ^^

Das schaffen wir auch ohne AI.

nVidia scheint ja das Wasser extrem bis zum Hals zu stehen, müssen sie jetzt schon Karten verschenken, um ihre, aktuell durch Vega immer mehr unter Druck geratenen GPU's unter das "Volk" zu bringen. Würden sie nicht Bammel vor Vega haben, dann müssten sie auch keine Karten verschenken. Erinnert mich an einen Millionen-Steuerhinterzieher, welcher 10.000 Euro für caritative Zwecke spendet und sich dafür dann öffentlichkeitswirksam feiern lässt...

Ich nehme jetzt nur mal diesen einen Beitrag von Spam-a-lot, stellvertretend für sein restliches Gespamme. Denn nichts Anderes ist sein Gelaber. So schlimm ist ja nicht mal Poor_Volta. Ich weiß gar nicht, wieso ihr auf diesen Typen überhaupt eingeht. Allein schon sein Name sagt genug aus um ihn einfach links liegen zu lassen.

BTT: NVidia weiß einfach wie PR funktioniert und kann es sich gewiss auch leisten, mal eben 15 Tesla V100 zu verschenken. Nvidia muss sich aktuell auch nicht im Geringsten vor Vega fürchten. Wenn Vega endlich mal auf den Markt kommt, sind nVidias Pascal-Karten schon zumeist über ein Jahr alt. Sollte Vega also Pascal schlagen können, wäre dieser Sieg auch nicht viel Wert, denn das meiste Geld hat nVidia ja schon mit Pascal in der Zeit verdient, in der AMD dem nichts entgegenzusetzen hatte. Also quasi in den vergangenen 12 Monaten. Die Erwartungshaltung an Vega ist ungleich höher, denn es wird ja erwartet dass man eine über 12 Monate alte Architektur ja wohl wird schlagen können, erst recht dank HBM2. Und selbst wenn das AMD gelingen sollte, nVidias Antwort wird folgen. Ob das Pascal 2.0 sein wird, ob man schon einen GV102 bzw. GV104 vorbereitet hat? Würde mich nicht wundern. Es sollte kein Problem darstellen mit Volta einen Gaming-Ableger zu realisieren. Auf die Tension-Cores kann man ja verzichten, dann wird der Chip auch gleich mal um ca. 300mm² kleiner für einen GV102. Jeden Falls wird AMD nicht viel Zeit haben um mit Vega gut zu verdienen. Dafür kommt Vega einfach viel zu spät und ist zu nahe am nächsten nVidia-Release dran. Und bis dahin könnte nVidia auch leicht über den Preis kontern. GDDR5 ist viel billiger als HBM2 und je nach GPU hat nVidia viel Luft nach unten, um immer noch Gewinn einfahren zu können.
 
RX Vega kommt sicher noch 2017.
Hat das jemand ernsthaft bezweifelt? :ugly:

Navi könnte sich 2018 ausgehen.
Puh, da würde ich mich im Moment noch zu gar keiner Aussage hingezogen fühlen. Zurückblickend auf die jüngere Vergangenheit bei RTG würde ich den ramp up des Prozesses noch als verlässlicher einstufen als das final design date des Chip.
Aber mal gucken, Navi Speku ist mir alles noch zu früh im Moment.
 
Wir werden doch sehen was kommen wird. Beide machen was Entwicklung, Fertigung und Markt erlauben und die Aktionäre beglückt. Aber schön, wenn manche so für eine AG kämpfen.
 
Ok, nur für dich hier mal ein paar Specs der beiden Karten: Links P100, rechts Vega (FE)
Speicherbandbreite: 720 GB/s vs. 480 GB/s
Speicherinterface: 4096 Bit HBM2 vs 2048 Bit HBM2
Theoretische Rechenleistung: (HP/SP/DP) in TFLops: 21/10.5/5 vs. 22/11/0.7
Leistungsaufnahme: Beide etwa 300W
Chipgröße: 610 mm^2 vs 480 mm^2
Hast Du auch ein paar Preise zum X vs. Y :hmm:

Es gibt keine einzige Disziplin, in der Vega so richtig glänzt. [..]
Achja, informieren ist ja sooo schwer...
VegaFE (1070€) Vs P6000 (3177€, vor VegaFE Relese ~4000€, vor einem Jahr 7999€ )

Bildschirmfoto_2017-07-25_11-37-44.png Bildschirmfoto_2017-07-25_11-39-49.png Bildschirmfoto_2017-07-25_11-40-13.png
Bildschirmfoto_2017-07-25_11-40-34.png Bildschirmfoto_2017-07-25_11-39-24.png
VegaFE vs. P5000 (1950€]
Bildschirmfoto_2017-07-25_11-43-44.png Bildschirmfoto_2017-07-25_11-44-03.png
Natürlich ,es gibt NICHTS wo Vega glänzt :rollen: (und das sind nur ein paar Beispiele, es gibt noch mehr. GidF!

Zum Glück (für AMD) aber durch den gigantischen Chip aber auch sündteuer, AMD kann also immerhin noch die Brotkrumen der Unterfinanzierten aufsammeln.
DAS habe ich natürlich vergessen.. AMD ist nur was für 'arme Leute' :wall:




Die Karte ist sehr gut für Astronomieberechnungen.
Genau, nVidia kann damit atronomische Margen für ihre Karten berechnen :D
Das ist dann wohl etwas, was sich die Überfinanzierten leisten können...:hail:

BTT: NVidia weiß einfach wie PR funktioniert und kann es sich gewiss auch leisten, mal eben 15 Tesla V100 zu verschenken. Nvidia muss sich aktuell auch nicht im Geringsten vor Vega fürchten. Wenn Vega endlich mal auf den Markt kommt, sind nVidias Pascal-Karten schon zumeist über ein Jahr alt. [...]blablabla
uuund da ist sie wieder, die Oberst-Klink-MarktANALyse.. und was hast Du nun - so ganz persönlich - von dieser Erkenntnis? Befriedigt es Dich, daß nVida sooo stark und sooo mächtig ist, und sowieso.. sooo viel besser als AMD ist?
Schwätzer! ;)
 
[...]
uuund da ist sie wieder, die Oberst-Klink-MarktANALyse.. und was hast Du nun - so ganz persönlich - von dieser Erkenntnis? Befriedigt es Dich, daß nVida sooo stark und sooo mächtig ist, und sowieso.. sooo viel besser als AMD ist?
Schwätzer! ;)
Er hat aber leider vollkommen Recht. Das hat nichts mit Vorlieben oder grundlosem Hass zu tun, was hier ja so häufig unterstellt wird.
Der Markt oberhalb einer RX 480 ist seit über einem Jahr alleine von Nvidia bedient worden. Und an dieser Stelle kommt mal wieder die obligatorische Betrachtung bezüglich der Leistungsfähigkeit von Vega. Eigentlich sollte Vega schnell genug sein, um es zumindest mit einer etwaigen GTX 1170 aufnehmen zu können, denn welchen Markt bedient AMD mit Vega eigentlich noch? So gut wie alle, die eine Grafikkarte in der Leistungsklasse GTX 1070/ GTX 1080/ GTX 1080 Ti benötigen, haben innerhalb des vergangenen Jahres (!) bereits zugeschlagen. Wer, angenervt durch die quasi nicht vorhandene PR seitens AMD, in den letzten Monaten bei Nvidia zugeschlagen hat, der wird wohl kaum jetzt auf AMD wechseln, weil Vega draußen ist - und das haben viele so gemacht. Und wenn Ende des Jahres Volta erscheint, dann ist Vega am besten konkurrenzfähig, sonst rennt man Nvidia schon wieder hinterher.
Ich möchte nochmal den Punkt ansprechen, dass Pascal schon über ein Jahr alt ist, weil er so verdammt wichtig ist: Pascal hat sich schon lange amortisiert und ist in so einem großen Volumen produziert und verkauft worden, dass die Fixkosten schon lange gedeckt sind - denn alleine das Volumen macht die Halbleiterproduktion "günstig". Nvidia hat schon so viel Geld durch Pascal eingenommen, dass sie absolut keine Angst vor Vega haben müssen, die meisten Verkäufe von Pascal sind eh schon gelaufen, da werden so oder so nicht mehr viele folgen. AMD muss diese Fixkosten mit Vega aber erst noch reinholen. Und wenn Vega nur so schnell ist, wie eine GTX 1080, dann muss AMD Vega zum Schleuderpreis anbieten und macht - wenn überhaupt - kaum Gewinn damit.
Der einzige richtig gute Ausweg aus der Misere wäre, wenn Vega einfach 20% schneller ist, als die 1080 Ti. Dann haben selbst die Kunden der 1080 Ti Anreize, auf Vega umzusatteln und über Skalierung des Chips bekommt man alle Leistungsklassen abgedeckt - und selbst beim Launch von Volta hat man noch ein Polster. Das wäre das best Case Szenario für AMD, jedes Prozent, das Vega langsamer ist, würde die Situation von AMD relativ gesehen verschlechtern. Wenn Vega nur so schnell ist, wie eine GTX 1080, werden nur die auf Vega setzen, die mit dem Kauf einer 1080 bis jetzt gewartet haben - also quasi niemand. Und Ende des Jahres spielt man schon wieder nur die zweite Geige.
Und jetzt kommt die Stelle, an der sich jeder selbst fragen darf, wie groß die Chance ist, dass Vega eine 1080 Ti ungespitzt in den Boden rammt.
gRU?; cAPS
 
@cAPS
Das besondere ist ja nicht der Inhalt, daß sollte jeden klar sein, der halbwegs was von Marktwitschaft versteht. Ich frag' mich nur warum er in jedem AMD Thread mit genau dieser Analyse(:schief:) daherkommt...
 
@cAPS
Das besondere ist ja nicht der Inhalt, daß sollte jeden klar sein, der halbwegs was von Marktwitschaft versteht. Ich frag' mich nur warum er in jedem AMD Thread mit genau dieser Analyse(:schief:) daherkommt...
Naja, weil die Gegenseite auch jedes Mal mit der - entschuldigung - verqueren Sicht der Dinge aufwartet, dass Nvidia jetzt bestimmt schon die Knie schlottern, wenn ihnen Vega nur kurz in den Sinn kommt :D
gRU?; cAPS
 
Naja, weil die Gegenseite auch jedes Mal mit der - entschuldigung - verqueren Sicht der Dinge aufwartet, dass Nvidia jetzt bestimmt schon die Knie schlottern, wenn ihnen Vega nur kurz in den Sinn kommt
biggrin1.gif

gRU?; cAPS
Jep.. das ist genauso albern! Ich erkenne jedoch das Potential der VegaFE anhand ihres Einsatzgebietes. Und da sieht Vega alles andere als schlecht aus.
Wenn dieses Potential auch aufs Gaming für die Spielzeug-Version übertragbar ist, sehe ich keinen Grund daß RX Vega auch shr stark wird. Wenn nicht - und das habe ich auch mehrfach geschrieben - muss AMD sich halt für den kommenden Shitstorm aus der Gamerwelt warm anziehen! Da mach ich sogar mit.
Ich ziehe im Gegenteil zum allgemeinen, aktuellen Meinungsbild keine Rückschlüsse von der Gamingtauglichkeit der FE auf die RX!

Was das für einen Einfluß auf AMDs Marktposition hat, geht mir am @rsch vorbei ;)
 
Zurück