Volta: Nvidia verschenkt Tesla V100 an AI-Wissenschaftler

Sind die Kartons von Huang unterschrieben?^^ Nvidia sollte mit Volta auch eine (limitierte) GeForce "Signature-Line" veröffentlichen, alle Exemplare handsigniert vom Popstar des Silicon Valley. Das hätte was, die Fans würden sich über die Exklusivität freuen und Jensen könnte sein Ego noch besser (selbst)befriedigen ;-)
 
Clevere PR, ne gute Idee um NV als Standard in der Branche zu etablieren und offensichtlich haben sie mehr als 14 lauffähige GV100.
 
Weil Volta eigentlich nur Pascal + Tensor Cores ist.
Für Gaming bringt das nichts.
Was heißt 'eigentlich'? Woher kommt dein 'Wissen' das Volta noch original Pascal ist?

12nm Bulk ist zudem kostenoptimiertes 16nm Bulk, die GPUs werden auch nicht höher takten.
Der Takt wird gleich sein oder etwas niedriger.
Was ja absolut kein Beinbruch darstellt, wenn man ~43% mehr Shader Einheiten mit nur ~1,7% weniger Takt befeuert bei identischer 300W TDP.
(P100: 3584 Cores @ 1480MHz @ 610mm² vs V100: 5120 Cores @ 1455MHz @ 815mm²)
 
Gut, wir sind zwar in einem Forum, aber wenn man allen Ernstes schon gesiezt wird...
Ich möchte Sie an dieser Stelle höflichst bitten, mir die Stelle zu zeigen, an der ich zu diesem Unterfangen meine Zuneigung ausspreche. Meiner Ansicht nach habe ich nur geschildert, auf was Nvidia abzielt und dass dies meiner Meinung nach nichts damit zu tun hat, aufgrund der Konkurrenz in Panik zu verfallen. Wenn Sie damit nicht klar kommen und mir Sachen unterstellen, die ich zu keinem Zeitpunkt geschrieben habe, einfach damit Sie mir etwas zu unterstellen haben, dann kann ich Ihnen auch nicht mehr helfen.
Hochachtungsvoll
cPT_cAPSLOCK

Vorserienprodukte im weiteren Umfeld von lebenden Menschen/Personen zu "testen" halte ich eben für ein extrem heikles Thema. Man möchte sich nicht ausmalen, wer die Verantwortung dafür übernehmen würde, wenn aufgrund eines Hardware-Bugs falsche Ergebnisse produziert werden und aufgrund dieser Ergebnisse, Therapien oder falsche Dosierungen dazu führen, dass Menschen gefährdet werden. In diesen hochsensiblen Forschungsfeldern bringt man eben erst ein Produkt auf den Markt, wenn man als Hersteller 100%ig ausschließen kann, dass die Hardware fehlerfrei rechnet, die Software an sich birgt ja zusätzlich auch noch genug Potenzial für Fehler.

Diese PR seitens nVidia ist vielleicht gut gemeint, aber gut gemeint ist nicht gleichbedeutend mit gut gemacht und schon gar nicht, wenn PR auf Kosten von Menschenleben gehen kann...

Ich wollte Sie nicht persönlich angreifen oder Ihnen etwas unterstellen, ich wollte lediglich die Sichtweise auf diese Aktion ändern. Es hilft sehr oft, sich eine Situation aus verschiedenen Blickwinkeln vor Augen zu führen, denn manchmal braucht es eben eine (von außen) provozierend überspitzte Darstellung, um die Brisanz einer Situation in vollem Umfang zu erfassen. ;)

Ebenso hochachtungsvoll... =)
 
@Poor_Volta

Also hat Nvidia die letzten 4 Jahres nichts geforscht im Gaming Bereich?

Gerade in dem Bereich, der Nvidias Haupt Einnahmequelle ist.

Wer wirklich denkt, dass Volta nichts für Gamer ist und Nvidia somit einfach mal einen riesen Gewinn wegfallen lässt den kann ich dann auch nicht wirklich helfen.

Absolut unrealistisch das NV bis 2020 keine neue Grakas bringt.
 
Sind die Kartons von Huang unterschrieben?^^ Nvidia sollte mit Volta auch eine (limitierte) GeForce "Signature-Line" veröffentlichen, alle Exemplare handsigniert vom Popstar des Silicon Valley. Das hätte was, die Fans würden sich über die Exklusivität freuen und Jensen könnte sein Ego noch besser (selbst)befriedigen ;-)
Ruhig Blut, ich sags mal freiheraus, da der 'Founders Edition' die AMD 'Frontier Edition' folgte, würde es bei einer nVidia 'Signature-Line' auch sicher darauffolgend ein für den beherzten AMD Fan entsprechendes Gegenstück geben :daumen:
 
Vorserienprodukte im weiteren Umfeld von lebenden Menschen/Personen zu "testen" halte ich eben für ein extrem heikles Thema. Man möchte sich nicht ausmalen, wer die Verantwortung dafür übernehmen würde, wenn aufgrund eines Hardware-Bugs falsche Ergebnisse produziert werden und aufgrund dieser Ergebnisse, Therapien oder falsche Dosierungen dazu führen, dass Menschen gefährdet werden. In diesen hochsensiblen Forschungsfeldern bringt man eben erst ein Produkt auf den Markt, wenn man als Hersteller 100%ig ausschließen kann, dass die Hardware fehlerfrei rechnet, die Software an sich birgt ja zusätzlich auch noch genug Potenzial für Fehler.

Diese PR seitens nVidia ist vielleicht gut gemeint, aber gut gemeint ist nicht gleichbedeutend mit gut gemacht und schon gar nicht, wenn PR auf Kosten von Menschenleben gehen kann...

Ich wollte Sie nicht persönlich angreifen oder Ihnen etwas unterstellen, ich wollte lediglich die Sichtweise auf diese Aktion ändern. Es hilft sehr oft, sich eine Situation aus verschiedenen Blickwinkeln vor Augen zu führen, denn manchmal braucht es eben eine (von außen) provozierend überspitzte Darstellung, um die Brisanz einer Situation in vollem Umfang zu erfassen. ;)

Ebenso hochachtungsvoll... =)

Alles klar, dann will ich nicht so sein und nehme den harschen Ton zurück - mein Fehler, sorry. Nichtsdestotrotz ist es durchaus ein wenig befremdlich, in einem Forum gesiezt zu werden... :ugly:
Ich glaube allerdings nicht, dass die Aktion von Nvidia "gut gemeint" ist, man hat einfach die Möglichkeit am Schopf gegriffen, als ganz toller Hecht im Rampenlicht zu stehen - PR eben.
Den Punkt mit dem Testen von Vorserienprodukten habe ich so wirklich nicht aus dem Blickwinkel gesehen - danke dafür - aber von wo kommt diese Information mit den krebskranken Menschen eigentlich? Ich sehe nur "KI-Wissenschaftler"? :ka:
Wenn es bei den Forschungsthemen bzgl. Pattern Recognition wirklich um die Krankheit Krebs geht, dann geht es mit Sicherheit nicht um das "lebende Objekt", sondern viel eher um Signalverarbeitung, welche möglicherweise die Diagnose erleichtern kann oder so. In diesem Fall wären aber Rechenfehler nicht sonderlich problematisch, auf anderen Prozessoren wird ja auch getestet und Algorithmen sowie Chipdesign wurden ja vorher geprüft.
gRU?; cAPS
 
@PCGH
Bitte so schnell wie Möglich so eine Workstationkarte ordern und durch den Gaming-Parcour schicken.
Wenn die dann mangels entsprechender Treiber verkackt, kann die Gamerwelt direkt aufschreien..:motz:


Und ja, das war komplett zynisch gemeint (in Anlehnung an den Test der Vega FE Workstationkarte)
;)
 
Nvidia ist schon lange tätig im Bereich KI, vor allem bei autonomen Fahrzeugen. Daher finde ich die Reaktionen hier im Thread etwas seltsam.
 
Wahrscheinlich taugt Volta nix, deswegen verschenkt Nvidia die Vorserienmodelle lieber und forscht an was anderem. :D
 
Woher glaubst du das zu wissen?
Ok, nur für dich hier mal ein paar Specs der beiden Karten: Links P100, rechts Vega (FE)
Speicherbandbreite: 720 GB/s vs. 480 GB/s
Speicherinterface: 4096 Bit HBM2 vs 2048 Bit HBM2
Theoretische Rechenleistung: (HP/SP/DP) in TFLops: 21/10.5/5 vs. 22/11/0.7
Leistungsaufnahme: Beide etwa 300W
Chipgröße: 610 mm^2 vs 480 mm^2

Es gibt keine einzige Disziplin, in der Vega so richtig glänzt. Der GP100 hat die höhere Speicherbandbreite, kann auch mit doppeltgenauen Zahlen umgehen, verbraucht das gleiche und liegt in allen anderen Belangen mit Vega gleichauf. Er beherrscht außerdem CUDA, wird seit gut einem Jahr ausgeliefert und kann durch NVLink in HPC-Clustern performanter angebunden werden.

Vega 10 lohnt sich imo nur für die, die billige Machine Learning Karten haben wollen. Da braucht es keine Dual-Precision oder große Speicherinterfaces, nur viel Rechenleistung mit geringer Genauigkeit. Deshalb hat AMD das ja auch gezeigt, und nicht Linpack oder andere HPC-Benchmarks.

Blöderweise dürfte der GV100 in diesem Bereich ein Monster werden. Zum Glück (für AMD) aber durch den gigantischen Chip aber auch sündteuer, AMD kann also immerhin noch die Brotkrumen der Unterfinanzierten aufsammeln.
 
Theoretische Rechenleistung: (HP/SP/DP) in TFLops: 21/10.5/5 vs. 22/11/0.7
Da ist Vega also schon bei der theoretischen Leistung teilweise stärker.
DP schein da bei Vega übrigens falsch angegeben zu sein!

Chipgröße: 610 mm^2 vs 480 mm^2
Vega ist kleine rudn somit günstiger zu fertigen.

und kann durch NVLink in HPC-Clustern performanter angebunden werden.
An die CPU trotzdem nur per PCIe, nur bei POWER gibt es NVLink in der CPU.

Klarer Punkt für AMD, sie können Vega per HT an Naples anbinden!
 
Weil Volta eigentlich nur Pascal + Tensor Cores ist..

Hast du das aus deiner Glaskugel herausgelesen?:)
Erstaunlich wie du deine eigenen Prinzipien immer mit Füßen trittst.
Bei anderen die ähnlichen unbelegten Unsinn absondern greifst du mahnend ein, bei AMD machst du dann aber immer wieder Ausnahmen und beteiligst dich selbst noch dran.
Große Kunst Elki.
 
Da ist Vega also schon bei der theoretischen Leistung teilweise stärker.
DP schein da bei Vega übrigens falsch angegeben zu sein!
Klar, hätte AMD einen vergleichbar guten Compiler und vernünftige BLAS-Bibliotheken, könnte Vega dem P100 in diesem Bereich gefährlich werden. Ich bezweifle es. Die DP-Performance ist übrigens korrekt, Vega 10 kann DP nur mit 1/16 Geschwindigkeit.

Vega ist kleine rudn somit günstiger zu fertigen.
Ja ich habe ja geschrieben, Vega wird eine Machine-Learning Karte für unterfinanzierte Universitäten.
Klarer Punkt für AMD, sie können Vega per HT an Naples anbinden!
HT? :ugly: Du meintest vermutlich Infinity Fabric. Vielleicht ginge das theoretisch, allerdings ist (noch) keine solche Vega Karte oder eine entsprechende Naples-CPU angekündigt, deshalb würde ich das nicht als Pluspunkt werten.
Da Volta aber nur Pascal in billiger Fertigung und mit Tensor Cores ist, stimmt es dann doch. :D:ugly::ugly::ugly:
Tja, blöderweise hat der billiger gefertigte Pascal eine HP-Performance von 30 TFlops, und das ist doch dann von den 22 von Vega doch ein gutes Stück weg.
 
Zurück