Nvidia Volta: GTC-Keynote ab 18 Uhr im Live-Ticker bei PCGH

Muss es denn zwingend um die Geforce-Ableger gehen? Volta bleibt ja trotzdem Volta, egal ob GV100 oder GV102/4/6. ;)

Nein? Eben nicht? Ein $145.000 Server Chip hat jawohl absolut nichts mit dem Consumer-Produkt am Hut. Wenn man die Kommentare hier ließt (Beispiel: "looooool über 800mm2 AMD kann sowas von einpacken")muss man sich wirklich an den Kopf fassen, die Leute denken wirklich die Daten hätten was mit Volta für Desktops zu tun...
 
Was ein Monstrum der Chip halt ist, die Yields müssen eine absolute Katastrophe sein bei der Fläche.

Aber hey, ein Viertel mehr Fläche/Transistoren bei gleichem Energieverbrauch von ~300W, und das obwohl sich an der Fertigung nix groß ändert - Respekt.
 
Nein? Eben nicht? Ein $145.000 Server Chip hat jawohl absolut nichts mit dem Consumer-Produkt am Hut. Wenn man die Kommentare hier ließt (Beispiel: "looooool über 800mm2 AMD kann sowas von einpacken")muss man sich wirklich an den Kopf fassen, die Leute denken wirklich die Daten hätten was mit Volta für Desktops zu tun...

denkst du etwas Vega wurde nur für Gamer designt? ... sicher nicht
 
Nur her damit, meine gtx1070 ist mir schon wider zu langsam. Ok, eigentlich reicht sie noch, aber man will ja immer den längsten haben, oder nicht?:D
 
Juhu Nvidia zeigt die gleiche Platine wie schon 2014! Wie Inovativ! Und bis heute kein NV-Link oder 3d Memory von Nvidia im Consumer bereich! RESPEKT! Und ich war mal Fan von diesem Unternehmen. Shame on me
 
Na endlich immerhin mal kompromissloses 4k. Werd wohl wieder dabei sein beim grünen Onkel.
Effizienz soll ja auch nochmal gesteigert sein
 
...mir kann doch keiner erzählen, dass zwei 400er (500er weil iO) auf nem Interposer teurer wären ... Gibts da notwendige Patente drauf oder wieso macht man es nicht wie bei Prozessoren schon seit über 10 Jahren?
 
Wann kommt die Neue Graka von Nvidia und wie viel ist die Leistungssteigerung gegenüber den jetzigen Modelen?
Wollte mir eigentlich eine Gtx 1060 hollen,aber jetzt komme immer mehr Infos und vielleicht loht es sich schon garnicht mehr.
 
...mir kann doch keiner erzählen, dass zwei 400er (500er weil iO) auf nem Interposer teurer wären ... Gibts da notwendige Patente drauf oder wieso macht man es nicht wie bei Prozessoren schon seit über 10 Jahren?

Weil es viel langsamer ist zwei 500er Dice zu verbinden als einen 800er zu verwenden.
Sieh dir mal die vergangenheit an beim Sprung von Core2Quad (=2x2 Kerne) auf Core i7 (=1x4 Kerne). Alleine dass man nicht mehr zwischen zwei CPUs kommunizieren musste brachte bei Multitasking-Aufgaben grob 30% Leistung. Wenn NVidia zwei 500er Chips verbauen würde wären die nicht mehr bedeutend schneller als der "alte" 600er GP100.

Solche Dinge haben nur sinn wenn man verschiedene Funktionalitäten verbindet (GPU + HBM zum Beispiel) oder in regionen will die anders unmöglich sind wie der Core2Quad damals, das entspräche hier eben zwei 800er GPUs auf einen Interposer zu packen.
 
Kann mir mal jemand bitte erklären, wieso hier alle über den Stream und "Volta" reden? Das gezeigte war/ist jawohl was völlig anderes und hat nichts mit "Volta" zu tun, für PC-Endkonsumer. Die Fertigung, die Größe des Chips, Anzahl der Kerne, ect pp, das alles ist "Server Volta" und wird jawohl absolut nichts mit dem zu tun haben, was dann irgendwann in euren Rechnern landen wird.
Und weiter?
Volta ist ja nicht nur der Chip den du dir kaufst, sondern der Name der Architektur. Der erste Chip ist halt wieder ein HPC Chip. Darüber hinaus gibts wohl
Tegra chips für Autos
Notebookchips
Desktopchips
Workstationchips

usw usf.
 
Wann kommt die Neue Graka von Nvidia und wie viel ist die Leistungssteigerung gegenüber den jetzigen Modelen?
Wollte mir eigentlich eine Gtx 1060 hollen,aber jetzt komme immer mehr Infos und vielleicht loht es sich schon garnicht mehr.

Ich glaube nicht das die Ablöse für die 1060 noch dieses Jahr stattfinden wird, dass ist jetzt alles auch nur für Server/Workstations interessant. Nach der AMD Vega dürfte erstmal bis Jannuar/Februar nix kommen denke ich.
 
was sollen die machen? 10nm ist offenbar nicht bereit für gpus, aber eine ordentliche leistungssteigerung muss sein ;).
Warum eigentlich?
Man hat mit abstand den allerschnellsten Chip gehabt.
Ich finds interessant: man hatte einen Chip rein für Server entwickelt (das ist eigentlich recht neu, sonst warens oft/meist Desktopvarianten bzw umgekehrt). Und das hat sich nach 1 Jahr offenbar schon gerechnet.
Und weil man einfach nicht kleckert, sondern klotzt ein gigantisches 800+mm² Monster. Find ich genial. Immer wenn das technisch machbare ausgereizt wird geht mir einer ab. 800mm² unglaublich.
Dachte bislang immer 600mm² sind das Ende des Sinnvollen. Naja nicht, wenn man den Chip um 10.000€ verkaufen kann. Gigantisches Teil.
Ein 800mm² Chip mit 16 (oder gar mehr, das wirkt schon fast wieder mikrig) GB HBM2 welcher aber ausschließlich aus FP32 Einheiten besteht (den ganzen DP Quatsch brauch ich ja im Spiele-PC nicht) würd' ich sofort kaufen. Einfach weil hier das machbare so ausgereizt wird.
 
15 Teraflops (FP32) bei 350 Watt aus 815mm².

Ist sicher keine Alientechnlogie, sondern aktueller Entwicklungsstand (man könnte bei der Chipgröße und dem Verbrauch auch Brute Force sagen) und erfüllt die Erwartungen an einen HPC Chip...

... und wird niemals den Endkundenmarkt erreichen - wobei so ne Titan X (Volta) für 4999 Dollar (realistischer Preis Ende 2017 bei 815mm² @ 12nm) würde sicher dem ein oder anderen Fanboy immernoch nicht zuviel sein.
 
Was ein Monstrum der Chip halt ist, die Yields müssen eine absolute Katastrophe sein bei der Fläche.

Aber hey, ein Viertel mehr Fläche/Transistoren bei gleichem Energieverbrauch von ~300W, und das obwohl sich an der Fertigung nix groß ändert - Respekt.

Das Teil dürfte sich beispiellos gut kühlen lassen, so viel Angriffsfläche für Heatpipes gab's noch nie (Fläche/Watt-Verhältnis).

MfG,
Raff
 
ignorier ihn einfach. entweder ein troll, oder der größte vollpfosten des forums. in jedem fall aber die energie nicht wert sich mit ihm auseinanderzusetzen.

Ich persönlich finde gecan schlimmer. Er stellt immer seine Fantasien als Fakten dar:

"Kapiert ihr ignoranten nicht, dass Vega schneller ist als die 1080 Ti? Geht das jetzt endlich in eure Köpfe" - als gäbs schon 100 Tests die das beweisen.
Wenn man ihn 1 Post darunter für die Aussage auslacht, behauptet er (obwohls direkt drüber steht) "das hab' ich nie gesagt"

"HBM wird in ein paar Jahren GDDR völlig vom Markt verdrängt haben" wie die Architekturen von Vega und Navi ja schon beweisen
Nvidia Volta: SK Hynix zeigt GDDR6-RAM auf der GTC

Polaris wird Nvidia zerstören. Mit Zen wird man Intel zerstören usw usf.

Und wenn man mal nach der Quelle fragt wird man persönlich beleidigt. Wenn man mal bittet betreffende Dinge zu zitieren - kann er nicht (wer bitte kann die Zitatfunktion nicht benutzen).

Also gibt hier 2 große Unruhestifter und wenn man die nicht irgendwann mal warnt/bannt wird das ganze bald wie bei der Gamestar aussehen. Denn gecan wird sicher oft genug gemeldet, da er mit persönlichen Beleidigungen nur so um sich wirft (ignoranter, naiver, fanboy...)
 
Zuletzt bearbeitet:
Zurück