Nvidia Volta: GTC-Keynote ab 18 Uhr im Live-Ticker bei PCGH

Schon klar, ich habe nur nicht damit gerechnet dass man derart große Dice wirtschaftlich produzieren kann. Bisher wurde 600 mm^2 als sinnvolle Obergrenze angesehen. Die wurde ja nun nicht nur ein bisschen übertroffen.
Der 16nm Prozes muss mittlerweile ziemlich perfekt laufen.

Wirtschaftlichkeit ist meist nur eine Frage des Preises, den der Kunde bezahlt. Nen Ferrari wird auch "unwirtschaftlich" in Handarbeit zusammengebastelt...bei den Preisen, die man löhnen muss, lohnt sich's dann doch.:D
 
meine glaskugel:
2018 wird volta einschlagen und AMD wird dann 3 jahre später erst wieder reagieren (bis dahin gibts nur refresh karten).
 
Navi weiß wo es lang geht^^
Laut AMD will das ja schon Vega wissen (poor Volta).

Ich finds halt schade, dass AMD, die ja als "Miterfinder" von HBM gelten es so lange rausgezögert haben, eine HBM2 Karte zu bringen, während die Konkurrenz schon eine ganze Generation gebracht und schon wieder eingestellt hat (oder wird GP100 weiterlaufen?) und eine weitere schon rausbringt
 
Ich empfinde es eher bedenklich das die künftige Leistungssteigerung über einen massiven Flächenausbau erkauft werden muss. Man darf gespannt sein, wann man bei den Gpu in eine begrenzende Wand aus ausoptimierter Architektur rennt, so das lediglich eine Erhöhung der Einheiten einen nennenswerten Zuwachs bietet.

Gesendet von meinem SM-G920F mit Tapatalk
 
Das Teil dürfte sich beispiellos gut kühlen lassen, so viel Angriffsfläche für Heatpipes gab's noch nie (Fläche/Watt-Verhältnis).

MfG,
Raff

Genau, die Abwärme verteilt sich auf eine größere DIE Fläche, welche somit auch mehr Kontaktfläche zur Wärmeabfuhr ermöglicht.

GP100 = 300W / 610mm² = 0,4918032786885246 W/mm²
GV100 = 300W / 815mm² = 0,3680981595092025 W/mm²

Oder auch: beim GV100 muss der Kühler rund 25% weniger Verlustleitung pro mm² Kontaktfläche aufnehmen als beim GP100.
 
Ich finds halt schade, dass AMD, die ja als "Miterfinder" von HBM gelten es so lange rausgezögert haben, eine HBM2 Karte zu bringen, während die Konkurrenz schon eine ganze Generation gebracht und schon wieder eingestellt hat (oder wird GP100 weiterlaufen?) und eine weitere schon rausbringt

Naja zumindest hat AMD die erste Karte mit HBM-Technologie releast (vor 2 Jahren). Aber wie man gut an genau diesem Beispiel sieht, kaufen kann sich AMD bis heute nichts dafür. Auch wurde AMD in der Vergangenheit kritisiert, wenn sie zu früh/als Erster neue Technologien einsetzten. Relevant ist ja nur was VEGA letztendlich bringen wird, zumindest schon mal etwas höher getakteten HBM2-Speicher (>700MHz).

Edit: Der Satz mit Navi war natürlich nur ein Wortspiel :)
 
Zuletzt bearbeitet von einem Moderator:
Genau, die Abwärme verteilt sich auf eine größere DIE Fläche, welche somit auch mehr Kontaktfläche zur Wärmeabfuhr ermöglicht.

GP100 = 300W / 610mm² = 0,4918032786885246 W/mm²
GV100 = 300W / 815mm² = 0,3680981595092025 W/mm²

Oder auch: beim GV100 muss der Kühler rund 25% weniger Verlustleitung pro mm² Kontaktfläche aufnehmen als beim GP100.
Ich finde wirklich gut, dass du ihm das nochmal erklärst.
Ist ja nicht so, dass er das nicht eh meint ;)
Ich empfinde es eher bedenklich das die künftige Leistungssteigerung über einen massiven Flächenausbau erkauft werden muss. Man darf gespannt sein, wann man bei den Gpu in eine begrenzende Wand aus ausoptimierter Architektur rennt, so das lediglich eine Erhöhung der Einheiten einen nennenswerten Zuwachs bietet.

Gesendet von meinem SM-G920F mit Tapatalk

Naja irgendwann ist eine Architektur halt ziemlich am optimum und du hast nur die Wahl der Einheitenerhöhung. Das mit der Chipfläche ist ja nicht neu, schon in 28nm hatten wir immer größere Chips, weil wir 5 Jahre in dem Prozess festgesessen sind. Am Ende hat sogar AMD einen 600mm² Chip hingeklatscht, leider etwas zu spät.
Mal sehen, ob die 40% Steigerung auch in Spielen ankommt.
Ist wohl schon zu spät und habs überlesen: was steht denn mit 40%?
 
Zuletzt bearbeitet:
Naja zumindest hat AMD die erste Karte mit HBM-Technologie releast (vor 2 Jahren). Aber wie man gut an genau diesem Beispiel sieht, kaufen kann sich AMD bis heute nichts dafür. Auch wurde AMD in der Vergangenheit kritisiert, wenn sie zu früh/als Erster neue Technologien einsetzten. Relevant ist ja nur was VEGA letztendlich bringen wird, zumindest schon mal etwas höher getakteten HBM2-Speicher (>700MHz).

Edit: Der Satz mit Navi war natürlich nur ein Wortspiel :)
Welchen Vorteil hatte den AMD real bei Fiji sich brüsten zu können als erster HBM Speicher inkl. Interposer zu nutzen?! Waren sie dadurch schneller als nVidia? Sie hatten auf jeden Fall die geringere Speichermenge zu bieten und dazu ne sehr teure Speichertechnologie genutzt, ob sich das wirklich gelohnt hat, wage zumindest ich zu bezweifeln. Und da HBM2 nach bisherigem Stand immer noch nicht bei den Speicherherstellern in breiter Masse verfügbar zu sein scheint, die Interposer Technik das ganze nach wie vor aufwendiger und teurer macht, rächt sich das ganze möglicherweise wieder für AMD.

Ein eigenes Produkt mit einer Technologie Dritter zu planen, die selbst noch nicht breit verfügbar ist weil komplett neu, ist eben hoch riskant, wenn es dann schief läuft in Bezug auf die eigenen Produktplanungen, kann man sich aber auch nur selbst an die AMD-Nase fassen.
 
Ich finde wirklich gut, dass du ihm das nochmal erklärst.
Ist ja nicht so, dass er das nicht eh meint ;)
Wie du ja sicherlich gelesen hast so wie Raff, hat diesen Sachverhalt nicht jeder gleich verstanden, daher war das nur noch einmal eine sichtbare Verdeutlichung zu Raff's Aussage.

Bei dir hätte ich schon gedacht, das du den Sinn meiner Erläuterung verstehen würdest und nicht ernsthaft glaubst ich würde Raff 'belehren' ;)
 
also wenn da mal nicht noch ein max vega kommt mit satte 6000 shaders oder 4096 shader mit ca 1,8ghz und 16gb, hbm2@4096bit@1ghz, dann hat amd für das jahr 2017 mal wieder total versagt und das seit 2015 :(

und nv kann mit volta den selben spiel spielen wie mit pascal, in dem die wieder ca 1 jahr lang tun und machen können was sie wollen, bis ende 2018 anfang 2019 der navi erscheint :nene:

wobei amd es hine machen muss, und alles raus hauen was sie mit vega nur zu bieten haben, um erstmal gegen titan xp bzw 1080ti ordentlich zu kontern.

aber bin mir sicher das es für vega mit 4096 shader bei mindestens 1,6ghz takt & 16gb hbm2@4096bit@1ghz=1 tb/s reichen würde um sogar gegen volta mit halten zu können !

jedenfalls nvs volta presentation mit ihren geprallten über 5000 shaders bei sagenhafte chipfläche von 812 mm² :ugly:

hat es mir gezeigt bzw eine eindeutung und eine erneute bestätigung für mich, das vega eine mächtiger architektur geworden ist dank den effizienten shader auslastung beim pro shader takt.

den amd kann hier mit vega bei unter 600mm² über 6000 shader unter bringen.

so viel dazu mit seht her volta hier mit 5376 shader und stolze chipfläche von 812 mm² :crazy:

das ganze erinnert mich doch irgendwoher, ah ja thermi presentation :lol:

ansonsten es bleibt also weiterhin sehr spannend und ein aufregendes jahr was amd sich mit vega nur dabei gedacht hat für das jahr 2017/18 mit den poor volta aktion !!!
 
Mathematik ist schon was schönes

Von einen theoretischen gv102 mit 5200 shadern und vermutlich Maximal 1300mhz takt
gegen eine gp104 (gtx1080)mit 2560shader und 2050mhz Takt
ist die performance unterschied nur 33%
Nur blöd das die gp102 (gtx1080ti) schon etwa +20% zu gp104 ist
Somit müsste gv102 schon min 1400 oder mehr Takt haben um wirklich Abstand zur gp102 zu haben.
dazu kommt ein api limit
Mit dieser Leistung reicht nicht mal ein hoch taktender ci7 7700k auf 5GHz nicht aus um die gpu in 1080p auszulasten.
Was macht dann wohl Nvidia
bewirbt die gpu als 4K Karte und das heißt premium preise oberhalb von 1500€
als Name dann titan xv
Gut möglich das nvidia den gv106 als gtx1180 verkauft
So das Nvidia nochmal eine premium gpu serie neben der titan stellen kann.
für 800€ und 1100€
bsp gtx1190ti und 1190(mit gv104)
als Krönung dann etwa refresh von pascal oder ein office chip als gtx1160 1150(ti) gv107

AMD muss mit vega zumindest auf gtx1080ti kommen also vega mit 4096shader und min 1,6ghz sein was ich aber stark bezweifle.
Glofo 14nm sind nicht bekannt für hohe Taktraten eher wird der fiji shrink auf 1,2-1,3ghz maximal erreichen (entspricht etwa gtx1080)
und selbst das wäre eine sehr gute Leistung
Der vega chip (rx590) sollte schon sein nen halbes Jahr draußen sein. aber man hat sich für hbm2 entschieden und das hat sich verspätet
erst ab navi (rx690) wird amd aufschließen können
Und das auch nur dann wenn amd endlich bei tsmc fertigt
glofo 14nm schaffen einfach keine 1600mhz mit 4096 shadern
Das ist reines Wunschdenken.
Schade das amd Nvidia den kompletten gpu high end markt überlässt.
 
Die Realität ist, dass Vega mit 4096 Shadern auf >1520MHz kommen muss, um die 12.5 TFLOPS der MI25 zu erreichen. ;) Insofern halte ich 1600MHz für nicht unbedingt so abwegig.
 
Wie du ja sicherlich gelesen hast so wie Raff, hat diesen Sachverhalt nicht jeder gleich verstanden, daher war das nur noch einmal eine sichtbare Verdeutlichung zu Raff's Aussage.

Bei dir hätte ich schon gedacht, das du den Sinn meiner Erläuterung verstehen würdest und nicht ernsthaft glaubst ich würde Raff 'belehren' ;)
Das war doch nur ein Scherz ;)
Natürlich hab' ichs verstanden. Allerdings deuten Wortwahl im ersten Satz drauf hin als würdest du es für ihn ergänzen

@gecan:
Naja AMDs 4000 Shader-Flagschiff Vega 10 ist ja nicht der Gegner dieses 815mm² monsters. Dieser Nvidia Chip kommt ja ausschließlich in den HPC Einsatz und wird dort auch keine Konkurrenz von AMD haben.

Vega 10 positioniert sich ja deutlich darunter gegen die Titan/1080Ti welche ja deutlich langsamer sind
 
Eine durchschnittliche GTX 1080ti schafft dank GPU Boost locker 1.8 Ghz ohne OC, das sind schon gut ~13 Teraflops.
Die 12,5 Teraflops einer Vega wären dabei viel zu wenig um der GTX 1080ti Konkurrenz zu machen wenn sie gleich effizient wie Polaris ist, da hat eine RX580 mehr als 6 Teraflops und konkurriert mit einer 4.8 Teraflops GTX 1060.

Was Volta angeht:
Sehr beeindruckend, mit fertigen Gamingkarten rechne ich Anfang 2018 bzw frühestens Ende 2017, aber eher Anfang 2018 da GDDR6 erst dann lieferbar sein soll.
So ein Monster mit 5376 Shadern hätte ich sehr gerne in der Kiste.
Wenn Nvidia es schafft einen höheren Takt als Pascal zu erreichen und zudem die Effizienz in puncto FPS/Teraflops zu erhöhen dann dürfte das Leistungsplus gegenüber Pascal enorm sein.
 
Glofo 14nm sind nicht bekannt für hohe Taktraten eher wird der fiji shrink auf 1,2-1,3ghz maximal erreichen (entspricht etwa gtx1080)
und selbst das wäre eine sehr gute Leistung
bei allem anderen stimme ich zu, hier muss ich mal sagen, dass das stark Architekturabhängig ist. Sehr wohl schafft der Prozess auch über 1.5 Ghz, wie man an diversen Handychips und Ryzen oder bei der Geforce 1050 Ti gut sieht.
Der vega chip (rx590) sollte schon sein nen halbes Jahr draußen sein. aber man hat sich für hbm2 entschieden und das hat sich verspätet
Stimmt, aber man hat ja aus gutem Grund HBM gewählt. Etwa wegen des deutlich geringeren Stromverbrauchs den AMD vielleicht sonst nicht in den Griff kriegt. Stell dir vor du hättest stattdessen 2x Polaris 10 Verbrauch (und damit einen Gegner der 1080, noch nicht 1080 Ti).
erst ab navi (rx690) wird amd aufschließen können
Und das auch nur dann wenn amd endlich bei tsmc fertigt
Das muss sich beides erst zeigen. Weder weiß man, was Navi anders macht, noch welchen Prozess man verwendet. Mit etwas Glück sehen wir Navi Ende 2018 schon in 7nm.
glofo 14nm schaffen einfach keine 1600mhz mit 4096 shadern
Das ist reines Wunschdenken.
Schade das amd Nvidia den kompletten gpu high end markt überlässt.
Jetzt warte doch noch ein bisschen ab.
Vega wird schon eine gute Alternative zur 1080 Ti werden, wenn auch nur mit 8GB HBM statt 11 GB GDDR5X
 
Zurück