AMD Vega: Illustrativer Die-Shot und erste technische Daten von der WWDC

Geht man von Fiji aus. Dann hat man 50% mehr Takt und den Tilebased renderer (der bei NV auch ~ 50% brachte) dazu HBCC und eine feinere Granularität bei den SPs. Sollte also imho für Fiji + 120% reichen. Damit sollte man bei Titan XP + 5-10% raus kommen. Wenn die Software FP16 nutzt und HBCC nativ anspricht, dann dürfte man selbst vor Volta liegen.
 
Also denkst du nicht dass du hier Äpfel mit Birnen vergleichst? Die Titan X(p) und die GTX1080Ti kann man nicht mit der AMD Readeon Pro vergleichen, wenn dann muss man sie schon mit der Tesla P100 vergleichen (auf der ja sowohl die Titan X(p) als auch die GTX1080Ti basiert).
AMD wird auch mit der RX Vega Serie fürs Gaming optimierte Grafikkarten auf den Markt bringen.
Der AMD Radeon Pro Vega 11TFlops (FP32) / 22TFlops(FP16) stehen mit der Tesla P100 mit 9,30 TFlops Single-Precision X (FP32) 18,70 TFlops Half-Precision X (FP16) gegenüber.
Mir ist klar das NVIDIA mit Tesla V100 kontern wird, aber wann? AMD Vega steht immerhin kurz vor Release.
Und NVIDIA wird wohl das erste mal seit Jahren unter Zugzwang geraten, was uns zugute kommt, denn ohne AMD hätte sich NVIDIA mit Sicherheit noch Zeit gelassen, immerhin sind die Titan Xp und GTX1080Ti erst ein paar Monate jung.
Die AMD Vega Grafikkarten müssen sich einerseits mit dem GP100 und GV100 messen in professionellen Einsatzbereichen und dazu noch mit dem GP104 und GP102 im Gamerumfeld. Das liegt nicht an nVidia, sondern weil AMD eben nur diesen einen Vega Chip für beide Einsatzbereiche positioniert. Ob sich die Karte dann nun 'Radeon Pro Vega' oder 'Radeon RX Vega' schimpft, spielt doch keine Rolle, ist 1:1 die gleiche Technik. Was auf GP100/GV100 Profiausrichtung vs GP104/GP102 Gamereinsatz definitiv nicht zutrifft. Die Tesla P100 kommt mit Boost Takt von 1,48GHz auf 10,6TFLOPs SP und 21,2TFLOPs HP, die Pro Vega laut Apple bis zu 11,0TFLOPs SP und bis zu 22,0TFLOPs HP. Da ergeben sich also keine Welten dazwischen. Bei Vega wissen wir nicht mal wie real diese Angaben sind oder ob da bspw. aufgerundet wurde oder ob der maximal Takt gehalten werden kann unter Last. Tesla V100 basierende Server sollen schon im Q3 2017 verfügar werden.


Du hast recht aber der GP102 basiert auf dem GP100 (der GP102 ist beschnitten, der GP100 Vollausbau bleibt der Tesla Reihe vorbehalten).
610mm² GP100 samt HBM2 und der 472mm² GP102 samt GDDR5X sind zwei gravierend unterschiedliche Chip Ausführungen der gleichen Architektur Basis, das ist am Ende aber immer noch nicht das Gleiche.


Das heisst dann aber, wenn Games alternativ zu FP32 Berechnungen in FP16 ermöglichen, sieht man heute als Nvidia-Kunde selbst mit einer Titan (GP102) alt aus und eine Tesla werden die wenigsten Endkunden in unseren Reihen besitzen. Der Vorteil Nvidias mit speziellen Einheiten für FP16 (halbe Rechengenauigkeit) und FP64 (doppelte Rechengenauigkeit) könnte hier durch Deaktivierung bzw. durch fehlendes Vorhandensein zum Nachteil werden oder sehe ich das falsch?
Quellen:
FP16 Throughput on GP104: Good for Compatibility (and Not Much Else) - The NVIDIA GeForce GTX 1080 & GTX 1070 Founders Editions Review: Kicking Off the FinFET Generation

Weitere Details zur Titan X: 471 mm2 und keine schnelle FP64/FP16-Berechnungen - Hardwareluxx
Du meinst wie sich seit Anfang 2016 oder eher (?) das angepriesene Killerfeature namens 'Async Compute' jetzt mitte 2017 zum massivem überall anzutreffendem nVidia Nachteil herausgestellt hat?


Ja, insgesamt wohl 15$ das ist aber nicht sehr viel. Ein sauberes Layout kostet auch, wo man viele RAM Chips anbinden muss, zumal man oft höherwertige Komponenten wählen muss was die Preise nach oben jubelt um Indifferenzen oder Busrauschen zu minimieren. Kürzere und entkoppelte Signalwege haben dieses Problem nicht. Ich kann den Link nicht mehr finden, aber insgesamt lag Fiji XT mit Wakü wohl um die 300$+Verschiffung, preislich attraktiv wird es für AMD sicher erst über die Stückzahl. Nicht nur AMD produziert dabei Hardware die auf Interposern verpflanzt wird.

Leider hat AMD bei Veröffentlichung solcher Infos von unabhängiger Seite oft gefordert die Links oder Infos wegen NDA oder "Geheimhaltung" zu löschen. In Foren genau das Gleiche. Sonst könnte man ja auch Rückschlüsse auf Unternehmensentwicklungen der Partner ziehen, die an der Produktion beteiligt sind (UMC Taiwan, Amkor, ASE Groupetc., SK hynix, Samsung usw.). Solche Informationen sind vertraglich geschützt und daher nicht für die Öffentlichkeit bestimmt.

Den Link den ich oben eingestellt habe, der ist doch sehr interessant was das angeht.

AMD muss den Absatz weiter steigern, daher kann man Anfangs oder noch länger auf Gewinne über volle Margen verzichten. Erst mit einer entsprechend hohen Absatzzahl steigert man dann bei kommenden Generationen die Marge, weil die Produktionskosten bei Fortschreiten der Prozesse auch fallen. Ein Interposer kann dann selbst nach Herstellung, Bearbeitung und Aufbereitung deutlich weniger kosten, wenn man statt 500.000 pro Charge gleich 2.000.000 bestellt.

AMD macht jedenfalls genug Gewinn, mach dir da keinen Kopf.
Nein mach ich mir keinen Kopf, mir ist das mehr oder weniger egal, AMD ist für seine wirtschaftliche Lage und seine Produkte verantwortlich. Es wird aber schon seine wirtschaftlichen Gründe haben warum wir HBM2 derzeit nur im teuren High-End Bereich sehen.


Das glaube ich nicht. Ich denke eher Vega wird Akzente setzen und nVidia schon vehement an Volta arbeiten, dass er bald erscheinen kann.

Vega-NCU können doppelt so viele fp16-Operationen pro Takt ausführen wie Nvidias GP100 unter fp32, 256 vs 128, wobei sich AMD dabei massiv auf Deep-Learning fokussiert. 8-Bit-Integer beherrscht Vega dann 512 pro Takt und NCU. Früheres GCN kannte fp16 als platzsparendes Datenformat, konnte Berechnungen mit der gleichen Performance aber nur wie Single Precision ausführen. Die Performance bei doppelter Genauigkeit ab NCU soll in noch unbekannter Größe frei konfigurierbar sein!

AMD scheint damit nVidia voraus. Bis das alles im Markt tatsächlich ankommt und umgesetzt wird, vergeht noch etwas Zeit (das ist natürlich richtig). Letztlich hängt das alles auch von AMDs Preisvorstellungen ab (heißt fällt oder steigt mit dem Preis). Wenn sich die Gerüchte um 600$ bewahrheiten und AMD damit die TXp angreifen kann, ist das wie ein Erdbeben. Ich rechne Vega insgesamt mehr Potential als Zen 1 zu. Hoffen wir Koduri hat nicht übertrieben.^^
Ein Erdbeben ist das aber wenn nur bei Leuten die alles außer AMD ausblenden, denn alle anderen haben eine Titan Xp ähnliche Leistung schon seit August 2016 bei der Titan X Pascal und seit März 2017 bei der 1080 Ti zum halben Preis gesehen, genau mit der Leistung und Marktsituation der letztgenannten ab 680 Euro Karte 'muss' sich Vega messen. Sollte Vega doch überzeugend gut abschneiden, kann nVidia sicherlich locker mit ner Preissenkung der 1080 Ti reagieren, die haben seit ca einem Jahr genug Geld geschaufelt mit den bis dato konkurrenzlosen GP104 und GP102 Karten.
 
Zuletzt bearbeitet:
Nein das stimmt schon so, aber dieses Feature wird Zeit brauchen um von den Entwicklern sinnvoll genutzt zu werden. Es wird einige sehr schnelle Implementierungen geben, aber ich fürchte ein Großteil der Berechnungen werden weiterhin in 32 Bit stattfinden müssen.

In Open-World Spielen mit gigantischem Ausblick muss man sogar schon tricksen, um mit 32 Bit Genauigkeit rumzukommen. Da wird niemand auf halbe Genauigkeit umstellen.

Mal abgesehen davon, bis sich das Feature durchsetzt wird Vega veraltet sein. Ähnlich wie die Tesselationperformance der HD 5870 vs. GTX 480: Zum Zeitpunkt als die ersten Spiele mit wirklich exzessiver Tesselationnutzung erschienen, waren beide Karten zu langsam für diese Detailstufen. Da kann die GTX 480 fünfmal so schnell beim tesselieren sein.

Man sollte auch den Entwicklungsaufwand nicht unterschätzen, wenn die Dateiformate für jede Aufgabe angepasst werden müssen. Das gab es schon einmal beim Shader Modell 2.0 als Nvidia neben FP16 auch FP32 und INT12 unterstützte, während ATI sich voll auf FP24 konzentrierte. Das Ergebnis ist Geschichte: Mit Ausnahme von ein bis zwei speziellen Geforce-FX-Patches nutzten die Entwickler unabhängig von der benötigten Genauigkeit FP24 und Nvidia konnte bis zur SM-3.0-Generation einpacken.
 
Nö, GP100 und GP102 sind eigenständige Chips.


Zitat SFVogt:
Die AMD Vega Grafikkarten müssen sich einerseits mit dem GP100 und GV100 messen in professionellen Einsatzbereichen und dazu noch mit dem GP104 und GP102 im Gamerumfeld. Das liegt nicht an nVidia, sondern weil AMD eben nur diesen einen Vega Chip für beide Einsatzbereiche positioniert. Ob sich die Karte dann nun 'Radeon Pro Vega' oder 'Radeon RX Vega' schimpft, spielt doch keine Rolle, ist 1:1 die gleiche Technik. Was auf GP100/GV100 Profiausrichtung vs GP104/GP102 Gamereinsatz definitiv nicht zutrifft. Die Tesla P100 kommt mit Boost Takt von 1,48GHz auf 10,6TFLOPs SP und 21,2TFLOPs HP, die Pro Vega laut Apple bis zu 11,0TFLOPs SP und bis zu 22,0TFLOPs HP. Da ergeben sich also keine Welten dazwischen. Bei Vega wissen wir nicht mal wie real diese Angaben sind oder ob da bspw. aufgerundet wurde oder ob der maximal Takt gehalten werden kann unter Last. Tesla V100 basierende Server sollen schon im Q3 2017 verfügar werden.

Das kann schon sein sonst müsste man sie zusammen auf einer Grafikkarte verbauen ;)
Der GP100 bleibt aber genau wie der GP102 eine Pascal GPU
Der GP102 bietet haargenauso viele Recheneinheiten wie der GP100 (der nur noch über weitere FP64 Einheiten mehr verfügt und bietet zusätzlich ein NVlink- u. ein HBM2- Speicher Interface)
Es ist auch soweit ich weiß das erste mal das eine Titan nicht den Vollausbau beherbergt.
Und wie du schon selbst geschrieben hast, ändert ein erhöhter Core- bzw. Speichertakt den Leistungsdurchsatz, wobei hier die für Prosumer gedachte AMD Radeon Pro auf Leistung pro Watt also Effizenz ausgelegt ist, wodurch schon allein schon der Vergleich zu einer RX Vega bzw. GeForce hinkt.
 
Zuletzt bearbeitet:
Das kann schon sein sonst müsste man sie zusammen auf einer Grafikkarte verbauen ;)
Der GP100 bleibt aber genau wie der GP102 eine Pascal GPU
Der GP102 bietet haargenauso viele Recheneinheiten wie der GP100 (der nur noch über weitere FP64 Einheiten mehr verfügt und bietet zusätzlich ein NVlink- u. ein HBM2- Speicher Interface)
Es ist auch soweit ich weiß das erste mal das eine Titan nicht den Vollausbau beherbergt.
Und wie du schon selbst geschrieben hast, ändert ein erhöhter Core- bzw. Speichertakt den Leistungsdurchsatz, wobei hier die für Prosumer gedachte AMD Radeon Pro auf Leistung pro Watt also Effizenz ausgelegt ist, wodurch schon allein schon der Vergleich zu einer RX Vega bzw. GeForce hinkt.
Vega gehört wie Tonga und Fiji zu AMDs GCN Architektur, sind das auch alles drei das Gleiche :hmm: Außerdem hat doch die GeForce Titan Xp den GP102 Vollausbau mit 3840 Shader. Wozu auch den auf professionelle Bedürfnisse angepassten GP100 auf ner Gamer Grafikkarte verwenden: nen Haufen unnütze Transisoren für Gameanwendungen die Strom verbraten und Wärme erzeugen, den Chip groß und teurer werden lassen und zudem die Taktfreudigkeit reduziert.


Ja, für das doppelte im Preis und wenn Vega kommt kostet die TXp nur noch 650. Das es anders geht zeigt die Ti, ich hoffe AMD kann selbige Leistung und mehr aufbringen. GP104 als Mainstream zu aller erst als Highend oder Enthusiast zu vermarkten findest du o.k.? Wer sowas will. Die Karten wurden ja auf einen Schlag um 300$ entwertet. Preisstabilität sieht anders aus. NVidia läßt sich schon was einfallen um die Segmente zu melken.
Ist doch aus unternehmerischer Sicht alles korrekt was nVidia tut im Kapitalismus. Die Aktionäre freuen sich sicherlich auch über nVidia's 'Geschäftsgeschick'. Das Problem ist doch aber nicht nVidia, sondern der mangelnde Konkurrenzdruck der solche Sachen unterbindet. Und wer ist für diesen notwendigen Konkurrenzdruck zuständig? nVidia selbst? Oder vielleicht die Konkurrenz in Form von AMD? Und wenn von AMD seit über einem Jahr kein konkurrenzfähiges Produkt im oberen Performance Bereich erscheint, kann nVidia eben schalten und walten wie sie wollen. Hätte es zu GTX 1080 Release Zeiten eine ebenso starke AMD R9 480 für ~400 Euro gegeben, wäre die 1080er für rund 800 Euro ein Ladenhüter geworden.


175-220 für ein Highend-Enthusiast Mainboard ist IMO noch o.k., aber 1350 für eine Grafikkarte zum Daddeln? Nee danke.
'HighEnd-Enthusiasten-Mainboards' mit Mittelklasse Sockel AM4 + X370 Chipsatz gehen weit über 200 Euro. 'HighEnd-Enthusiasten-Mainboards' mit Mittelklasse Sockel 1151 + Z270 Chipsatz gehen weit über 300 Euro. 'HighEnd-Enthusiasten-Mainboards' mit wirklichen HighEnd-Plattform Sockel 2011-3 + X99 Chipsatz gehen sogar weit über 400 Euro. Für nen bisl Mainboard, wo deine Komponenten dran klemmst und das wars, warum regst du dich nicht darüber auf? Nen AMD Ryzen 7 1800X kostet ~470 Euro, dieses um Dimensionen kleinere Stück Hardware als ein HighEnd Mainboard oder eine HighEnd Grafikkarte. Intel lässt sich seine obersten Topmodell CPUs schon seit langen mit um die 1000 Euro (oder teurer) bezahlen, AMDs Threadripper 16 Kern Prozessor wird in der selben Region angesiedelt werden. Und bringt der AMD 16-Kerner für ~1.000 Euro irgendwas deutlich schnelleres für den Gamer als der 1800X für 470 Euro? Bringt denn eine 1350 Euro Titan Xp 12GB irgendwas deutlich schnelleres für den Gamer als ne 1080 Ti 11GB für 680 Euro? Nur weil die völlig überteuerten Spitzenprodukte der absoluten Leistungsspitze angeboten werden, wird doch absolut niemand genötigt diese auch zu kaufen. Kann doch jeder mit ein wenig Leistungeinbuße zu einem deutlich günstigerem Produkt greifen.


Da blendet auch niemand was aus, weil Innovation im Bereich GPU nicht teurer sein muss und nVidia die Entwicklung mit proprietärer Architektur massiv behindert.
Ich versteh euch 'Propritär-Nörgler' absolut nicht! Bspw. wieviel Entwickler und Programmierer sind denn in der Gameentwicklung weltweit tätig? Wenn man sich die Manpower der verschieden Studios etc mal übern Daumen 'zusammenpeilt', wird wohl nVidia's 300 Entwickler Team das an GameWorks arbeiten sollen, wie ein schlechter Witz erscheinen. Und dennoch tun sich diese vielen tausenden Gameentwickler und Programmierer weltweit - diese unglaubliche Manpower in dieser Industrie - trotzdem nicht zusammen für ein ähnliches Open Source Projekt das standardisiert werden könnte und alle in ihren Engine voran bringen könnte, mal ein revolutionären Schritt darstellen könnte gerade in Sachen Spielephysik! Da passiert aber absolut nichts, obwohl das zweifelsfrei realisierbar wäre. Da kocht jeder lieber sein eigenes Süppchen, so sieht die Realität aus. Wer behindert hier eine mögliche Entwicklung? nVidia mit ihrem eigenfinanzierten GameWorks das mittlerweile teilweise Open Source für alle ist? Es ist doch eher so, das wenn es keiner für alle macht, dann macht es halt keiner oder wenige nur für sich selbst. Auch AMD denkt logischerweise sehr genau bei allem was sie tun daran, welchen Nutzen (in $ Zeichen) sie selber daraus ziehen können.
 
Zuletzt bearbeitet:
Sieht realistisch aus bis auf die TDP die bei der Rx 580/8GB schon bei 185 Watt !! liegt , und das schon bei 1,35GHZ !

Bei 1,6 GHZ bei Vega ( werden wohl sicher wieder bis an die Kotzgrenze gehen müssen ) wird die TDP eher bei 350 Watt + liegen.

Und Vega wird nicht günstig werden, das hat man an der Fury X und Nano schon gesehen :schief:
 
Du meinst wie sich seit Anfang 2016 oder eher (?) das angepriesene Killerfeature namens 'Async Compute' jetzt mitte 2017 zum massivem überall anzutreffendem nVidia Nachteil herausgestellt hat?
In den wenigen Titeln, die DX12 / Vulkan nutzen, wird Async Compute immer mehr zu einem Feature, was ältere, unterstützte GPUs wie Hawaii & Grenada gut "über Wasser hält" und diese scheinbar langsamer altern lässt. Natürlich ist hier gefühlt nur Hitman der Vorzeige-Titel, aber auch Total War: Warhammer und die letzten beiden Patches zu Rise of the Tombraider sind hier nennenswert (The Division evtl. auch). Letzteres Game lief auf meiner 290 unter DX12 spürbar flüssiger mit zumindest höheren Min-FPS, solange man nicht die höchsten Einstellungen für Texturen und Schatten wählt, da das sonst den VRAM "sprengt".
 
Zuletzt bearbeitet:
Vega gehört wie Tonga und Fiji zu AMDs GCN Architektur, sind das auch alles drei das Gleiche :hmm: Außerdem hat doch die GeForce Titan Xp den GP102 Vollausbau mit 3840 Shader. Wozu auch den auf professionelle Bedürfnisse angepassten GP100 auf ner Gamer Grafikkarte verwenden: nen Haufen unnütze Transisoren für Gameanwendungen die Strom verbraten und Wärme erzeugen, den Chip groß und teurer werden lassen und zudem die Taktfreudigkeit reduziert.

:Hallo: hab ich das geschrieben oder du?

Zitat von dir dein letzter Post:
AMD Vega Grafikkarten müssen sich einerseits mit dem GP100 und GV100 messen in professionellen Einsatzbereichen und dazu noch mit dem GP104 und GP102 im Gamerumfeld. Das liegt nicht an nVidia, sondern weil AMD eben nur diesen einen Vega Chip für beide Einsatzbereiche positioniert. Ob sich die Karte dann nun 'Radeon Pro Vega' oder 'Radeon RX Vega' schimpft, spielt doch keine Rolle, ist 1:1 die gleiche Technik. Was auf GP100/GV100 Profiausrichtung vs GP104/GP102 Gamereinsatz definitiv nicht zutrifft. Die Tesla P100 kommt mit Boost Takt von 1,48GHz auf 10,6TFLOPs SP und 21,2TFLOPs HP, die Pro Vega laut Apple bis zu 11,0TFLOPs SP und bis zu 22,0TFLOPs HP. Da ergeben sich also keine Welten dazwischen. Bei Vega wissen wir nicht mal wie real diese Angaben sind oder ob da bspw. aufgerundet wurde oder ob der maximal Takt gehalten werden kann unter Last. Tesla V100 basierende Server sollen schon im Q3 2017 verfügar werden.

Genau deswegen kann man auch eine Readeon Pro nur mit der direkten Konkurrenz also einer Tesla P100 (GP100) oder von mir aus auch Quadro P6000 (GP102) vergleichen, da diese Prosumer Karten auf Leistung Pro Watt ausgelegt sind und somit sind es auch nicht die finalen Taktraten und auch nicht die finalen TFlops Werte die eine RX Vega Final erreichen könnte, denn diese steigen wie du selbst schon geschrieben hast mit erhöhtem Takt und verbesserter Spannungsversorgung.
 
Zuletzt bearbeitet:
Wenn man bis jetzt die bekannten Daten der Frontier Edition und der Vega Pro liest gibt es doch kaum Änderungen. 4096 Shader, 12,5 Teraflops, HBM2 und verbesserte GCN-Architektur. Laut Radeon.com eine um 1,5X bessere FP 32 Leistung und eine 3X bessere FP 16 Leistung gegenüber Fiji (Fury X).
Radeon™ Vega Frontier Edition: Empowering the New Generation of Data Scientists, Visualization Professionals, and Digital Pioneers

Schaut man sich Nvidia an haben die um 60% bei der 980TI zugelegt und die 1080TI wurde daraus. Ich denke schon das RX Vega mit der 1080TI mithalten wird denn laut den Angaben oben ist das sehr gut möglich. Der Nachteil für AMD ist das sie eben so spät RX Vega bringen. Die 980TI und Fury X kamen ungefähr gleich und jetzt hinkt AMD 4 Monate hinterher und von Vega 11 keine Spur in Sicht. Geht man auch auf die Infos der Costum-Hersteller von der Computex ein sollen Costum-Modelle der RX Vega erst später folgen also ca August- September, siehe Fury X und RX 480. Nimmt man jetzt noch die Infos von Nvidia das die ihre Tesla im dritten Quartal veröffentlichen hinkt AMD umso mehr hinterher. Folglich werden die Gaming-Karten von Volta bestimmt spätestens im 2. Quartal 2018 folgen. Da wird vielleicht Vega 11 kommen in dieser Zeit.

Ich verstehe auch diese Geheimhaltung von AMD nicht über Preise, Termine, Shader, Taktzahl nicht so ganz weil Nvidia hat seine Pascal-Generation komplett draußen und das Setzen auf HBM, einen Speicher der teuer ist und kaum Verfügba,r war auch keine gute Wahl. Seit 2 Jahren keine high-End von AMD, kein Wunder das manche dann zur 1070/1080 greifen und ich finde Herrn Koduri nicht gut für die Radeon Group!
 
Zurück