Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

So, war das nun nur die Präsentation von Dez, die bisher unter NDAs fiel und es kommen noch Infos direkt von der CES oder wars das?

Bei Tom's Hardware kann man es zumindest erahnen, dass dies keine Infos von der CES direkt sind, da alle anderen Ankündigungen direkt von der Messe entsprechend markiert sind. Kann natürlich auch sein, dass AMD nur ein Trara um den Fall der NDAs gemacht hat und dies für Endkunden quasi als neue Infos verkauft.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Golem schreibt das sich Vega unter Doom oberhalb einer übertakteten 1080 befindet. Das reicht doch als Statement.

Das reicht mMn überhaupt nicht.
In einem Spiel das AMD sehr liegt und in dem sogar die Fury x bis auf 9% an der GTX 1080 dran ist, ist das zu wenig.
Theoretisch wäre die Fury x dann bis auf 20% an Vega dran.Das wäre dann das Level einer Cusom GTX 980ti.

AMD wäre gut beraten mal einen Benchmark zu zeigen in dem der Vorsprung zur Fury x richtig zur Geltung kommt und nicht best Case Tests in denen sie gegenüber NVIDIA sowieso gut dastehen.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Was ein Bullshit.
Sowohl P10 als auch P11 werden in der selben Fabrik (Glofo hat aktuell nur eine 14nm Fabrik) gefertigt.
Beide provitieren natürlich davon das der Prozess jetzt besser unter Kontrolle ist.
Na dann zeig doch bitte endlich die RX480-Karte, die deutlich weniger Leistung aufnimmt, als die bisherigen Modelle. Die muss es ja offensichtlich geben, wenn die Fertigung so optimiert wurde.

Warum sollten die Boardpartner das tun ?
Das würde für sie bedeuten das sie wieder anfangen müssten zu selektieren und nicht einfach nur so viel Spannung drauf zu knallen bis auch die ranzigsten Chips stabil laufen.
Was denn jetzt? Wurde die Fertigung nun optimiert und die Polarischips generell laufen mit weniger Leistungsaufnahme, wie du es behauptet hast, oder ist es nicht doch so, dass alle die effizienten Modelle wie Radeon Pro nur massiv selektierte Chips sind, wie ich es behauptet habe? Plötzlich behauptest du jetzt das Gegenteil.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Die Anzahl der Shader ist der ausschlagebende Faktor für die Performance einer GPU
Was ein Bullshit. Man merkt, dass du keine Ahnung hast und daher lieber anfängst Leute zu beleidigen.

Wenn die Anzahl der Shader so ausschlaggebend ist: Warum kann dann eine GTX1060 mit einer RX480 mit halten, die fast doppelt so viele Shader hat (1280 vs. 2304)?

Es wird nicht besser deinen ersten Bullshit mit jetzt noch mehr Bullshit zu übertünchen.

Mehr sage ich dazu auch gar nicht, du hast dich schon im ersten Satz disqualifiziert, das darfst du mit einem Mod ausdiskutieren. Seahawk hat deinen Bullshit ja auch schon ausreichend zerlegt.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Meine 1070 ist bei spielen des öfteren nur zu 10% ausgelastet, weil ich manchmal ältere Spiele spiele.
Ich denke diesen Aspekt hatte AMD hierbei vor allem im Auge, denn die Auslastung zu verbessern und Leistung freizusetzen, nicht abzuschalten, war ja das Ziel.
Aber wenn Leistung nicht gebraucht wird, kann man wie bei der 460 Strom sparen.

Grüße und guten Morgen

Für solche Fälle ist es leichter ganze CUs oder zumindest SP Cluster zu deaktivieren anstatt die Granularität bis auf den einzelnen SP zu vertiefen. Der Aufwand dafür lohnt sich imho nur wenn man recht viele Lastfälle erwartet bei den man zwar alle CUs braucht aber nicht alle SP einer CU.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Du kannst aber nicht die Anzahl von Shadern in unterschiedlichen Architekturen vergleichen. Natürlich hat ein GP104 mehr Shader und Leistung als ein GP106, aber die sind ja auch aus einer Architektur. Zwischen unterschiedlichen Architekturen sieht es ganz anders aus. Fury hat mehr Shader als GP104 und mehr max. Flops, ist ber trotzdem langsam. AMDs CGN hat sowieso sehr viel Rechenleistung, die sie aber zumindest in DX11 selten füllen können, weil sie stark auf paralleles Arbeiten setzen, was DX11 nicht wirklich kann. 4096SPs in 64CUs ist ne Menge Rechenleistung die gefüllt werden will. NV hat nur 32SP (+ 8 Load/Store + 8SFU) pro CU und 2Dispatch Units, so dass sie 2 Aufgaben in der CU parallel abarbeiten können.

Fiji als Grundlage für Vega hat 64SP pro CU
Es sind eher 128 SPs bei Nvidia vs. 64 bei AMD.
Wenn man das in einem größeren Bild betrachtet, unterscheidet sich der Aufbau stellenweise arg, aber bei AMD gibt es vier SIMD16-Einheiten, wo jede SIMD-Einheit eine(n) Wavefront/Warp abarbeitet bei Nvidia sind es entsprechend 4x SIMD32.
Am Ende teilen sich auch alle SIMD-Einheiten einen shared-memory.

Die Frage ist nun ob diese CUs weiter nur auf 4 Shader Engines verteilt werden oder nicht. Ich gehe von 4 aus und damit entspräche die Aufteilung der Anzahl and GPC im GP104. Gut man hat jetzt den Bottleneck Geomtrie Engine verbessert (aber selbst Faktor 2,7 bringt sie nur auf GP104 Level), was helfen wird.
Da es wieder 4 Geometry-Engines sein werden, wird es auch höchstwahrscheinlich wieder 4 Shader-Engines geben.
Und wenn man wie das Milchmädchen einfach mal 2,7 bezüglich Polaris 10 draufrechnet, was sogar bei einer schlechtere Skalierung vielleicht sogar halbwegs passt, da letztendlich auch der Takt höher sein wird, dann wäre man in der Praxis eher auf GP102-Niveau:
Performances théoriques : géométrie - Nvidia Titan X 12 Go en test : pour 1300€, Pascal enfonce le clou ! - HardWare.fr

Das kann sich AMD nicht leisten. 371mm² gegen ~525mm² Die Fläche, HBM2 gegen GDDRX5 und das für 100 Euro weniger... das wäre Wahnsinn.
Der GP104 ist nur ~ 314mm² groß:
GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X - ComputerBase

Der GP102 besitzt laut Nvidia 471mm² Fläche:
Nvidia Titan X im Test: Der GP102, der keine (rasend schnelle) Geforce sein darf

Und Raja Koduri von AMD hat behauptet das Vega 10 kleiner als 500mm² ausfiele:
3DCenter Forum - AMD/ATI - VEGA (Vega10, Vega11, Vega20) - 2017 - Seite 70

Aber es wäre auf jeden Fall weiterhin der Wahnsinn, wenn AMD mit V10 sich nicht mit dem GP104 anlegen könnte, dass muss jetzt ein GP102 Konkurrent werden.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Jo, danke ich hatte die Größen von GP102 und GP104 vermischt. Bei der Geometrieleistung habe ich auf die Werte mit Tesselation geschaut, einfach weil das bsiher der Worst Case für AMD ist und daher wahrscheinlich der Best Case für Vega.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Aber es wäre auf jeden Fall weiterhin der Wahnsinn, wenn AMD mit V10 sich nicht mit dem GP104 anlegen könnte, dass muss jetzt ein GP102 Konkurrent werden.
Wäre aber durchaus möglich, man darf nicht vergessen, dass V10 immerhin sämtlichen HPC-Ballast mitschleppen muss, den NVIDIA inzwischen nur noch in GP100 drin hat.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Neh, ansonsten kann AMD die GPU-Sparte wirklich schließen.
Die Rohdaten von Vega 10 sind viel höher und sollten mit den genannten Verbesserungen auch endlich skalieren.

Was den "Ballast" angeht, man weiß z.B. nicht wie hoch die FP64-Performance ausfallen wird, laut der Gerüchteküche liegt der bei Vega10 weiterhin nur bei 1/16:
AMD VEGA and NAVI Roadmap | VideoCardz.com

Die Zusatzkosten für 2xFP16 sollten überschaubar bleiben und auch der Infinity-Fabric (Wo aber konkrete Informationen noch fehlen) wird nicht die Welt verbrauchen.
Definitiv wird es einen Overhead geben, man fällt auch größer als ein GP102 aus und wird diesen vielleicht nicht unbedingt schlagen können, aber ein GP104 sollte definitiv geschlagen werden.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Die Frage ist halt die CU.

Wenn man die Folie mit den 128 32 bit Ops per Clock und die folgende mit den Pfeilen betrachtet, dann kann man die 128SP CU nicht ausschließen. Und das könnte im Spieleumfeld eine Herausforderung werden.

Auf den vorliegenden Daten kann man nur spekulieren. Die Logik sagt, dass man vor GP104 liegen muss und zwar deutlich. Aber Fury lässt mich da vorsichtig sein.
 
Zuletzt bearbeitet:
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

128 SPs wären gar kein Problem, die Wavefront-Size wird bei maximal 64-Threads bleiben und die IPC soll steigen und nicht sinken.
Bezüglich GP104-Performance mach ich mir jedenfalls keine Sorgen mehr, Vega 10 sollte das mindestens erreichen.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Also ich kannte nicht alle Infos dieser News, deswegen ist das für mich natürlich interessant. Sofern diese Verbesserungen gut greifen, kann ich mir gut vorstellen, dass der kleine Vega Chip gut zwischen 1070 und 1080 liegt und Vega 10 wohl als Big Chip sich die Titan bzw. Volta vornimmt.
Da diese Karten wieder recht klein werden, bin ich da eher dran interessiert als an einer 1070. Aber ich warte wirklich das halbe Jahr noch ab, dann weiß man erst, wo AMD wirklich steht.

Was einem hier echt auffällt: wie im CB Forum können einige rein gar nicht lesen oder gar logisch denken. Wenn eine Vorschau zur Architektur angekündigt wird, kann man nicht angeblich vermissten Informationen erwarten. Dann diese oberdämlichen Sprüche zu bringen: kauf mir halt Nvidia, wirkt reichlich bedeppert!
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Naja, das würde halt bedeuten nur noch 8 CUs pro Shaderengine und wenn die Texture Filter Units pro CU konstant bleiben verliert man da 50%. Und wie gut man heutigen Code auf so große CUs verteilen kann wird man sehen müssen.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Was den "Ballast" angeht, man weiß z.B. nicht wie hoch die FP64-Performance ausfallen wird, laut der Gerüchteküche liegt der bei Vega10 weiterhin nur bei 1/16:
AMD VEGA and NAVI Roadmap | VideoCardz.com
Also nachdem AMD das HighEnd für ~12 Monate komplett vernachlässigt hat, will man jetzt den kompletten HPC-Bereich für knapp 2 Jahre NVIDIA überlassen? Das halte ich mal für extrem fahrlässig.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Naja, das würde halt bedeuten nur noch 8 CUs pro Shaderengine und wenn die Texture Filter Units pro CU konstant bleiben verliert man da 50%. Und wie gut man heutigen Code auf so große CUs verteilen kann wird man sehen müssen.
8 NCUs pro Shader-Engine wären positiv zu bewerten, die Lastverteilung wäre simpler.
Über den Aufbau einer NCU gibt es leider keine Details.
AMD könnte einfach 8 TMUs pro NCU verbauen, den L1$ vergrößern und würde das selbe Verhältnis beibehalten.
Der Code wird in Threadblocks verteilt und der wird sehr wahrscheinlich bei 64 bleiben.
Es stellt sich die Frage wie hoch die Latenz ausfällt und wie das Verteilungsschema aussieht, aber die Infos gibt es ja nicht.

128 SPs alleine sagen einem halt aktuell gar nichts.

Also nachdem AMD das HighEnd für ~12 Monate komplett vernachlässigt hat, will man jetzt den kompletten HPC-Bereich für knapp 2 Jahre NVIDIA überlassen? Das halte ich mal für extrem fahrlässig.
Die Infos müssen nicht absolut stimmen.
Z.B. wird GMI nur für V20 genannt, dass stellt aber aktuellem Wissen nach den Infinity-Fabric dar und den gibt es auch beim V10.
Die 7nm und PCIE4 könnten auch falsch sein, möglicherweise wird es ein 14/16nm Chip und kommt früher.

Eine Sache sieht für mich aber etwas auffällig aus, Vega 10 wird für Gamer und Deeplearning vermarktet und bezüglich letzterem hat man schon ein konkretes Produkt mit der MI25 angekündigt.
Bezüglich DP-Produkten schwebt aktuell aber nichts in der Luft, ich vermute entsprechend schon, dass V10 in der Richtung nichts bietet.
 
Zuletzt bearbeitet:
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Das meien ich ohne Wissen über Details wie die Wavefront und den Aufbau der CU ist es schwer zu schätzen was das Ding kann. Es kann auch sehr compute orientiert ausgelegt sein.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Eine Sache sieht für mich aber etwas auffällig aus, Vega 10 wird für Gamer und Deeplearning vermarktet und bezüglich letzterem hat man schon ein konkretes Produkt mit der MI25 angekündigt.
Bezüglich DP-Produkten schwebt aktuell aber nichts in der Luft, ich vermute entsprechend schon, dass V10 in der Richtung nichts bietet.
Ich halte das für extrem unwahrscheinlich, dass AMD in V10 kein FP64 implementiert hat. In dem Bereich hat AMD, selbst heute noch, nur Hawaii zu bieten und der Chip ist fast 4 Jahre alt.

Was wollen sie damit gegen einen P100 ausrichten?

Also, klar, ich würde es nicht für ausgeschlossen halten, dass V10 kein FP64 beherrscht. Aber es wäre ein Mega-Fail auf Seiten von AMD.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

find nur ich das etwas bedenklich das vega mit einer geschätzten chip größe von 450 -520 mm² gerade einmal so an die leistung von einer gtx 1080 mit 314 mm² chip mithalten kann ?? würde ja nicht gerade für die ipc power von vega sprechen

mfg
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Im Artikel steht, das FP64 konfigurierbar ist. Also ist es auf jeden Fall dabei. Dann lässt es sich eben je nach dem ob es eine Pro oder Gaming GPU wird auf 1:2 oder 1:16/1:32 anpassen.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Auch wenn Vega ein GP102-Konkurrent sein könnte, muss ich sagen, dass Nvidia gute Arbeit geleistet hat. Schlussendlich sind die Pascal-Karten doch seit einiger Zeit erhältlich und wenn Vega lanciert wird, dann knapp 1 Jahr später, um etwas die gleiche Performance zu haben. Gehe persönlich von ca. 10% bis 15% im Schnitt höhere Performance als eine GTX1080, zumindest sind dies meine Erwartungen an die neue Karte. Und wie erwähnt, im Schnitt.

Wenn schon eine R9 Fury bei Doom in 4K mit max. Details (ohne Nightmare Optionen) bereits kanpp 55 FPS hat (GTX1080 knapp 60) und es ja bekannt ist, dass DX12 sowie Vulkan den AMD-Karten liegt, dann klingen für mich 70 FPS für Vega nicht soooo berauschend, dafür dass man ja 1 Jahr mehr Entwicklungszeit hatte und auf HBM2 setzt und anscheinend so viel an der Architektur verbessert hat. Ja, die Treiber sind halt noch nicht 100% optimiert.

Doom mit Vulkan: Performance-Analyse mit Benchmarks und Frametimes

Die Preisgestalltung von Nvidia war auch meiner Meinung nach bei lancierung der aktuellen Generation etwa 10% zu hoch gewesen. Und trotzdem empfand ich es nicht als "tragisch" oder eine totale Frechheit. Schlussendlich wurde die Leistung der High-End- Vorgängerkarten schon alleine mit der GTX1070 grösstenteils erreicht , und dies zum günstigerem Preis. Dass nebst mehr Leistung auch mehr Speicher verbaut wurde und dies halt auch kostet wurde von vielen Kritikern ausser acht gelassen.

Begrüsse einige technische Innovationen die AMD mitbringt nebst dem Wettbewerb. Somit werden Intel und Nvidia auch hoffentlich darauf reagieren müssen.
 
Zurück