Navi: Vega 10 könnte AMDs letzte große GPU sein

AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Kann mir mal jemand den Unterschied zu dieser Variante und den Versuchen von Nvidia/AMD alias 295x2 und Titan Z erklären und warum das jetzt auf einmal funktionieren soll :huh:

Ganz einfach, es geht hierbei nicht um Multi-GPU, sondern um einzelne GPUs, die aus mehreren Chips bestehen. Analog zu Ryzen/Threadripper/Epyc: Bei denen würde ja auch niemand von einem Multi-CPU-System sprechen?
Der Knackpunkt wird am Ende sein ob AMD es schafft, dass die Chips untereinander schnell genug kommunizieren können und ob AMD ihr bisher beinahe größtes Problem, die Arbeit am Treiber, in den Griff bekommt. ^^
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Steckt diese Technik nicht schon in den Kinderschuhen bei VM-Servern? Nvidia Grid spuckt Google mitunter aus.

Je nach bedarf weise ich einer VM eine Anzahl an Grafikeinheiten zu und wenn sie nicht mehr gebraucht werden, holt sie sich der Server wieder zurück. Ist ja das selbe Prinzip bei Prozessorkernen die ich fix zuweise.

Wenn man das entsprechend auf den Desktop umlegen kann wäre das ziemlich genial: Ein Spiel läuft nicht unter deinem Hauptbetriebssystem (Linux, Win XYZ)? Starte eine VM mit einem anderen OS wo es drauf läuft und weise von deinen 24 Grafikkernen 20 zu um auf hohem Niveau zu zocken.
VGA-Passthrough im Consumer-Bereich ist derzeit nämlich alles andere als nutzerfreundlich
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Epyc und Threadripper melden ihre Dies im normalen Betriebsmodus als getrennte NUMA-Nodes an das Betriebssystem, genauso wie es auch Dual-/Quad-Sockel-Systeme machen. Technisch bestehen hier große Paralleln zu Multi-CPU-Systemen und bereits bei Ryzen mit der Vereinigung zweier Cluster auf einem Die gibt es messbare Performance-Einbußen, wenn diese zusammen an einem Problem arbeiten müssen. Wie man das Ganze in der Vermarktung nennt, ist eine andere Sache – Intels Core 2 Quad und Pentium D ließen sich auch wie eine CPU handhaben, unterschieden sich für die Software aber nicht von vorrangehenden Dual-Sockel-Systemen mit getrennt verpackten Dies. Damals gab es aber zumindest noch eine zentrale Speicheranbindung. Bei einer Muli-Chip-GPU ist dies nicht möglich, gleichzeitig sind Speicherzugriffe ein wichtiger Aspekt.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Ist es denn vorstellbar das dass einen perfekte Miningkarte sein wird? Vielleicht ist das ja der Plan von AMD!
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

umgeht man das problem aber nicht vollständig mit hbcc als gemeinsamen victim cache a la L3 bei intel bis kabylake?
Schwer zu sagen, wir wissen momentan ja kaum was HBCC macht und wie gut er mit verschiedenen Rendertechniken zusammenarbeitet.
Wie gesagt, wenn ich das richtig verstehe, gäbe es in Zukunft einfach nur vernünftig skalierende Chips, die über einen sehr kurzen (!) Weg über den IF kommunizieren und gleichzeitig ALLE auf den gleichen Speicher zugreifen.
Das ist aber eben nicht so einfach. Das Problem tritt ja sogar schon bei Ryzen auf, obwohl da die beiden CCX noch auf einem Die sitzen und typisches Multitasking bei CPUs meist relativ wenig Zugriffe auf die Daten eines anderen Threads erfordert.

Das mit dem alle auf den gleichen Speicher zugreifen ist auch noch so ein Problem. Bei Threadripper ist es z.B. NICHT so wie du meinst, da hat jeder Die sein eigenes Speicherinterface, und wenn der erste Die auf die Daten des zweiten Speicherinterfaces zugreifen will, muss er den Umweg nehmen. Nun ist ein Cache-Miss bei CPUs ohnehin der Worstcase, bei dem die CPU erstmal 100+ Takte Däumchen dreht, aber bei GPUs ist das nicht so. Da gibt es keine dicken L3-Caches, und selbst die L2 Caches sind pro Kern deutlich kleiner als bei den CPUs. Wenn man dann auf schnelle Speicherzugriffe angewiesen ist wird ein Umweg über einen weiteren Die ordentlich Performance kosten. Egal ob der zusätzliche Die eine zweite GPU, oder ein per Infinity Fabric angebundener Speichercontroller ist.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

HBCC dürfte im wesentlichen den HBM2 als Cache und den Systemspeicher als Reservekapazität nutzen. Zugriffe von mehreren GPUs auf diesen Cache sind unmöglich, da der HBM fest mit einer GPU verbunden ist. HMC müsste mit mehreren Hosts umgehen können und würde so das Arbeiten in einer Art Netzwerk erlauben – aber es wird seine Gründe haben, dass der bis heute nicht eingesetzt wird. (Preis?)


Ist es denn vorstellbar das dass einen perfekte Miningkarte sein wird? Vielleicht ist das ja der Plan von AMD!

Für Mining wäre so ein Design sehr gut geeignet. Da gibt es schon heute Mainboards, die bis zu acht Grafikkarten über eine einzige PCI-E-2.0-Lane anbinden und für Bitcoin nimmt man seit längerer Zeit USB-Anschlüsse – der Bedarf an Datenaustausch ist einfach minimal, da während des Mining sowieso millionenfach die gleiche Berechnung mit minimalen, zufälligen Änderungen durchgeführt wird.

Aber wenn wir eins nicht brauchen, dann doch wohl noch attraktivere Mining-Karten in der AMD-GPU-Pipeline :-)
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Kann mir mal jemand den Unterschied zu dieser Variante und den Versuchen von Nvidia/AMD alias 295x2 und Titan Z erklären und warum das jetzt auf einmal funktionieren soll :huh:

Hier sollen jetzt mehrere Dies etwas direkter verbunden werden um die Bandbreite zu erhöhen bzw Latenzen zu verringern. Ob das ganze dann auch wirklich funktioniert ist fraglich.
AMD hatte ja bisher schon Probleme die Shader voll auszulasten (seit der 4xx Reihe haben sie das ziemlich gefixed) was mit Multi-Die und noch mehr Shadern nur ein noch größeres Problem wird.

Eines der größten Probleme dürfte dann die Speicheranbindung werden: Wie versorgt man mehrere Chips mit den nötigen Daten. über das IF auf den Cache eines anderen dies zuzugreifen dauert lange - sehr lange sogar.
Also müsste man entweder pro Die einen gewaltigen L3 cache einbauen (sprich hunderte MB) oder den VRam klonen (wie derzeit bei Crossfire/SLI) - beides nicht schön und nicht günstig.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Die meisten sprechen ja über Infinity Fabric als Verbindung zwischen den Chips,
hab da aber eine andere Idee....

Wie wäre das mit stacking, a la HBM?
Evtl hat sich AMD ja auch deswegen so früh für HBM interessiert?!

Wäre sowas überhaupt möglich zu realisieren?
Wären die Latenzen dann nicht erheblich besser?

Ich hab keine Ahnung, nur ne idee^^
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Epyc und Threadripper melden ihre Dies im normalen Betriebsmodus als getrennte NUMA-Nodes an das Betriebssystem, genauso wie es auch Dual-/Quad-Sockel-Systeme machen. Technisch bestehen hier große Paralleln zu Multi-CPU-Systemen und bereits bei Ryzen mit der Vereinigung zweier Cluster auf einem Die gibt es messbare Performance-Einbußen, wenn diese zusammen an einem Problem arbeiten müssen. Wie man das Ganze in der Vermarktung nennt, ist eine andere Sache – Intels Core 2 Quad und Pentium D ließen sich auch wie eine CPU handhaben, unterschieden sich für die Software aber nicht von vorrangehenden Dual-Sockel-Systemen mit getrennt verpackten Dies. Damals gab es aber zumindest noch eine zentrale Speicheranbindung. Bei einer Muli-Chip-GPU ist dies nicht möglich, gleichzeitig sind Speicherzugriffe ein wichtiger Aspekt.
Danke für die Unterstützung/Bestätigung meiner Skepsis.
Warum wird diese "Experteneinschätzung" nicht in den Artikel eingepflegt?
Es würde einiges an Diskussion ersparen ;)

Nahezu alle Teile einer GPU müssen zumindest während bestimmter Phasen des Rendervorganges auf große Teile des Grafikspeichers zugreifen können. Eine Auslagerung würde nur bei strikter sequentieller Arbeitsteilung funktionieren, aber diese wurde spätestens mit DX10 abgeschafft. Das letzte erfolgversprechende Projekt dieser Art war Sage für Direct3D – aber dann ging 3dfx Pleite.

Es ist sehr schade, dass wir dieses Projekt nicht mehr in voller Pracht erleben durften.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Naja, wer weiß, vielleicht bedeutet "Skalierbarkeit bei Navi" ja auch ganz simpel, dass sie einen ähnlichen Weg wie Nvidia einschlagen, da Felder wie Deep Learning immer interessanter werden und andere Anforderungen haben als reines Gaming. Dementsprechend können/wollen sie in Zukunft ihre GPUs eben für jeweilige Zwecke anpassen: Vollausbau für professionelle Zwecke und man skaliert diesen für Gaming-Chips einfach nach unten, da man einige Fähigkeiten dafür eben nicht/weniger braucht.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Wird werden ja sehen, wie sich das ganze entwickelt.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Interessanter Ansatz; hab ich nicht mit gerechnet! Ich lass mich mal überraschen :D
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

AMD müsste nur einen guten Treffer landen, wie bei den Ryzen Prozessoren. Haben sie einen Die, der sehr effizient arbeitet, dann können sie es mit der Infinity Fabric so machen, wie bei den Epyc und Threadrippern. Meiner Meinung nach finde ich es ein sehr gutes Konzept.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Damals gab es aber zumindest noch eine zentrale Speicheranbindung. Bei einer Muli-Chip-GPU ist dies nicht möglich, gleichzeitig sind Speicherzugriffe ein wichtiger Aspekt.
In Anbetracht, dass man über den Speicher von Navi nichts außer "nextgen" weiß, finde ich es voreilig zu sagen, dass nicht mehrere Chips gleichzeitig darauf zugreifen werden können. Ich halte eine solche Architektur zwar nicht für wahrscheinlich, aber es gibt durchaus Speicherarten die dies zuließen.

Das ist aber eben nicht so einfach. Das Problem tritt ja sogar schon bei Ryzen auf, obwohl da die beiden CCX noch auf einem Die sitzen und typisches Multitasking bei CPUs meist relativ wenig Zugriffe auf die Daten eines anderen Threads erfordert.
Außer in speziellen Benchmarks war der Unterschied afaik <10%. Das ist zwar durchaus beachtlich, allerdings war das auch ein Worst-Case bei realen Anwendungen. Im breiten Schnitt war der Performance-Nachteil eher gering. Ich denke AMD hätte die Verbindung zwischen den Kernen durchaus auch breiter anlegen können. Das hätte den Engpass beseitigt wäre aber auf Kosten von Chipfläche und Energieverbrauch gegangen. Schlussendlich war es eine Abwägung bei der man etwas weniger Leistung in einem Randbereich für höhere Effizienz im Alltagsbetrieb getauscht hat. Das ist der Preis, den man für ein modulares Design bezahlen muss.

aber bei GPUs ist das nicht so. Da gibt es keine dicken L3-Caches, und selbst die L2 Caches sind pro Kern deutlich kleiner als bei den CPUs. Wenn man dann auf schnelle Speicherzugriffe angewiesen ist wird ein Umweg über einen weiteren Die ordentlich Performance kosten. Egal ob der zusätzliche Die eine zweite GPU, oder ein per Infinity Fabric angebundener Speichercontroller ist.
Es stimmt, dass ein GPU-Kern weniger Cache als ein CPU-Kern hat. Der einfache Grund, von Kostengründen mal abgesehen, ist der, dass man nicht mehr braucht. Während CPUs Low-Latency-Architekturen sind, sind GPUs viel breiter und haben deutlich höhere Latenzen. Wenn ein Thread auf Daten aus dem Speicher warten muss wird einfach an einem anderen Thread weitergerechnet. Sofern die Latenzen gewisse Grenzen nicht überschreiten und die Bandbreite stimmt dürfte die höhere Latenz bei einer GPU deutlich weniger auffallen als bei einer CPU. Mit TSVs über einen Interposer sollte man auch problemlos genügend Bandbreite für die Inter-Die-Kommunikation erreichen können.

Hier sollen jetzt mehrere Dies etwas direkter verbunden werden um die Bandbreite zu erhöhen bzw Latenzen zu verringern. Ob das ganze dann auch wirklich funktioniert ist fraglich.
AMD hatte ja bisher schon Probleme die Shader voll auszulasten (seit der 4xx Reihe haben sie das ziemlich gefixed) was mit Multi-Die und noch mehr Shadern nur ein noch größeres Problem wird.
Die Probleme hatten aber wenig mit dem SI und nur teilweise mit dem Cache-Subsystem zu tun, sondern mehr mit der Architektur des Backends selbst und dem Verhältnis Front- zu Backend. Einer der Hauptgründe für immer mehr Bedarf an Shaderleistung sind nicht in erster Linie komplexere Berechnungen, sondern einfach steigende Auflösungen und diese lassen sich gut mit einfach mehr Shadern erschlagen.


Die meisten sprechen ja über Infinity Fabric als Verbindung zwischen den Chips,
hab da aber eine andere Idee....
Das eine schließt das andere nicht aus. Bisher wird IF z.B. bei Zen on-Die zur Verbindung der beiden CCX verwendet. Bei Multi-CPU-Systemen werden andererseits aber auch mehre CPUs damit verbunden und auch die Verbindung von CPU und GPU sowohl on-Die (Raven Ridge) als auch mit einer dGPUs soll darüber laufen. Mich würde es daher nicht übermäßig wundern, wenn man IF nicht auch z.B. für die Anbindung per TSVs über ein Interposer adaptieren könnte.


Danke für die Unterstützung/Bestätigung meiner Skepsis.
Warum wird diese "Experteneinschätzung" nicht in den Artikel eingepflegt?
Es würde einiges an Diskussion ersparen ;)
Wo bliebe da der Spaß.

Abschließend zu meiner ganz persönlichen Einschätzung: Ich denke nicht, dass AMD so einen Sprung gleich beim ersten Versuch richtig gut hinbekommen wird. Das dürfte ähnlich schwierig, wenn nicht sogar schwieriger als der IMC sein. Allerdings halte ich es für technisch machbar eine solche Multi-Chip GPU zu entwerfen, die eine zu monolithischen Designs vergleichbare Leistung erbringt. An die Effizienz einer monolithischen GPU wird sie zwar nicht herankommen, aber die Kosten sollten das mehr als ausgleichen.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

das wird nicht funktionieren
amd hat schon jetzt Probleme den hardware sheduler auszulasten wegen dx11
man stelle sich das vor noch mehr hardware sheduller und die gpu Leistung liegt zu 50% brach
da hilft nur single core Takt und da sind wir am ende mehr als 5ghz gehen nicht

wenn amd wirklich ab navi nur noch multiship design bringt und beim single design auf einen chip setzt und dieser dann nicht mit gp104 mithalten kann.
Wird es sehr teuer für uns gamer
für gpgpu ist aber das Konzept geradezu ideal.
Amd hofft auf durchsetzen von dx12 vulkan da nämlich kann multichip design funktionieren weil die api das zulässt.
Und damit wäre auch das Nadelöhr cpu Takt raus.

aber so wie es jetzt aussieht wird vor 2022 sich da nichts ändern.
ich erwarte multicore dx12 unterstütze engine erst ab 2022 und erste spiele 2024 Pünktlich zu den passenden Konsolen ps5 pro und xbox two pro
oder welchen Namen die haben werden.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Das mit der doppeldeutigen Propaganda-Überschrift ist Absicht.
Haben die sich von dem Klatsch-Magazin -BILD- abgeguckt
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Die Probleme hatten aber wenig mit dem SI und nur teilweise mit dem Cache-Subsystem zu tun, sondern mehr mit der Architektur des Backends selbst und dem Verhältnis Front- zu Backend. Einer der Hauptgründe für immer mehr Bedarf an Shaderleistung sind nicht in erster Linie komplexere Berechnungen, sondern einfach steigende Auflösungen und diese lassen sich gut mit einfach mehr Shadern erschlagen.

Dehalb hat ja AMD fürher so gut mit Auflösung skaliert - weil sie damit die shader auslasten konntent.
Hier aber ist das Problem das wenn man viele Shader auf mehreren Dies verteilt auslasten möchte dies ziemlich komplex wird. eine weitere Sheduler-Ebene und noch mehr Speicher controller . und dazu entweder noch viel mehr L3 oder der Speicher muss wie bisher für jeden Die espiegelt werden - was dann bei 4 oder mehr Dies auchnichtmehr wirklich geht,
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Vega 10 könnte AMDs letzte große GPU sein

Thanx god. Fragt sich nur, welcher von den vielen...

Bin Atheist, vielleicht der Grund, warum ich deshalb
immer bei nVidia blieb...
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

naja dann werden die Treiber wieder mies sein und dann läuft alles nur mit angezogener Handbremse ...
 
Zurück