AMD Vega 20: XGMI-Interconnect als NV-Link-Konkurrent

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Vega 20: XGMI-Interconnect als NV-Link-Konkurrent

Ein Linux-Patch von AMD legt nahe, dass die in 7 nm gefertigte Vega-20-GPU XGMI als Interconnect unterstützen wird. Genauso wie Nvidia hätte AMD damit eine Alternative zu PCI-Express (4.0) zur Kommunikation zwischen den Grafikkarten. Einen Vorteil hat AMD zudem bei den Prozessoren: XGMI beherrschen bereits die Epyc-Prozessoren, die darüber theoretisch auch mit den GPUs kommunizieren können sollten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Vega 20: XGMI-Interconnect als NV-Link-Konkurrent
 
Super, dann stimmen ja die Gerüchte um die Skalierbarkeit. Also wird Navi ein Art Ryzen GPU Pendant, top! :daumen:

MfG
 
Welche Vorteile genießt man den mit dem neuem XGMI wenn AMD CPU mit AMD GPU miteinander besser kommunizieren in einem sogenannten "geschlossenem System" wie es im Artikel beschrieben ist?
Mit einem Dual CPU System sollte es ja bestenfalls so sein das die CPUs als eine große dann hergenommen wird.
Mehrere Grafikkarten sollen ja dann auch ihre Leistung bestens kombinieren, nur was ist bei GPU zu CPU hier der Vorteil?
 
Super, dann stimmen ja die Gerüchte um die Skalierbarkeit. Also wird Navi ein Art Ryzen GPU Pendant, top! :daumen:

MfG

Woraus schließt du das nun? Hat AMD jetzt auch ein EMIB Äquivalent? Prinzipiell zwar machbar und sinnvoll (etwa wenn man extra Rasterizing Chips auflegt und extra Raytracing Chips und diese dann je nach Performancebedarf miteinander verbindet, aber wir sind da noch ein gutes Stück weit weg

"theoretisch auch mit den GPUs kommunizieren können sollten. "

-Zitat aus der News, finde das Satzkonstrukt

Finde ich auch gut. Wurde ja schon vor Monaten mal berichtet, dass Infinity Fabric bei den GPUs auch sehr wahrscheinlich ist. Da bin ich mal gespannt, was da kommt mit Navi.

Theoretisch hat schon Vega 10 IF AFAIR

Welche Vorteile genießt man den mit dem neuem XGMI wenn AMD CPU mit AMD GPU miteinander besser kommunizieren in einem sogenannten "geschlossenem System" wie es im Artikel beschrieben ist?
Mit einem Dual CPU System sollte es ja bestenfalls so sein das die CPUs als eine große dann hergenommen wird.
Mehrere Grafikkarten sollen ja dann auch ihre Leistung bestens kombinieren, nur was ist bei GPU zu CPU hier der Vorteil?

Ins Blaue geraten würde ich sagen, dass die dann etwa einen gemeinsamen RAM Pool haben können und Zeitgleich Daten manipulieren - statt dass dazu die Daten im jeweiligen Speicher redundant vorhanden sein müssen und aufwändig wieder synchronisiert werden können.

Als Anwendungsfälle dafür fallen mir spontan ein, dass sich CPU und GPU die Arbeit statt strikt getrennt gemeinsam abarbeiten.

Konkret etwa Physikberechnungen die bislang völlig getrennt abliefen.
Oder künstliche Intelligenz.
Ein anderer Fall wäre, dass die in der CPU oft vorhanden Grafikeinheiten mit der Dedizierten Grafikkarte zusammengeschaltet werden. Entweder um die Performance 20-30% zu erhöhen oder ganz spezielle Aufgaben zu übernehmen (GPU Physik,Kantenglättung oder anderes)

Recht einfach dürfte es übrigens mit Raytracing gehen: dort kann eine CPU, vorallem eine mit vielen Threads, die Sache recht einfach beschleunigen
 
Zuletzt bearbeitet von einem Moderator:
Woraus schließt du das nun? Hat AMD jetzt auch ein EMIB Äquivalent? Prinzipiell zwar machbar und sinnvoll (etwa wenn man extra Rasterizing Chips auflegt und extra Raytracing Chips und diese dann je nach Performancebedarf miteinander verbindet, aber wir sind da noch ein gutes Stück weit weg
Dazu gab es doch mal Gerüchte, ist schon ein Weilchen her, dass Navi skalierbar sein soll. Scheint mir, ausgehend von der News hier, dass also da etwas dran war/ ist.

MfG
 
Dazu gab es doch mal Gerüchte, ist schon ein Weilchen her, dass Navi skalierbar sein soll. Scheint mir, ausgehend von der News hier, dass also da etwas dran war/ ist.

MfG

Es stand vor Jahren auf einer AMD Präsentationsfolie. Aber warum daraus ständig "mehrere GPUs" gemacht wird weiß ich nicht. Skalierbarkeit heißt nunmal viel und wesentlich eher, dass man die GPU in verschiedenen Varianten auflegt, als dass man nochmal einen RV770 baut und den dann eventuell doppelt verbaut.

Es stand auch immer schon unter den Gerüchten- die übrigen in den ursprünglichen News als Spekulationen gekennzeichnet waren (soll heißen: der Autor hat zugegeben, dass es ein reines Gedankenspiel zum Thema "Skalierbarkeit" ist), dass dies nur eine (unwahrscheinliche) von vielen wahrscheinlicheren ist und es tut mir immer ein bisschen weh, beim kleinsten Infofetzen der alles mögliche heißen kann diese Spekulationen bestätigt zu sehen. Es ist wie bei Trump es wird leider heutzutage aus einer stets wiederholten (eventuell falschen) Aussage ein Quasi-Faktum weil News Abteilungen heutzutage nur noch unreflektiert abschreiben
 
Infinity Fabric ist ein Marketing-Begriff welcher unterschiedliche Verbindungsstandards von AMD umfasst.
Teil von IF ist der SFC (Scalable Control Fabric) und SDF (Scalable Data Fabric) und noch IFOP und IFIS.
Vega10 verwendet für die Verbindung und Kommunikation interner Bausteine schon IF (SFC+SDF), ebenso wie Zen und Raven Ridge.

Was Zen darüber hinaus bietet sind extra Verbindungsmöglichkeiten über GMI(Global Memory Interconnect)/IFOP (Infinity Fabric on Package) und XGMI/IFIS (Infinity Fabric InterSocket).
Infinity Fabric (IF) - AMD - WikiChip

Der Vorteil liegt vor allem im professionellen Bereich, wo deutlich häufiger Daten unter den Prozessoren ausgetauscht werden und man größere Bandbreiten benötigt.
Zusätzlich soll xGMI auch bessere Zugriffslatenzen bieten und Cache-Kohärenz, dass heißt die Daten und ihre Speicheradressen werden automatisch abgeglichen, sodass keine Inkonsistenzen hervortreten die zu falschen Ergebnissen führen könnten bzw. sodass Entwickler es nicht explizit selber managen müssen.

Das ist eine tolle Sache und ermöglicht GPUs und CPUs viel enger miteinander zu arbeiten und das Entwickler weniger Eigenaufwand betreiben müssen.
Aber die Bandbreite mit 50-300GB/s, je nachdem wie viele Links bereitgestellt werden, ist bei GPUs deutlich geringer, als der lokale Speicher, welcher bei den Herstellern aktuell eher 400-1000GB/s durchpumpt.
Threadripper/EPYC sind im Vergleich eine andere Geschichte, dort bietet ein Link praktisch die gleiche Geschwindigkeit an, wie der lokale Speicherzugriff mit ~40GB/s, aber selbst das zeigt sich als nicht ausreichend bei einigen Anwendungen an, die Daten häufig austauschen, da bei den internen Last-Level-Caches >300GB/s durchgepumpt werden, eine Größenordnung mehr, bei GPUs wird es noch einmal viel krasser, dort bieten die internen Strukturen TB/s an.
Entsprechend ist man noch weit entfernt durch solche Links bei GPUs effektiv ein ähnliches Konzept wie bei Threadripper/EPYC mit mehreren dies auf einer Platine umzusetzen.
Das Stichwort Skalierbarkeit bei Navi hat mit etwas völlig anderem zu tun.
 
Naja, vielleicht trifft ja dann Rolloras RT Theorie als MCM zu, dass wäre ja dann zumindestens schon mal ein Anfang.

MfG

Wobei es wirklich nur eine Spekulation zu einem in der Realität möglichen Einsatzzweck ist. Also keine Theorie im Sinne "ihr werdet sehen, das kommt dann so mit Navi" sondern damit meinte ich: das würde die Technik ermöglichen bzw. Vereinfachen. Ob AMD das wirklich so macht steht auf einem anderen Blatt. Mit Intels EMIB wär das sogar schon möglich (gut: möglich ist sowas auch ohne EMIB aber halt mit Einschränkungen).

Die Theorie lässt hier ja sehr viel Spielraum: es wäre auch möglich einen reinen Raytracing-Chip mit jedem beliebigen Hersteller zu kombinieren. Ähnlich wie Multi-GPU am Anfang von Vulkan mal mit einem AMD&Nvidia gemischten Gespann funktioniert hat.

Falls du das nicht mitbekommen hast: das war eigentlich ganz spannend, man konnte jede beliebige Karte miteinander kombinieren. Also nicht nur zwei verschiedene AMDs sondern auch verschiedene AMDs mit verschiedene Nvidias
Ashes GPU Performance: Single & Mixed High-End GPUs - GeForce + Radeon: Previewing DirectX 12 Multi-Adapter with Ashes of the Singularity

Und da sind wir jetzt wieder beim Wort Skalierbarkeit, denn eigentlich ist das ein paradebeispiel von "Skalierbarkeit", die die API ermöglicht.

Aber wie gesagt, der Spielraum des Theoretisierens lässt es ja auch zu, dass man sagt, man verbaut einen Nvidia Grafikchip mit einer AMD Raytracing-Einheit (heißt dann wohl RTU oder RPU). Oder mit Intels Xeon Phi Prozessoren (Knights Mill oder später)
Xeon Phi - Wikipedia

Wenn du dich erinnerst bzw. falls du das gewusst hast, gibts ja auch einige Quake Versionen (s. unten) die rein auf der CPU Raytraced liefen, ist die CPU also Potent genug und die Programmierung darauf ausgelegt, ist es kein wirkliches Problem, dass CPU und GPU hier zusammenarbeiten. Raytracing ist zwar Rechenintensiv, aber durchaus auch recht simpel.

Hier der Link zu Daniel Pohls Website, weiter unten einige andere interessante Links zum Thema:

Quake 3: Ray Traced
er hat auch jeweils eine Seite für wolfenstein (wolfrt.de) Quake Wars (qwrt.de) Quake 4 (q4rt.de) usw...
Das ist die offizielle Forschung an der Intel seit Jahren arbeitet. Wenn Nvidia sagt sie arbeiten seit 10 Jahren dran (es sind schon mehr, Nvidia hat schon davor was mit RT gemacht), dann eben auch andere. Daniel Pohl hat damit vor 16+ Jahren begonnen. Er arbeitet ja nun bei Intel, die haben auch auf ihrer eigenen Seite mal ein bisschen was dazu geschrieben:
Quake Wars* Gets Ray Traced | Intel(R) Software


Quake Wars: Ray Traced - Wikipedia
VOGONS • View topic - Quake 3/4/Wars raytraced
https://www.quake3world.com/forum/viewtopic.php?f=7&t=36482
https://www.pcper.com/reviews/Graphics-Cards/Ray-Tracing-and-Gaming-Quake-4-Ray-Traced-Project
http://raytracey.blogspot.com/2016/06/real-time-path-traced-quake-2.html bzw http://amietia.com/q2pt.html (in diesem Fall läuft das Path Tracing auf der GPU. Falls du wissen möchtest was Path Tracing ist, wird es hier sehr einfach und gut erklärt https://chunky.llbit.se/path_tracing.html )

bei manchen dieser Links kannst du dir auch Source Code ansehen um zu sehen, was ein Raytracer so macht

Zu bedenken ist, dass das damals zwar nicht so gut aussah wie heutige Spiele, aber auf das Raytracing auf für heutige verhältnisse lächerliche CPUs lief - also durchaus heute möglich ist, gewisse Berechnungen auf der CPU zu haben (vorallem mit Monster wie Threadripper und Epyc)

Die Quake Engine dürfte diesbezüglich besonders leicht zu modifizieren sein, wie auch etwa die Videos zum (Quake 3 Engine basierten) Star Trek: Elite Force Raytraced zeigen:
https://www.youtube.com/watch?v=jLFrP0c7VWw

Natürlich ist dies nur ein kleiner Ausschnitt der Technik

Mit Raytracing ist halt vieles möglich. Du kannst es nur im kleinen RAhmen halten (Reflexionen) du kannst damit aber natürlich fast alles berechnen lassen, die gesamte Beleuchtung etc.
Es ist theoretisch auch möglich damit die Kollisionsabfragen zu machen (würde so mancher Physik helfen)
 
Zuletzt bearbeitet:
Das Stichwort Skalierbarkeit bei Navi hat mit etwas völlig anderem zu tun.

Ich hatte schon gefühlte 1000 mal hier geschrieben das Navi keinen MCM-Ansatz hat, und es gab auch immer wieder News dazu, z.B. diese hier:

Im Interview mit pcgamesn.com gab AMDs neuer GPU-Chefarchitekt David Wang zu verstehen, dass das zumindest im Desktop-Bereich noch nicht der Fall sein wird. Der mit Ryzen und Vega eingeführte Infinity Fabric als Interconnect ermögliche zwar die einfache Kombinierung verschiedener IP-Blöcke, allerdings nur innerhalb eines einzelnen Siliziumchips. Ein Multi-Chip-Design müsste sich für Spieleentwickler wie eine einzelne GPU darstellen, damit das Konzept interessant wäre. Die Forschung gehe unter anderem in diese Richtung, praktikabel sei das aber noch nicht.
Folglich wird die Navi-GPU für den Desktop einen einzelnen, monolithischen Siliziumchip darstellen. Das unterstreicht die Mutmaßung, dass Navi den Mainstream-, nicht aber den High-End-Markt bedienen werde. Soweit PC Games Hardware auf der Computex 2018 vernehmen konnte, soll die Desktop-Navi-GPU in 7 nm etwas kleiner ausfallen als Polaris 10/20 in 14 nm. Das Attribut Skalierbarkeit ließe sich auch so interpretieren, dass AMD die Auslastung größerer GPUs verbessert, mehr Shader also leistungstechnisch besser skalieren. Die GCN-Architektur hat seit jeher Probleme, die Leistung großer GPUs mit vielen Compute Units auf die Straße zu bringen.
http://www.pcgameshardware.de/AMD-R...s/Navi-monolithisches-GPU-Design-MCM-1258744/
 
Hier ist übrigens so ziemlich das letzte, was ich von Daniel Pohl zum Thema Raytracing gefunden hab Experimental Cloud-based Ray Tracing Using Intel(R) MIC Architecture for Highly Parallel Visual Processing | Intel(R) Software

#Bei einer der Links die ich oben dazu gegeben habe ist übrigens eine nette Grafik dabei, wieviele "Samples" oder "Rays" man braucht um ein sauberes Bild zu haben.
Das sollte auch etwas zeigen, wie sehr man Raytracing eben skalieren kann bzw wie viel man wirklich "braucht". Nämlich bei weitem nicht die native Auflösung (der Rest wird skaliert/interpoliert)
1008619-amd-vega-20-xgmi-interconnect-als-nv-link-konkurrent-spp-compare.gif

https://chunky.llbit.se/spp-compare.gif
 

Anhänge

  • spp-compare.gif
    spp-compare.gif
    1,6 MB · Aufrufe: 476
Haltet ihr es technisch für möglich das NV mit nvlink zwei GPUs zur einer für das System zusammenschalten kann?

also auch für gamer
 
Haltet ihr es technisch für möglich das NV mit nvlink zwei GPUs zur einer für das System zusammenschalten kann?

also auch für gamer
Ich habe keine Ahnung welche Anpassungen es benötigen würde, um zwei GPUs als Eine anzumelden, aber falls es möglich wäre, würde es miserabel laufen.
Wenn Abhängigkeiten bei der Arbeitslast bestehen, müsste man so etwas auflösen und bei Bedarf Daten hin und her kopieren müssen, die im besten Fall im Video-RAM wären, sprich mit >500GB/s angebunden und im schlimmsten Fall beim Chip selber im L2$ oder noch tieferen Speicherstruktuturen, dann sind es schon mindestens TB/s über die wir reden.
Ein GV100 mit 6 NVLINKs bietet 300GB/s, ein GT102 scheint nur 2 Links anzubieten, also 100GB/s.
Das reicht nie und nimmer für eine gute Performance aus, wenn die Arbeitslast so aufgestellt ist, als ob das eine einzelne GPU wäre.
 
Grundsätzlich ist es möglich.
Jedoch sind der kritische Punkt neben der Bandbreite auch die Zugriffslatenzen auf Speicher und das Controlling. Die für die GeForce Karten verfügbare Bandbreite von 100GB/s wird weder für den Zugriff auf Speicher der jeweils anderen Karte nicht ausreichen und die Koordinierung der beiden Karten ist massiv aufwändig für Spiele. Ich denke, dass es nicht funktionieren wird.
Es wäre allerdings schön, denn wäre der Fluch von SLI kein Problem mehr.
 
Was soll man denn anpassen müssen, wenn Nvidia bei gesteckten NVlink eine einzelne GPU silutliuert?

In erster Linie "spricht" die Software mit dem Treiber und wenn der Treiber sagt: jo hier ist nur einer.. Aber mal schauen ob es das Konzept überhaupt gibt

Jensen hat auf der Präsentation gesagt "erweitere deine GPU selbst" NVLink die Brücke kosten ca. 80 EUR da muss doch ein Konzept dahinter stecken das mehr bietet als einfaches SLI.
 
Zuletzt bearbeitet:
Hier ist übrigens so ziemlich das letzte, was ich von Daniel Pohl zum Thema Raytracing gefunden hab Experimental Cloud-based Ray Tracing Using Intel(R) MIC Architecture for Highly Parallel Visual Processing | Intel(R) Software

#Bei einer der Links die ich oben dazu gegeben habe ist übrigens eine nette Grafik dabei, wieviele "Samples" oder "Rays" man braucht um ein sauberes Bild zu haben.
Das sollte auch etwas zeigen, wie sehr man Raytracing eben skalieren kann bzw wie viel man wirklich "braucht". Nämlich bei weitem nicht die native Auflösung (der Rest wird skaliert/interpoliert)
1008619-amd-vega-20-xgmi-interconnect-als-nv-link-konkurrent-spp-compare.gif

https://chunky.llbit.se/spp-compare.gif

Moment mal - zu geringe SPP - ist das womöglich die Erklärung für das gestern von mir beobachtete Bildrauschen in BF V unter DX12?
Das dürfte doch auf meiner Radeon gar keine Relevanz haben!? Sieht aber 1:1 danach aus.
Besonders in dunkleren Arealen ist mir das gleich aufgefallen. Und nur unter DX12.
 
Zurück