AMD Navi: Der Vega-Nachfolger bleibt monolithisch im Desktop

Das hat technische Gründe warum man die Infinite Fabric nicht einfach für eine GPU-Lösung nehmen kann.

PCGH schrieb:
Der mit Ryzen und Vega eingeführte Infinity Fabric als Interconnect ermögliche zwar die einfache Kombinierung verschiedener IP-Blöcke, allerdings nur innerhalb eines einzelnen Siliziumchips. Ein Multi-Chip-Design müsste sich für Spieleentwickler wie eine einzelne GPU darstellen, damit das Konzept interessant wäre.
 
Weil es in dem Bereich um gute Compute-Leistung geht.
Navi wurde für die PS 5 designt, und ist ein reiner Gaming-Chip.
Für den professionellen Bereich ist Vega deutlich besser.
Eigentlich wäre ganz schön, wenn alle GamerGPUs endlich auch deutlich mehr Computeleistung (freigegeben) bekommen. Dann könnten mehr rechenintensive Physik Spielerein umgesetzt werden. Nett wäre z. B., wenn nicht nur Lara in TR simuliertes Haar hätte, während alle anderen NPCs drauf verzichten müssen da die GPU zu lahm sind.
 
Nvidia ist seit über 10 an einer MCM-Lösung dran, und noch weit entfernt davon es umsetzen zu können.
Das wäre ein Wunder gewesen, wenn AMD mit der geschwächten RTG das irgendwie umsetzen kann.

Hä wieso ?

Die Infinity Fabric ist schließlich schon ein funktionales Bindeglied bei MCM und funktioniert auch bei Threadripper ziemlich exzellent.
Entsprechend wage ich zu behaupten, dass AMD in der Richtung wesentlich mehr Erfahrung als Nvidia hat.
Schließlich bringen die grad auch Intel mit dem 32 Kern Threadripper ins wanken.
Das sind schließlich nur 4 aneinander geklebte Dies, welche den riesiegen monolithischen Intel Dies mit hochkomplexem neuen Mesh massive Konkurrenz machen können obwohl diese Dies nur über die IF via RAM kommunizieren können.
 
Es steht doch so gar in der News selbst drin, dass die IF dafür ungeeignet ist.
Ich suche noch einmal die Infos aus dem 3dcenter dazu raus.

nVidia forscht an MCM-basierten Grafikchips | 3DCenter.org


So gesehen würde ein einziger Navi-Chip dann sogar viel mehr Sinn ergeben – als Basis für weitere Lösungen für das HighEnd-Segment (zwei Navi-Chips zusammenarbeitend) bzw. das Enthusiasten-Segment (3-4 Navi-Chips zusammenarbeitend). Dieser Ansatz ist nicht gänzlich von der Hand zu weisen, allerdings meinte AMD mit diesen Roadmap-Einträgen wohl eher die Problematik der Limitationen der GCN-Architektur, was zum Zeitpunkt der ersten Roadmaps mit Navi-Nennung von außen einfach nur schwer zu erkennen war. Gleichfalls würde sich der MultiChip-Ansatz mit der Darstellung seitens Fudzilla beißen, das AMD bei Navi nur im Midrange/Performance-Segment zu gange wäre – ein MultiChip-Ansatz wäre je gerade dafür gedacht, viele verschiedene Performance-Segmente zu erreichen.

Den größten Störstein zu dieser These bildet aber immer noch, das diesbezüglich der technologische Durchbruch fehlt: Noch ist keine Möglichkeit gefunden, heute übliche Rasterizer-Grafik mit annehmbarer Effizienz auf mehrere Grafikchips zu verteilen. Die früher für SLI & CrossFire eingesetzten Methoden sind zumeist ineffizient oder beißen sich mit neuartigen Grafikeffekten, sind also heuer nicht mehr geeignet. Wirklich einsetzbar wäre ein MultiChip-Ansatz aus heutiger Sicht nur, sofern die Grafikchips für das Spiel vollkommen unsichtbar als virtuell nur ein Grafikchip zusammenarbeiten könnten. Auf Treiber-Ebene ist dies sicherlich realisierbar – aber um das ganze performant hinzubekommen, sind höchstwahrscheinlich große Interfaces der einzelnen Grafikchips untereinander vonnöten, was dann deren Kostenfaktor nach oben treibt. Sicherlich forscht man an so etwas – aber man forscht daran eigentlich auch schon seit den letzten 10 Jahren, bislang ist nichts beachtbares hierbei herausgekommen. Wenn AMD nun einfach so (fast) aus dem Nichts dieses Problem bei Navi gelöst hätte, wäre doch einigermaßen überraschend. Eher wahrscheinlich ist, das der Multichip-Ansatz erst dann realisiert wird, wenn entweder die zu langsamen Fortschritte bei der Chipfertigung keine andere Möglichkeit mehr offenlassen – oder aber wenn sich (die sehr gut MultiChip-geeignete) RayTracing-Grafik derart durchgesetzt hat, das man auf performante Rasterizer-Grafik verzichten kann.
Hardware- und Nachrichten-Links des 12. April 2018 | 3DCenter.org

Intels EMIB wäre z.B. ein Schritt in die richtige Richtung um eine Multi-Chip-GPU zu entwickeln.

Mittels der "Embedded Multi-Die Interconnect Bridge" spart man sich den von HBM-befeuerten Grafikchips bekannten Interposer und damit auch das damit einhergehende komplizierte Packaging – die Intel-Lösung ist insgesamt eleganter und damit auch viel eher tauglich für den Masseneinsatz. Interessant wäre, wenn nun AMD im Ausgleich für die Zurverfügungstellung seiner Grafiklösung Zugriffs auf Intels EMIB-Verfahren bekommen würde – dann könnte AMD nämlich wirklich in Richtung MultiChip-Grafikkarten und eventuell auch eigener CPU/GPU-Kombichips durchstarten. Ob Intel diesen Zugang gewährt, ist zu diesem Zeitpunkt natürlich vollkommen unklar – wäre aber für AMD sicherlich mehr Wert als irgendwelche Geldzahlungen für das Projekt des gemeinsamen Intel/AMD-Kombichips.
Hardware- und Nachrichten-Links des 11./12. November 2017 | 3DCenter.org
 
Das ist spekulativ, ob die bisherige IF-Architektur ungeeignet wäre bzw. es viel Aufwand darstellen würde das passend zu skalieren.
Wenn AMD über Interposer/EMIB ähnliche Umsetzungen IF auf über 512GB/s bringen kann, dann passt es vielleicht schon jetzt.
Aber für AMD stehen gerade nur Interposer zur Verfügung, ungünstig für einen MCM Ansatz, da nicht genügend Platz bzw. riesige Interposer nötig wären.

Und viel komplexer müsste die Umsetzung der ganzen Maschine sein, wo nicht nur das Fabric unter den Chips wichtig ist, sondern das die ganze Funktionsweise und Synchronisation untereinander effizient funktioniert, da bräuchte es Anpassungen am Command-Processor, dem Auslastungstracking der Chiplets, Cache-Anpassungen usw.
Das ist sicherlich einer bzw. der primäre Faktor, wieso man das noch nicht umsetzt.
 
Wenn Sony tatsächlich die Anforderungen für Navi vorgegeben hat, könnte man hier tatsächlich das erste Mal bei GCN einen abgespeckten Gamer-Chip sehen, den GPGPU-Ballast will Sony sicherlich nicht im Design haben um Fläche und Strom zu sparen. Auch schön, dass Wang zwei GPU-Linien für HPC und Gaming fahren will, es geht wohl bergauf. Who wants some Wang? :ugly:
 
@Locuza:
Wang von der RTG hat das doch selbst begründet, warum dass nicht funktioniert aktuell.

Und in einer News zu Nvidias MCM-Forschung von 2017 kommt man zu den selben Schlussfolgerungen.
nVidia forscht an MCM-basierten Grafikchips | 3DCenter.org

So sah Nvidias Ansatz 2017 aus:


nVidia-MCM-Grafikchip_Bild2.png



Für HPC-Lösungen ist das ein guter Ansatz, und da könnte sich dass lohnen.
Koduri arbeitet bei Intel bestimmt schon dran.
 
Zuletzt bearbeitet:
Das Problem dürfte doch auch sein, dass die einzelne GPU die passenden Daten im eigenen RAM vorhalten muss um z.B. die Texturierung zu übernehmen. Also müsste der Scheduler vorher schon die Aufgaben an die Einheiten mit den passenden Infos im RAM verteilen oder es muss aufwändig zwischen den GPUs rum kopiert werden. Alternativ hat jede GPU wieder alle Infos vorliegen, was wie bei 3Dfx den verfügbaren RAM durch die Anzahl der GPUs teilt.
 
Eigentlich wäre ganz schön, wenn alle GamerGPUs endlich auch deutlich mehr Computeleistung (freigegeben) bekommen. Dann könnten mehr rechenintensive Physik Spielerein umgesetzt werden. Nett wäre z. B., wenn nicht nur Lara in TR simuliertes Haar hätte, während alle anderen NPCs drauf verzichten müssen da die GPU zu lahm sind.

Die Computeleistung der freigegebenen Karten kommt nicht aus dem nichts, sondern es werden entweder zusätzliche, spezialisierte Recheneinheiten (und im Gegenzug weniger herkömmliche) verbaut, oder künstliche Drosseln im Compute-Einsatz entfernt. In beiden Fällen gilt: Intensivere Compute-Nutzung würde eine reduzierte Renderleistung nach sich ziehen. Du kannst dann vielleicht fein tesseliertes und sauber animiertes Haar an allen Charakteren bewundern – aber nur in 720p.


Hä wieso ?

Die Infinity Fabric ist schließlich schon ein funktionales Bindeglied bei MCM und funktioniert auch bei Threadripper ziemlich exzellent.
Entsprechend wage ich zu behaupten, dass AMD in der Richtung wesentlich mehr Erfahrung als Nvidia hat.
Schließlich bringen die grad auch Intel mit dem 32 Kern Threadripper ins wanken.
Das sind schließlich nur 4 aneinander geklebte Dies, welche den riesiegen monolithischen Intel Dies mit hochkomplexem neuen Mesh massive Konkurrenz machen können obwohl diese Dies nur über die IF via RAM kommunizieren können.

Nvidia hat in Form von NVLink auch ein paar Interconnect-Erfahrungen, aber die Datentransferrate heutiger Technologien ist einfach zu niedrig für Multi-Chip-GPUs. Einzig das HMC-Interface unterstützt mehrere gleichrangige Teilnehmer und wäre entsprechend skalierbar, aber wahrscheinlicher sind für die Zukunft komplette Neuentwicklungen – möglicherweise für eine sehr ferne Zukunft. Denn neben der reinen technischen Machbarkeit stellt sich bei GPUs auch immer die Frage nach dem Nutzen: Man gewinnt wenig, wenn das zusätzliche Interface mehr Entwicklungszeit verschlingt als die copy-paste-Skalierung einer Architektur über mehrere Chipgrößen und zudem die Gesamtgröße gegenüber monolithischen Chips um 20 Prozent steigt, um genug Verbindungskanäle unterzubringen. Man vergleiche in diesem Zusammenhang auch den Siliziumbedarf pro Streamprozessor zwischen low- und high-end GPUs. Je nach Yield-Rate sind monolithische Designs sogar günstiger. Nicht ganz ohne Grund stellen sie zwei Jahrzehnte nach den ersten Endkunden-MCMs weiterhin den Standard in großen Teilen des CPU-Marktes dar – und CPUs sind dank der kleineren Datenmengen eigentlich MCM-freundlicher als moderne GPUs.
 
Zuletzt bearbeitet:
Das ist spekulativ, ob die bisherige IF-Architektur ungeeignet wäre bzw. es viel Aufwand darstellen würde das passend zu skalieren.
Und danach versuchst du zu erklären, warum die IF vielleicht doch geeignet wäre.

Ich traue mir nicht zu mehr als Wang zu wissen, du vielleicht? ^^
 
MCM Chipübergreifend wird wahrscheinlich für Grafik nie funktionieren, es würde mich zumindest ziemlich wundern.

Im HPC-Bereich ist es sinnvoll, weil man eben parallel an diversen Daten arbeiten kann und diese eben auf die diversen Chips aufteilen kann. Dies ist bei Grafik so aber nicht möglich, es werden ständig Daten ausgetauscht werden müssen. Heutige GPUs haben ja uach schon große Crossbars, über die Daten ausgetauscht werden, nur sind die eben um Größenordnungen schneller, als was man extern über MCM laufen lassen kann. Und unterm Strich ist dann eben ein monolitscher Chip mit schneller Crossbar trotz weniger Nominalleitung deutlich schneller, als mehrere MCM-Module - für Grafik, wohlgemerkt.
 
AMD kann im Gegensatz zu Nvidia da aber auf eine ganz andere Expertise aus dem CPU Segment zurückgreifen.
Deswegen hat AMD auch die besseren APU´s als Intel, weil man ganz einfach Ahnung von dem Thema hat.

Intel hat bei den APUs einen zigfach höheren Erfahrungsschatz als AMD. 80% der ausgelieferten Consumer CPUs sind seit Sandy Bridge APUs. Ich habe keine Zahlen aber mich würde eundern wenn die APUs von AMD auf über 5% Marktanteil seit Einführung von Ilano haben

Wo AMD also mehr Ahnung als Intel haben will weiß ich nicht. Außer du setzt bessere APU mit mehr Grafikleistung gleich. Was sonderbar wäre, da diese nur im Ausnahmefall Spielen nötig ist
 
Zuletzt bearbeitet:
Und danach versuchst du zu erklären, warum die IF vielleicht doch geeignet wäre.

Ich traue mir nicht zu mehr als Wang zu wissen, du vielleicht? ^^
Mein Einwand bezog sich auf die Aussage das IF nicht geeignet wäre für eine Verbindung.
Ich sehe das ohne konkrete Befunde als Spekulation an, worauf ich ebenso eine spekulative Annahme gegenüber gestellt habe, dass wenn AMD mit dem IF über Siliziumverbindungen hohe Bandbreiten erreichen kann, die Fabric-Architektur vielleicht sogar schon jetzt passt.

Der zweite Absatz bezieht sich auf Herausforderungen, die ich als viel schwerwiegender betrachte, wie das ganze Zusammenspiel der Chiplets, die Ansteuerung davon und Daten-Kohärenz.
Alles zusammen muss dann so gut wie möglich zusammenspielen, um für die Software transparent als eine pseudo monolithische GPU arbeiten zu können, ohne die Software prinzipiell anpassen zu müssen und ohne das die Performance total im Eimer liegt, wegen schlechten Latenzen/Bandbreiten und langsamer Synchronisation.

Wang hat sich nur oberflächlich darauf bezogen, dass für typische (Gaming) Anwendungen so ein Konzept sich durchsetzen kann, wenn für Softwareentwickler mehrere Chips sich unsichtbar als eine Einheit präsentieren.
Ganz grob wird erwähnt, dass die Herausforderungen bei GPUs höher liegen, da die NUMA-Architektur in so einem Fall viel anspruchsvoller ist, als bei CPUs.
Welche Probleme aber genau AMD von einer Umsetzung abhalten, dass wurde nicht erwähnt.
 
Intel hat bei den APUs einen zigfach höheren Erfahrungsschatz als AMD. 80% der ausgelieferten Consumer CPUs sind seit Sandy Bridge APUs. Ich habe keine Zahlen aber mich würde eundern wenn die APUs von AMD auf über 5% Marktanteil seit Einführung von Ilano haben

Wo AMD also mehr Ahnung als Intel haben will weiß ich nicht. Außer du setzt bessere APU mit mehr Grafikleistung gleich. Was sonderbar wäre, da diese nur im Ausnahmefall Spielen nötig ist

Was ist daran so abwegig dass wenn ein Hersteller eine schnellere APU herstellen kann ich von einem technischen Fortschritt ausgehe?
Ganz konkret beziehe ich mich aber darauf, dass AMD der einzige Hersteller ist der beide Sparten unter einem Dach vereint, also sowohl High End Grafik wie auch CPU´s.

Wenn einer die Dinger kombinieren kann, dann wahrscheinlich AMD. Zudem hat man Erfahrung mit Mehrkernern im CPU Bereich und kann Erfahrungen daraus ableiten.
 
Intel hat bei den APUs einen zigfach höheren Erfahrungsschatz als AMD. 80% der ausgelieferten Consumer CPUs sind seit Sandy Bridge APUs. Ich habe keine Zahlen aber mich würde eundern wenn die APUs von AMD auf über 5% Marktanteil seit Einführung von Ilano haben.

Wo AMD also mehr Ahnung als Intel haben will weiß ich nicht. Außer du setzt bessere APU mit mehr Grafikleistung gleich. Was sonderbar wäre, da diese nur im Ausnahmefall Spielen nötig ist

Quantität vs. Qualität: Du hättest vielleicht vor dem Posten mehr Wert auf die Qualität deiner Aussage legen sollen.

Hier werden im Prinzip Orangen mit Äpfeln verglichen. De facto erfüllen die Produkte beider Unternehmen den gewünschten Zweck. Für die breite Masse der Kunden sind die CPUs mit integrierter Grafikeinheit von intel völlig ausreichend. Für einen spezifischeren Einsatzzweck (wie zum Beispiel der Einsatz in Spielekonsolen oder als 0815-Spielerechner) sind sie aber offensichtlich wenig geeignet - dafür spricht auch die Tatsache, dass in XBOX oder PS keine Prozessoren von intel stecken. Daher darf man wohl getrost davon ausgehen, dass beide Unternehmen über einen umfangreichen Erfahrungsschatz verfügen - er ist nur in manchen Bereichen unterschiedlich stark ausgeprägt (z.B. Energieeffizienz vs. Spieleleistung).
 
@Locuza:
Deshalb habe ich ja die News zu Nvidia von 2017 heraus gesucht.

Nvidia versucht das mit XBARs und Intel wahrscheinlich mit der EMIB aktuell umzusetzen.
Interposer und eine abgewandelte IF sind für so eine Lösung nicht ideal.
AMD müsste dafür also eine eigene spezielle Lösung entwickeln.

Aber auch Wang sieht hier weniger Potential bei einer Gaming-GPU, viel mehr eher im HPC-Bereich, also genau dass was schon Nvidia früher erkannt hat.
 
Zuletzt bearbeitet:
Was ist daran so abwegig dass wenn ein Hersteller eine schnellere APU herstellen kann ich von einem technischen Fortschritt ausgehe?
Ganz konkret beziehe ich mich aber darauf, dass AMD der einzige Hersteller ist der beide Sparten unter einem Dach vereint, also sowohl High End Grafik wie auch CPU´s.

Wenn einer die Dinger kombinieren kann, dann wahrscheinlich AMD. Zudem hat man Erfahrung mit Mehrkernern im CPU Bereich und kann Erfahrungen daraus ableiten.
Interconnect Expertise hat von den drei Firmen jeder was.
Nvidia stellt auch SoCs mit ARM-Cores und eigenem Fabric her.
Im HPC-Segment bietet man das eigene NvLink an und neulich noch den super fetten NvSwitch der 16 GPUs mit 300GB/s kommunizieren lassen kann:
Verbindungstechnologien NVLink und NVSwitch | NVIDIA

Und Intel hat eine ganze Tüte voll mit Zeug, was alle möglichen Bereiche abdeckt.

Wenn einer die Dinger kombinieren kann, dann wohl alle, zeitlich nur etwas versetzt.

@Locuza:
Deshalb habe ich ja die News zu Nvidia von 2017 heraus gesucht.

Nvidia versucht das mit XBARs und Intel wahrscheinlich mit der EMIB aktuell umzusetzen.
Interposer und eine abgewandelte IF sind für so eine Lösung nicht ideal.
AMD müsste dafür also eine eigene spezielle Lösung entwickeln.

Aber auch Wang sieht hier weniger Potential bei einer Gaming-GPU, viel mehr eher im HPC-Bereich, also genau dass was schon Nvidia früher erkannt hat.
XBAR = Crossbar = gängiges Wort für Querverbindung.
IF könntest du genauso als XBAR bezeichnen in so einem Schaubild bezeichnen, wichtig ist die Funktionsweise vom Fabric und über welche Methoden und Dimensionen es skalieren kann.
Und ein passender Interconnect ist in dem Fall auch nur die halbe Miete, Nvidia präsentiert beim Konzept auch eine erweiterte Cache-Hierarchie und Steuerungsmechanismen, damit man auf die benötigte Praxisleistung kommt.

EMIB und Interposer unterscheiden sich für die Verbindung nicht, beide Methoden verwenden Silizium als Verbindungsmedium.
Interposer sind natürlich teurer, da deutlich mehr Fläche und somit Material benötigt wird und ab einer gewissen Größe sicherlich auch nicht angeboten werden.

Also bleibt die Frage, woher weiß man das IF ungeeignet wäre?
 
Zuletzt bearbeitet:
Die IF wurde doch für den CPU-Einsatz designt, also für kleine Datenmengen.
Für eine Multi-GPU-Lösung müsste sie ganz neu aufgebaut werden, was unterm Strich dann eher was Neues wird.

Das was Nvidia schlicht als XBARs bezeichnet ist ja auch nur ein Gedankenspiel, und wie es im Text steht noch weit von einer echten Lösung entfernt.
Da sie aber seit über 10 Jahren daran forschen, gibt es intern bestimmt schon Ideen dass umsetzen zu können.

Und wie du schon richtig erkannt hast, ist Intels EMIB ein Schritt in die richtige Richtung, um einfach viele GPUs miteinander verbinden zu können.
Aber auch Intels EMIB müsste dafür angepasst und überarbeitet werden.

Nvidia und AMD haben aber im wichtigsten Punkt Konsens, dass eine Multi-GPU-Lösung aktuell eher für den HPC-Bereich Sinn ergibt.
Und das interessiert die wenigsten User hier im Forum wirklich.
Die wollen eher eine Multi-GPU für Gaming, was aber beim aktuellen Stand der Technik eher unwahrscheinlich ist.
 
Zurück