• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Navi: Der Vega-Nachfolger bleibt monolithisch im Desktop

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu AMD Navi: Der Vega-Nachfolger bleibt monolithisch im Desktop

Auf früheren GPU-Roadmaps nannte AMD unter dem Codenamen Navi zwei Kernpunkte: Skalierbarkeit und Next-Gen-Speicher. Wagemutige Vermutungen gingen in Richtung Multi-Chip-Module, auf denen AMD mehrere Navi-GPUs zu einer großen vereinen könnte. Der neue Chefarchitekt David Wang stellte klar, dass das im Desktop-Segment vorerst nicht der Fall sein wird.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Navi: Der Vega-Nachfolger bleibt monolithisch im Desktop
 

INU.ID

Moderator
Teammitglied
Eine hypothetische Radeon RX 680 - der echte Name ist noch nicht bestätigt - soll jedenfalls ein gutes Stück schneller ausfallen als die RX Vega 64 und sich mit der GTX 1080 Ti anlegen können, bloß dass sie deutlich günstiger wird.
Die Leistung der 1080Ti mit <200Watt und für <400€, sowas würde mir schon reichen. Allerdings klingt "anlegen können" für mich eher nach "hier und da wird sie mal an eine Ti rankommen, in der Regel aber nicht", und dabei vermutlich auch noch mit entsprechend hohem Verbrauch...

Dann ballert wenigstens mal wieder ein paar interessante "Features" in die GPU. Ein ressourcenschonendes "Super-Up-/Downscaling" bis >10k? Inkl. der Möglichkeit bis da oben hin quasi ohne (FPS-)Verlust direkt in h.265 aufzunehmen. Oder keine Ahnung, irgendwas anderes "Besonderes" eben. ^^

Edit: Eine TV-Karte (DVB-C/DVB-S) sollte heute doch auch nur noch einen winzigen Chip auf einer Graka erfordern. ^^
 
Zuletzt bearbeitet:

Zer011

Kabelverknoter(in)
Schneller als VEGA 64 und zugleich günstiger, dass klingt zu gut, um wahr zu sein. Wenn es stimmen sollte, dann wird AMD abseits von Mining ebenfalls einen BOOM haben!
 

hanfi104

Volt-Modder(in)
Schneller als VEGA 64 und zugleich günstiger, dass klingt zu gut, um wahr zu sein. Wenn es stimmen sollte, dann wird AMD abseits von Mining ebenfalls einen BOOM haben!
Das ist doch ein muss, wenn man auf 7nm wechselt. Der Chip wird kleiner und sollte schneller Takten (bei gleichem Verbrauch). Das wichtigste ist, kommt da mehr als nur der Fertigungswechsel rüber? Vega ist nicht genug, Vega in 7nm wird immer noch nicht genug sein (Nvidia könnte ja auch Pascal auf 7nm klatschen).
 
M

matty2580

Guest
Und damit haben sich alle Gerüchte um Navi bestätigt.
Dazu kommt das neueste Gerücht, dass Navi hauptsächlich für die PS 5 entwickelt wurde.

Navi ist also ein monolitischer Chip für den Mainstream, kein MCM, und auch kein High-End-Ableger.
Vega wird also wie schon bei Fiji parallel mitlaufen.

Navi ist aber trotzdem ein Sonderfall, da der Chip erstmals hauptsächlich für die PS 5 gedacht ist, und abgewandelt nebenbei noch für den PC verkauft wird.
Das Gegenstück von Nvidia zu Navi wird also der Nachfolger der 1060 sein.
 

Snowhack

BIOS-Overclocker(in)
Interessant also hat AMD leider nichts in der Hand :-( für den High End Bereich.

aber wo ist die News zu den neuen Gerüchten zur GTX1180 ?

hat PCGH etwas geschlafen ?

kommt bestimmt gleich noch :-)
 

Rollora

Kokü-Junkie (m/w)
Schneller als VEGA 64 und zugleich günstiger, dass klingt zu gut, um wahr zu sein. Wenn es stimmen sollte, dann wird AMD abseits von Mining ebenfalls einen BOOM haben!

Das wirds dann locker geben. Schon jetzt mit der 1080 und dann mit dem Turing oder schon dessen 7nm Nachfolger
 
M

matty2580

Guest
"Skalierbarkeit" kann viel heißen.
Daraus 1080ti-Leistung zu schlussfolgern ist hoch spekulativ.
Und auch GP 104 Leistung würde ich erst einmal hinterfragen.
Wenn die IPC wie von Tonga/Fiji auf Polaris verbessert wird, also ~7%, kommt man auch nicht an eine 1080 heran.
Wolfgang schrieb:
Denn bereits Polaris konnte sich bei gleicher Rohleistung um sieben Prozent von Tonga – Architektur identisch zu Fiji – absetzen.
Architektur der Radeon RX Vega untersucht (Seite 2) - ComputerBase
Und zur Erinnerung, von Polaris auf Vega hat sich die IPC gar nicht verbessert, bis heute nicht, selbst ein Jahr nach Release und mit besseren Treibern.
Das Grundgerüst zu Navi ist mit großer Sicherheit Vega gewesen.

Und da der Chip hauptsächlich für die PS 5 designt wurde, die günstig verkauft werden soll, würde ich da erst einmal tiefer stapeln mit den Hoffnungen auf Navi.
 
Zuletzt bearbeitet:
Laut News vor einigen Tagen sollte man Navi nicht vor 2020 erwarten.

In zwei Jahren klingt "1080Ti-Leistung" sicherlich nicht mehr so toll, wie heute...
 
M

matty2580

Guest
Navi ist fertig, da GPUs damit schon ab Q2 2019 verkauft werden sollen.
Und 2020 fängt Sony an die PS 5 vorzuproduzieren.
Navi müsste also einen gewaltigen Sprung in der Architektur machen, damit man an die 1080ti heran kommt.
Nur allein 7nm und einige Shader mehr reicht dafür nicht aus.
 
Zuletzt bearbeitet:

Stormado

Freizeitschrauber(in)
Das Problem ist doch, dass sich ein "mit einer 1080Ti anlegen" zwar gut anhört, aber den Leuten, die heute bereits eine 1080Ti oder Titan V haben, bringt das nichts. Auch mit meiner 1080 werde ich definitiv nicht auf ein Niveau einer 1080Ti umsteigen. Dafür ist mir der Leistungsgewinn im Gegensatz zum Preis - ich gehe von 350 bis 450 EUR aus - zu gering.

So gerne ich mal wieder eine AMD Karte im PC hätte, so wenig glaube ich aktuell daran, dass dies in den nächsten 2-4 Jahren der Fall ist. Entsprechend muss ich bei nVidia bleiben und hoffen, dass diese weiterhin gute Sprünge machen. Gerne 50 % und mehr für die nächste xx80.
 

Palmdale

BIOS-Overclocker(in)
Der mit Ryzen und Vega eingeführte Infinity Fabric als Interconnect ermögliche zwar die einfache Kombinierung verschiedener IP-Blöcke, allerdings nur innerhalb eines einzelnen Siliziumchips. Ein Multi-Chip-Design müsste sich für Spieleentwickler wie eine einzelne GPU darstellen, damit das Konzept interessant wäre. Die Forschung gehe unter anderem in diese Richtung, praktikabel sei das aber noch nicht.

... und was wurde Seitenweise in Foren fabuliert, was AMD hier auf die Beine stellen würde. Wang stellt zumindest das mal klar. Insgesamt dürfte 2019 dann das Schicksalsjahr im Gaming mit AMD werden, wenn das Lineup von Nvidia mit der 1180Ti komplettiert werden dürfte. Was stellt man Turing als Ganzes entgegen?
 
M

matty2580

Guest
Warum liefert AMD dann noch Vega in 7nm als Samples (!) aus it tatsächlicher Produktlieferung erst Ende des Jahres, wenn sie genauso gut schon Navi liefern könnten?
7nm Vega gibt es nur für den professionellen Bereich von AMD.
Selbst mit den aktuell schlechten Yields holt AMD das locker wieder rein bei den Preisen dafür.

Mit guten Yields ist bei TSMCs 7nm aber nicht vor 2019 zu rechnen.
Und genau da ist es ja auch geplant Navi auszuliefern, ab Q2 2019.
 
M

matty2580

Guest
Weil es in dem Bereich um gute Compute-Leistung geht.
Navi wurde für die PS 5 designt, und ist ein reiner Gaming-Chip.
Für den professionellen Bereich ist Vega deutlich besser.

... und was wurde Seitenweise in Foren fabuliert, was AMD hier auf die Beine stellen würde.
Ich hatte das mit Quellen aus dem 3dcenter auch mehrfach, schon fast gebetsmühlenartig, hier gepostet und dementiert.
Aber solche Argumente überlesen viele gerne.
 
Zuletzt bearbeitet:

0tze

Komplett-PC-Aufrüster(in)
So eine hypothetische RX 680 mit GTX 1080 Leistung oder mehr und um die 300€ wäre auch für mich eine interessante Karte :)
 

Gurdi

Kokü-Junkie (m/w)
Gut dass das klar gestellt wurde. Wird dann wohl noch ein wenig dauern bis wir eine Entwicklung wie bei den CPU´s sehen.
 
M

matty2580

Guest
Nvidia ist seit über 10 an einer MCM-Lösung dran, und noch weit entfernt davon es umsetzen zu können.
Das wäre ein Wunder gewesen, wenn AMD mit der geschwächten RTG das irgendwie umsetzen kann.
 

Gurdi

Kokü-Junkie (m/w)
Nvidia ist seit über 10 an einer MCM-Lösung dran, und noch weit entfernt davon es umsetzen zu können.
Das wäre ein Wunder gewesen, wenn AMD mit der geschwächten RTG das irgendwie umsetzen kann.

AMD kann im Gegensatz zu Nvidia da aber auf eine ganz andere Expertise aus dem CPU Segment zurückgreifen.
Deswegen hat AMD auch die besseren APU´s als Intel, weil man ganz einfach Ahnung von dem Thema hat.
 
M

matty2580

Guest
Das hat technische Gründe warum man die Infinite Fabric nicht einfach für eine GPU-Lösung nehmen kann.

PCGH schrieb:
Der mit Ryzen und Vega eingeführte Infinity Fabric als Interconnect ermögliche zwar die einfache Kombinierung verschiedener IP-Blöcke, allerdings nur innerhalb eines einzelnen Siliziumchips. Ein Multi-Chip-Design müsste sich für Spieleentwickler wie eine einzelne GPU darstellen, damit das Konzept interessant wäre.
 

konsolen/pczocker

Software-Overclocker(in)
Weil es in dem Bereich um gute Compute-Leistung geht.
Navi wurde für die PS 5 designt, und ist ein reiner Gaming-Chip.
Für den professionellen Bereich ist Vega deutlich besser.
Eigentlich wäre ganz schön, wenn alle GamerGPUs endlich auch deutlich mehr Computeleistung (freigegeben) bekommen. Dann könnten mehr rechenintensive Physik Spielerein umgesetzt werden. Nett wäre z. B., wenn nicht nur Lara in TR simuliertes Haar hätte, während alle anderen NPCs drauf verzichten müssen da die GPU zu lahm sind.
 

chiquita

Freizeitschrauber(in)
Nvidia ist seit über 10 an einer MCM-Lösung dran, und noch weit entfernt davon es umsetzen zu können.
Das wäre ein Wunder gewesen, wenn AMD mit der geschwächten RTG das irgendwie umsetzen kann.

Hä wieso ?

Die Infinity Fabric ist schließlich schon ein funktionales Bindeglied bei MCM und funktioniert auch bei Threadripper ziemlich exzellent.
Entsprechend wage ich zu behaupten, dass AMD in der Richtung wesentlich mehr Erfahrung als Nvidia hat.
Schließlich bringen die grad auch Intel mit dem 32 Kern Threadripper ins wanken.
Das sind schließlich nur 4 aneinander geklebte Dies, welche den riesiegen monolithischen Intel Dies mit hochkomplexem neuen Mesh massive Konkurrenz machen können obwohl diese Dies nur über die IF via RAM kommunizieren können.
 
M

matty2580

Guest
Es steht doch so gar in der News selbst drin, dass die IF dafür ungeeignet ist.
Ich suche noch einmal die Infos aus dem 3dcenter dazu raus.

nVidia forscht an MCM-basierten Grafikchips | 3DCenter.org


So gesehen würde ein einziger Navi-Chip dann sogar viel mehr Sinn ergeben – als Basis für weitere Lösungen für das HighEnd-Segment (zwei Navi-Chips zusammenarbeitend) bzw. das Enthusiasten-Segment (3-4 Navi-Chips zusammenarbeitend). Dieser Ansatz ist nicht gänzlich von der Hand zu weisen, allerdings meinte AMD mit diesen Roadmap-Einträgen wohl eher die Problematik der Limitationen der GCN-Architektur, was zum Zeitpunkt der ersten Roadmaps mit Navi-Nennung von außen einfach nur schwer zu erkennen war. Gleichfalls würde sich der MultiChip-Ansatz mit der Darstellung seitens Fudzilla beißen, das AMD bei Navi nur im Midrange/Performance-Segment zu gange wäre – ein MultiChip-Ansatz wäre je gerade dafür gedacht, viele verschiedene Performance-Segmente zu erreichen.

Den größten Störstein zu dieser These bildet aber immer noch, das diesbezüglich der technologische Durchbruch fehlt: Noch ist keine Möglichkeit gefunden, heute übliche Rasterizer-Grafik mit annehmbarer Effizienz auf mehrere Grafikchips zu verteilen. Die früher für SLI & CrossFire eingesetzten Methoden sind zumeist ineffizient oder beißen sich mit neuartigen Grafikeffekten, sind also heuer nicht mehr geeignet. Wirklich einsetzbar wäre ein MultiChip-Ansatz aus heutiger Sicht nur, sofern die Grafikchips für das Spiel vollkommen unsichtbar als virtuell nur ein Grafikchip zusammenarbeiten könnten. Auf Treiber-Ebene ist dies sicherlich realisierbar – aber um das ganze performant hinzubekommen, sind höchstwahrscheinlich große Interfaces der einzelnen Grafikchips untereinander vonnöten, was dann deren Kostenfaktor nach oben treibt. Sicherlich forscht man an so etwas – aber man forscht daran eigentlich auch schon seit den letzten 10 Jahren, bislang ist nichts beachtbares hierbei herausgekommen. Wenn AMD nun einfach so (fast) aus dem Nichts dieses Problem bei Navi gelöst hätte, wäre doch einigermaßen überraschend. Eher wahrscheinlich ist, das der Multichip-Ansatz erst dann realisiert wird, wenn entweder die zu langsamen Fortschritte bei der Chipfertigung keine andere Möglichkeit mehr offenlassen – oder aber wenn sich (die sehr gut MultiChip-geeignete) RayTracing-Grafik derart durchgesetzt hat, das man auf performante Rasterizer-Grafik verzichten kann.
Hardware- und Nachrichten-Links des 12. April 2018 | 3DCenter.org

Intels EMIB wäre z.B. ein Schritt in die richtige Richtung um eine Multi-Chip-GPU zu entwickeln.

Mittels der "Embedded Multi-Die Interconnect Bridge" spart man sich den von HBM-befeuerten Grafikchips bekannten Interposer und damit auch das damit einhergehende komplizierte Packaging – die Intel-Lösung ist insgesamt eleganter und damit auch viel eher tauglich für den Masseneinsatz. Interessant wäre, wenn nun AMD im Ausgleich für die Zurverfügungstellung seiner Grafiklösung Zugriffs auf Intels EMIB-Verfahren bekommen würde – dann könnte AMD nämlich wirklich in Richtung MultiChip-Grafikkarten und eventuell auch eigener CPU/GPU-Kombichips durchstarten. Ob Intel diesen Zugang gewährt, ist zu diesem Zeitpunkt natürlich vollkommen unklar – wäre aber für AMD sicherlich mehr Wert als irgendwelche Geldzahlungen für das Projekt des gemeinsamen Intel/AMD-Kombichips.
Hardware- und Nachrichten-Links des 11./12. November 2017 | 3DCenter.org
 

Locuza

Lötkolbengott/-göttin
Das ist spekulativ, ob die bisherige IF-Architektur ungeeignet wäre bzw. es viel Aufwand darstellen würde das passend zu skalieren.
Wenn AMD über Interposer/EMIB ähnliche Umsetzungen IF auf über 512GB/s bringen kann, dann passt es vielleicht schon jetzt.
Aber für AMD stehen gerade nur Interposer zur Verfügung, ungünstig für einen MCM Ansatz, da nicht genügend Platz bzw. riesige Interposer nötig wären.

Und viel komplexer müsste die Umsetzung der ganzen Maschine sein, wo nicht nur das Fabric unter den Chips wichtig ist, sondern das die ganze Funktionsweise und Synchronisation untereinander effizient funktioniert, da bräuchte es Anpassungen am Command-Processor, dem Auslastungstracking der Chiplets, Cache-Anpassungen usw.
Das ist sicherlich einer bzw. der primäre Faktor, wieso man das noch nicht umsetzt.
 

Diablokiller999

Freizeitschrauber(in)
Wenn Sony tatsächlich die Anforderungen für Navi vorgegeben hat, könnte man hier tatsächlich das erste Mal bei GCN einen abgespeckten Gamer-Chip sehen, den GPGPU-Ballast will Sony sicherlich nicht im Design haben um Fläche und Strom zu sparen. Auch schön, dass Wang zwei GPU-Linien für HPC und Gaming fahren will, es geht wohl bergauf. Who wants some Wang? :ugly:
 
M

matty2580

Guest
@Locuza:
Wang von der RTG hat das doch selbst begründet, warum dass nicht funktioniert aktuell.

Und in einer News zu Nvidias MCM-Forschung von 2017 kommt man zu den selben Schlussfolgerungen.
nVidia forscht an MCM-basierten Grafikchips | 3DCenter.org

So sah Nvidias Ansatz 2017 aus:


nVidia-MCM-Grafikchip_Bild2.png



Für HPC-Lösungen ist das ein guter Ansatz, und da könnte sich dass lohnen.
Koduri arbeitet bei Intel bestimmt schon dran.
 
Zuletzt bearbeitet:

Diablokiller999

Freizeitschrauber(in)
Das Problem dürfte doch auch sein, dass die einzelne GPU die passenden Daten im eigenen RAM vorhalten muss um z.B. die Texturierung zu übernehmen. Also müsste der Scheduler vorher schon die Aufgaben an die Einheiten mit den passenden Infos im RAM verteilen oder es muss aufwändig zwischen den GPUs rum kopiert werden. Alternativ hat jede GPU wieder alle Infos vorliegen, was wie bei 3Dfx den verfügbaren RAM durch die Anzahl der GPUs teilt.
 

PCGH_Torsten

Redaktion
Teammitglied
Eigentlich wäre ganz schön, wenn alle GamerGPUs endlich auch deutlich mehr Computeleistung (freigegeben) bekommen. Dann könnten mehr rechenintensive Physik Spielerein umgesetzt werden. Nett wäre z. B., wenn nicht nur Lara in TR simuliertes Haar hätte, während alle anderen NPCs drauf verzichten müssen da die GPU zu lahm sind.

Die Computeleistung der freigegebenen Karten kommt nicht aus dem nichts, sondern es werden entweder zusätzliche, spezialisierte Recheneinheiten (und im Gegenzug weniger herkömmliche) verbaut, oder künstliche Drosseln im Compute-Einsatz entfernt. In beiden Fällen gilt: Intensivere Compute-Nutzung würde eine reduzierte Renderleistung nach sich ziehen. Du kannst dann vielleicht fein tesseliertes und sauber animiertes Haar an allen Charakteren bewundern – aber nur in 720p.


Hä wieso ?

Die Infinity Fabric ist schließlich schon ein funktionales Bindeglied bei MCM und funktioniert auch bei Threadripper ziemlich exzellent.
Entsprechend wage ich zu behaupten, dass AMD in der Richtung wesentlich mehr Erfahrung als Nvidia hat.
Schließlich bringen die grad auch Intel mit dem 32 Kern Threadripper ins wanken.
Das sind schließlich nur 4 aneinander geklebte Dies, welche den riesiegen monolithischen Intel Dies mit hochkomplexem neuen Mesh massive Konkurrenz machen können obwohl diese Dies nur über die IF via RAM kommunizieren können.

Nvidia hat in Form von NVLink auch ein paar Interconnect-Erfahrungen, aber die Datentransferrate heutiger Technologien ist einfach zu niedrig für Multi-Chip-GPUs. Einzig das HMC-Interface unterstützt mehrere gleichrangige Teilnehmer und wäre entsprechend skalierbar, aber wahrscheinlicher sind für die Zukunft komplette Neuentwicklungen – möglicherweise für eine sehr ferne Zukunft. Denn neben der reinen technischen Machbarkeit stellt sich bei GPUs auch immer die Frage nach dem Nutzen: Man gewinnt wenig, wenn das zusätzliche Interface mehr Entwicklungszeit verschlingt als die copy-paste-Skalierung einer Architektur über mehrere Chipgrößen und zudem die Gesamtgröße gegenüber monolithischen Chips um 20 Prozent steigt, um genug Verbindungskanäle unterzubringen. Man vergleiche in diesem Zusammenhang auch den Siliziumbedarf pro Streamprozessor zwischen low- und high-end GPUs. Je nach Yield-Rate sind monolithische Designs sogar günstiger. Nicht ganz ohne Grund stellen sie zwei Jahrzehnte nach den ersten Endkunden-MCMs weiterhin den Standard in großen Teilen des CPU-Marktes dar – und CPUs sind dank der kleineren Datenmengen eigentlich MCM-freundlicher als moderne GPUs.
 
Zuletzt bearbeitet:
M

matty2580

Guest
Das ist spekulativ, ob die bisherige IF-Architektur ungeeignet wäre bzw. es viel Aufwand darstellen würde das passend zu skalieren.
Und danach versuchst du zu erklären, warum die IF vielleicht doch geeignet wäre.

Ich traue mir nicht zu mehr als Wang zu wissen, du vielleicht? ^^
 
MCM Chipübergreifend wird wahrscheinlich für Grafik nie funktionieren, es würde mich zumindest ziemlich wundern.

Im HPC-Bereich ist es sinnvoll, weil man eben parallel an diversen Daten arbeiten kann und diese eben auf die diversen Chips aufteilen kann. Dies ist bei Grafik so aber nicht möglich, es werden ständig Daten ausgetauscht werden müssen. Heutige GPUs haben ja uach schon große Crossbars, über die Daten ausgetauscht werden, nur sind die eben um Größenordnungen schneller, als was man extern über MCM laufen lassen kann. Und unterm Strich ist dann eben ein monolitscher Chip mit schneller Crossbar trotz weniger Nominalleitung deutlich schneller, als mehrere MCM-Module - für Grafik, wohlgemerkt.
 

Rollora

Kokü-Junkie (m/w)
AMD kann im Gegensatz zu Nvidia da aber auf eine ganz andere Expertise aus dem CPU Segment zurückgreifen.
Deswegen hat AMD auch die besseren APU´s als Intel, weil man ganz einfach Ahnung von dem Thema hat.

Intel hat bei den APUs einen zigfach höheren Erfahrungsschatz als AMD. 80% der ausgelieferten Consumer CPUs sind seit Sandy Bridge APUs. Ich habe keine Zahlen aber mich würde eundern wenn die APUs von AMD auf über 5% Marktanteil seit Einführung von Ilano haben

Wo AMD also mehr Ahnung als Intel haben will weiß ich nicht. Außer du setzt bessere APU mit mehr Grafikleistung gleich. Was sonderbar wäre, da diese nur im Ausnahmefall Spielen nötig ist
 
Zuletzt bearbeitet:

Locuza

Lötkolbengott/-göttin
Und danach versuchst du zu erklären, warum die IF vielleicht doch geeignet wäre.

Ich traue mir nicht zu mehr als Wang zu wissen, du vielleicht? ^^
Mein Einwand bezog sich auf die Aussage das IF nicht geeignet wäre für eine Verbindung.
Ich sehe das ohne konkrete Befunde als Spekulation an, worauf ich ebenso eine spekulative Annahme gegenüber gestellt habe, dass wenn AMD mit dem IF über Siliziumverbindungen hohe Bandbreiten erreichen kann, die Fabric-Architektur vielleicht sogar schon jetzt passt.

Der zweite Absatz bezieht sich auf Herausforderungen, die ich als viel schwerwiegender betrachte, wie das ganze Zusammenspiel der Chiplets, die Ansteuerung davon und Daten-Kohärenz.
Alles zusammen muss dann so gut wie möglich zusammenspielen, um für die Software transparent als eine pseudo monolithische GPU arbeiten zu können, ohne die Software prinzipiell anpassen zu müssen und ohne das die Performance total im Eimer liegt, wegen schlechten Latenzen/Bandbreiten und langsamer Synchronisation.

Wang hat sich nur oberflächlich darauf bezogen, dass für typische (Gaming) Anwendungen so ein Konzept sich durchsetzen kann, wenn für Softwareentwickler mehrere Chips sich unsichtbar als eine Einheit präsentieren.
Ganz grob wird erwähnt, dass die Herausforderungen bei GPUs höher liegen, da die NUMA-Architektur in so einem Fall viel anspruchsvoller ist, als bei CPUs.
Welche Probleme aber genau AMD von einer Umsetzung abhalten, dass wurde nicht erwähnt.
 

Gurdi

Kokü-Junkie (m/w)
Intel hat bei den APUs einen zigfach höheren Erfahrungsschatz als AMD. 80% der ausgelieferten Consumer CPUs sind seit Sandy Bridge APUs. Ich habe keine Zahlen aber mich würde eundern wenn die APUs von AMD auf über 5% Marktanteil seit Einführung von Ilano haben

Wo AMD also mehr Ahnung als Intel haben will weiß ich nicht. Außer du setzt bessere APU mit mehr Grafikleistung gleich. Was sonderbar wäre, da diese nur im Ausnahmefall Spielen nötig ist

Was ist daran so abwegig dass wenn ein Hersteller eine schnellere APU herstellen kann ich von einem technischen Fortschritt ausgehe?
Ganz konkret beziehe ich mich aber darauf, dass AMD der einzige Hersteller ist der beide Sparten unter einem Dach vereint, also sowohl High End Grafik wie auch CPU´s.

Wenn einer die Dinger kombinieren kann, dann wahrscheinlich AMD. Zudem hat man Erfahrung mit Mehrkernern im CPU Bereich und kann Erfahrungen daraus ableiten.
 

Hofnaerrchen

Freizeitschrauber(in)
Intel hat bei den APUs einen zigfach höheren Erfahrungsschatz als AMD. 80% der ausgelieferten Consumer CPUs sind seit Sandy Bridge APUs. Ich habe keine Zahlen aber mich würde eundern wenn die APUs von AMD auf über 5% Marktanteil seit Einführung von Ilano haben.

Wo AMD also mehr Ahnung als Intel haben will weiß ich nicht. Außer du setzt bessere APU mit mehr Grafikleistung gleich. Was sonderbar wäre, da diese nur im Ausnahmefall Spielen nötig ist

Quantität vs. Qualität: Du hättest vielleicht vor dem Posten mehr Wert auf die Qualität deiner Aussage legen sollen.

Hier werden im Prinzip Orangen mit Äpfeln verglichen. De facto erfüllen die Produkte beider Unternehmen den gewünschten Zweck. Für die breite Masse der Kunden sind die CPUs mit integrierter Grafikeinheit von intel völlig ausreichend. Für einen spezifischeren Einsatzzweck (wie zum Beispiel der Einsatz in Spielekonsolen oder als 0815-Spielerechner) sind sie aber offensichtlich wenig geeignet - dafür spricht auch die Tatsache, dass in XBOX oder PS keine Prozessoren von intel stecken. Daher darf man wohl getrost davon ausgehen, dass beide Unternehmen über einen umfangreichen Erfahrungsschatz verfügen - er ist nur in manchen Bereichen unterschiedlich stark ausgeprägt (z.B. Energieeffizienz vs. Spieleleistung).
 
M

matty2580

Guest
@Locuza:
Deshalb habe ich ja die News zu Nvidia von 2017 heraus gesucht.

Nvidia versucht das mit XBARs und Intel wahrscheinlich mit der EMIB aktuell umzusetzen.
Interposer und eine abgewandelte IF sind für so eine Lösung nicht ideal.
AMD müsste dafür also eine eigene spezielle Lösung entwickeln.

Aber auch Wang sieht hier weniger Potential bei einer Gaming-GPU, viel mehr eher im HPC-Bereich, also genau dass was schon Nvidia früher erkannt hat.
 
Zuletzt bearbeitet:

Locuza

Lötkolbengott/-göttin
Was ist daran so abwegig dass wenn ein Hersteller eine schnellere APU herstellen kann ich von einem technischen Fortschritt ausgehe?
Ganz konkret beziehe ich mich aber darauf, dass AMD der einzige Hersteller ist der beide Sparten unter einem Dach vereint, also sowohl High End Grafik wie auch CPU´s.

Wenn einer die Dinger kombinieren kann, dann wahrscheinlich AMD. Zudem hat man Erfahrung mit Mehrkernern im CPU Bereich und kann Erfahrungen daraus ableiten.
Interconnect Expertise hat von den drei Firmen jeder was.
Nvidia stellt auch SoCs mit ARM-Cores und eigenem Fabric her.
Im HPC-Segment bietet man das eigene NvLink an und neulich noch den super fetten NvSwitch der 16 GPUs mit 300GB/s kommunizieren lassen kann:
Verbindungstechnologien NVLink und NVSwitch | NVIDIA

Und Intel hat eine ganze Tüte voll mit Zeug, was alle möglichen Bereiche abdeckt.

Wenn einer die Dinger kombinieren kann, dann wohl alle, zeitlich nur etwas versetzt.

@Locuza:
Deshalb habe ich ja die News zu Nvidia von 2017 heraus gesucht.

Nvidia versucht das mit XBARs und Intel wahrscheinlich mit der EMIB aktuell umzusetzen.
Interposer und eine abgewandelte IF sind für so eine Lösung nicht ideal.
AMD müsste dafür also eine eigene spezielle Lösung entwickeln.

Aber auch Wang sieht hier weniger Potential bei einer Gaming-GPU, viel mehr eher im HPC-Bereich, also genau dass was schon Nvidia früher erkannt hat.
XBAR = Crossbar = gängiges Wort für Querverbindung.
IF könntest du genauso als XBAR bezeichnen in so einem Schaubild bezeichnen, wichtig ist die Funktionsweise vom Fabric und über welche Methoden und Dimensionen es skalieren kann.
Und ein passender Interconnect ist in dem Fall auch nur die halbe Miete, Nvidia präsentiert beim Konzept auch eine erweiterte Cache-Hierarchie und Steuerungsmechanismen, damit man auf die benötigte Praxisleistung kommt.

EMIB und Interposer unterscheiden sich für die Verbindung nicht, beide Methoden verwenden Silizium als Verbindungsmedium.
Interposer sind natürlich teurer, da deutlich mehr Fläche und somit Material benötigt wird und ab einer gewissen Größe sicherlich auch nicht angeboten werden.

Also bleibt die Frage, woher weiß man das IF ungeeignet wäre?
 
Zuletzt bearbeitet:
M

matty2580

Guest
Die IF wurde doch für den CPU-Einsatz designt, also für kleine Datenmengen.
Für eine Multi-GPU-Lösung müsste sie ganz neu aufgebaut werden, was unterm Strich dann eher was Neues wird.

Das was Nvidia schlicht als XBARs bezeichnet ist ja auch nur ein Gedankenspiel, und wie es im Text steht noch weit von einer echten Lösung entfernt.
Da sie aber seit über 10 Jahren daran forschen, gibt es intern bestimmt schon Ideen dass umsetzen zu können.

Und wie du schon richtig erkannt hast, ist Intels EMIB ein Schritt in die richtige Richtung, um einfach viele GPUs miteinander verbinden zu können.
Aber auch Intels EMIB müsste dafür angepasst und überarbeitet werden.

Nvidia und AMD haben aber im wichtigsten Punkt Konsens, dass eine Multi-GPU-Lösung aktuell eher für den HPC-Bereich Sinn ergibt.
Und das interessiert die wenigsten User hier im Forum wirklich.
Die wollen eher eine Multi-GPU für Gaming, was aber beim aktuellen Stand der Technik eher unwahrscheinlich ist.
 
Oben Unten