Grafikkarten im Chiplet-Design: Patent von AMD aufgetaucht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Grafikkarten im Chiplet-Design: Patent von AMD aufgetaucht

Einem Patent nach plant AMD, einen schon durch Ryzen-3000- und 5000-Prozessoren bekannten Chiplet-Aufbau für Grafikkarten zu verwenden. AMD betont die Komplexität des Unterfanges, glaubt aber auch, dass die unterschiedlichen Einheiten mittels High Bandwidth Crosslinks effizient miteinander kommunizieren.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Grafikkarten im Chiplet-Design: Patent von AMD aufgetaucht
 
Für Zocker wäre interessant ob AMD damit die allgemeinen Probleme von Multi GPU angehen kann. Momentan ist Multi GPU ja leider fast tot, obwohl es heue sinnvoller als je zuvor wäre.
 
Ich hab ja eigentlich nur noch darauf gewartet.
War mir schon klar nach dem dies auf der CPU Seite funktioniert hatte.
Einen Chip für allet :D. Nvidia kann dann nicht mehr die Methode jo wir bringen
semi gute Karten mit wenig Speicher um dann danach die "richtigen"
karten vergessen so wie jede andere Strategie :D
AMD hängt dann "einfach" noch paar Chipletts an die GPU und gut is.
 
Wirklich sehr interessant. Hab mich schon gerfragt wann das so kommt. Aber das es von AMD kommen könnte wundert mich nicht.
AMD ist hier absehbar nur Nachzügler. Das Patent ist von Mitte 2019, d. h. die haben sich bzgl. CDNA bisher rein auf ein monolithisches Design konzentriert und zogen dann erst nach.
Bei Intel ist schon lange bekannt, dass deren Xe-HPC grundsätzlich auf ein massives MCM-Design setzt und auch nVidia stellte schon in 2019 auf einer TechConf ein MCM-Datacenterdesign vor.
Darüber hinaus darf man mit deutlich höherer Wahrscheinlichkeit annehmen, dass sich (die Umsetzung des) Patents vorzugweise auf CDNA(2?) bezieht bzw. vorerst gar beschränkt. Auch bei den anderen beiden Playern ist es vorerst wahrscheinlicher für die kommende Consumer-Gen (2021/22) weiterhin von einem monolithischen Design auszugehen. Für AMD/nVidia wird das noch realtiv leicht möglich sein, da beiden im Maximalfall ein Wechsel auf 5nm offensteht, d. h. die könn(t)en hier beträchtliche Ressourcen freisetzen und bei Intel sieht es derzeit danach aus, als wenn deren Consumer-Xe-HPG im N6 gefertigt werden wird, also in TSMCs 3rd-Gen-7nm-Prozess.
 
Zuletzt bearbeitet:
Ist nicht Intels neue XE GPU auch sowas wie ein chiplet design?

Die "kleben" doch auch 1, 2 oder 4 Einheiten zusammen, je nach Bedarf soweit ich gelesen habe :ka:
 
Jain. Details sind hauptsächlich zu Xe-HPC bekannt das aus diversen Bausteinen *) besteht, die man als Chiplets bezeichnen kann, d. h. es wird ein massives MCM-Desing werden. Schlussendlich ist aber auch die Frage, wie weit man hier unterscheiden will. MCM-Designs sind schon vergleichsweise alt und wurde nur sporadisch genutzt, da man bisher mit monolithischen Designs i. d. R. besser wegkam was die Integration und bspw. Latenzen, etc. angeht. **)
Intels aktuelle Datacenter-Designs sind mindestens MCM-Designs, so bspw. auf der aktuellen XG310, die vier Xe-LP-Dies auf einer Karte unterbringt. Bei den Dies handelt es sich jedoch um vollständige LP-Chips (10nm) inkl. Video- und Media-Engine, etc. was aber auch genau das Ziel dieser Karte ist. "Chiplets" dagegen teilen mehr die Funktionalität auf, d. h. ein Chiplet stellt keinen kompletten Chip dar und kann nicht eigenständig verwendet werden. Andernfalls wäre auch schon Zen(1) ein "Chiplet" gewesen, jedoch wird das Design gemeinhin nicht so bezeichnet. Hier wurde ein kompletter, monolithischer Zeppelin-Die entwickelt mitsamt 8 Kernen, Cache und vollständigem I/O. Das einzige was man zusätzlich machte war, dass man bis zu vier Dies per IF auf einem großen Package/Träger zusammenschalten konnte (Epcy/Naples und die erste TR-Gen). Einen vergleichbaren Aufbau nutzte Intel auch schon in 2019 mit Cascade Lake AP, bei dem zwei komplette XCC-Dies auf einem Package zusammengeschaltet wurde und einen 56 Kern-Xeon mit 12 Speicherkanälen hervorbrachten.
Bezüglich Xe-HP (ohne "C", auch für das Datacenter) weiß man noch nicht genau, ob die hier demonstrieren bis zu vier "Tiles", die immerhin zusammen 42 TFlops FP32 leisteten, Chiplets im eigentlichen Sinne sind oder ob es sich auch eher nur um zusammengeschaltete, eigenständige Chips handelt. Hier hat sich Intel noch nicht im Detail geäußert (und ebenso unklar ist die Informationslage bei Xe-HPG für Gamer; einzig was man hier im Hinterkopf behalten kann ist, dass Intel hier bereits in diesem Zusammenhang auch explizit davon sprach "Ethusiasts" adressieren zu wollen).
Aktuell weiß man lediglich zu Xe-HP, dass dessen "Tile" 512 EUs und 4096 ALUs besitzt und in der Demonstration mit rund 1,30 GHz betrieben wurde.
Könnte Intel bspw. im 2HJ21 mit HPG tatsächlich auch ein MCM-Design anbieten, würden die gleich im absoluten HighEnd einsteigen, aber ob es schon mit dieser ersten Consumer-Generation soweit sein wird, weiß ich nicht und ich gehe vorsichtig und vorerst davon aus, dass das dieses Jahr noch nicht bei Intel kommen wird. Zudem hätte Intel auch hier bzgl. HPG in Verbindung mit dem N6 noch ausreichend "Luft" für ein monolothisches Design, denn das "HP-Tile" (wenn man dieses zur Ableitung heranzieht) wird sich bei etwa um die 260 mm2 bewegen, d. h. das könnte man bei Bedarf auch noch in der HPG-Variante durchaus vergrößern. Hier wird man noch ein paar Monate abwarten müssen.

*) Ein Base Tile, ein Compute Tile, das Rambo Cache Tile und ein XeLink/IO-Tile, also ein recht komplexes Design.

**) AMD verwendet die Chiplet-Bauweise vorrangig, weil sie die für Epyc benötigen und für die höherkerneingen Ryzens. Insbesondere für den Consumer-Massenmarkt wären auch hier monolithische Chips vorteilhafter, aber in die Gesamtbilanz passt das derzeit bei AMD noch nicht so ganz rein. Mittelfristig würde ich jedoch annehmen, dass im Mainstream bei AMD die Chiplet-CPUs wieder durch monolithische APUs ersetzt werden.
 
Zuletzt bearbeitet:
AMD ist hier absehbar nur Nachzügler. Das Patent ist von Mitte 2019, d. h. die haben sich bzgl. CDNA bisher rein auf ein monolithisches Design konzentriert und zogen dann erst nach.
Bei Intel ist schon lange bekannt, dass deren Xe-HPC grundsätzlich auf ein massives MCM-Design setzt und auch nVidia stellte schon in 2019 auf einer TechConf ein MCM-Datacenterdesign vor.
Darüber hinaus darf man mit deutlich höherer Wahrscheinlichkeit annehmen, dass sich (die Umsetzung des) Patents vorzugweise auf CDNA(2?) bezieht bzw. vorerst gar beschränkt. Auch bei den anderen beiden Playern ist es vorerst wahrscheinlicher für die kommende Consumer-Gen (2021/22) weiterhin von einem monolithischen Design auszugehen. Für AMD/nVidia wird das noch realtiv leicht möglich sein, da beiden im Maximalfall ein Wechsel auf 5nm offensteht, d. h. die könn(t)en hier beträchtliche Ressourcen freisetzen und bei Intel sieht es derzeit danach aus, als wenn deren Consumer-Xe-HPG im N6 gefertigt werden wird, also in TSMCs 3rd-Gen-7nm-Prozess.
Ähm naja, aber AMD ist in diesem Bereich ganz klar Technologieführer.
 
Wirklich sehr interessant. Hab mich schon gerfragt wann das so kommt. Aber das es von AMD kommen könnte wundert mich nicht.

Ein Patent heißt noch lange nicht, dass überhaupt etwas kommt. Die hier oberflächlich beschriebenen Konzepte sind eigentlich uralte Wunschvorstellungen (von daher mal wieder kritikwürdig, dass so etwas überhaupt patentierbar ist). Wie man sie so performant und günstig umsetzt, dass das Endergebnis monolithische GPUs schlägt, steht aber nicht drin. Technisch ist das zwar unter den gegebenen Schlagworten möglich, aber nichts davon ist neu – und bislang bedeutete es einen Mehraufwand, der weit größer war, als einfach eine mächtigere GPU zu entwickeln und zu bauen. Schlussfolgern kann man bislang nur, dass AMD sich weiter mit der Idee beschäftigt (was nun wirklich kein Geheimnis ist) und dass sie ein paar Konzepte derzeit nicht verfolgen. (Kein zentraler/Master-Chip, kein dedizierter Interconnect neben dem Zwischenspeichersystem, keine Verbindungskonzepte abseits eines Interposers in voller Größe,...)
 
Ähm naja, aber AMD ist in diesem Bereich ganz klar Technologieführer.
Wenn man davon ausgeht, dass Intel es tatsächlich schafft, dass sie den Großteil ihrer rund jährlichen 13 Mrd. US$ R&D sinnlos und ohne Resultate verpulvern, dann kann man den Satz vielleicht so versuchen in den Raum zu stellen.
In einer eher realistischeren Betrachtungsweise dürfte deine allgemein gehaltene, undifferenzierte Aussage wohl eher auf Intel als auf AMD zutreffen. Intel muss sich lediglich mit dem Pferdefuß ihrer Fertigung rumschlagen, die es ihnen nicht erlaubt ihre Entwicklungen in der bestmöglichen Art umzusetzen. Erst Alder Lake und Sapphire Rapids werden erstmals Produkte sein, bei denen man mal sinnvoll vergleichen kann und selbst hier ist noch unklar ob die nicht immer noch an dem 10nm-Prozess kranken werden (das hängt davon ab welchen Entwickungsschritt man nun noch einmal mit der 10nm Enhanced SuperFin-Iteration hinlegen können wird).
Darüber hinaus ist Intels Portfolio weitaus umfassender als das von AMD und AMD hat mit fertigungsrelevanten Themen so gut wie fast gar nichts mehr am Hut, d. h. wenn du deinen Satz so anbringen möchtest, solltes du den schon sinnvoll einschränken, denn in dieser allgemeine Form trifft der zweiflos nicht zu (und wenn man dann noch die Softwareseite hinzu nehemn würde, wird ein Vergleichsversuch noch viel schiefer ;-)).

Und auch wenn man es gemeinhin vielfach so darzustellen versucht, setzt sich AMD vorrangig über die Kernskalierung ab, die vornehmlich durch die Verwendung des moderneren Fertigungsprozesses von TSMC ermöglicht wird. Erst mit Zen3 konnte man sich jetzt auch mal architektonisch deutlich absetzen, insofern muss man damit rechnen, dass das Pendel auch leicht wieder zurückschwingen kann wenn Intel seine Fertigung wieder in den Griff bekommen wird, was aber erst mal abzuwarten sein wird.

Hier sollte man lernen zu unterscheiden zwischen "mir persönlich gefällt/ich mag meinen Ryzen" und wie ist Unternehmen XY technologisch/marktechnisch zu bewerten.

Ein Patent heißt noch lange nicht, dass überhaupt etwas kommt. [...]
Die Aussage in dieser allgemeinen Form ist zweifellos richtig, aber in dem Falle kann man ebenso gesichert davon ausgehen dass da was kommen wird, weil AMD ansonsten ins Hintertreffen geraten würde, weil die Leistungsniveaus, die nVidia und Intel mit ihren kommenden Designs anpeilen, mit monolithischen Chips nicht wirtschaftlich zu realisieren sind. - Wie ich aber auch schon schrieb, gehe ich bei einer ersten Implementation rein von Datacenter/Compute-Desings aus. Consumer-GPUs werden vermutlich erst mit einer späteren Gen folgen.
Letzten Endes hängt es auch vom Marktdruck ab. Sobald der erste Player sich mit einem MCM-Design im Consumer-Markt versuchen wird (und sich eine halbwegs erfolgreiche Implementation abzeichnet), werden die anderen zwangsweise zeitnah nachziehen müssen. Dran an dem Thema sind ja bereits alle.

Wieder mit in die Betrachtung reinnehmen sollte man in diesem Zuge auch Imagination Technologies, die mit ihrer B-Series bereits ein sehr interessantes und sehr effizientes Mutli-GPU-Design präsentieren konnten, das vorerst noch auf den Mobile- und Automotive-Bereich abzielt. Darüber hinaus wird ihre nachfolgende C-Series gar einen umfassenderen Raytracing-Support bietet, als es aktuell bei nVidia- und AMD-Hardware der Fall ist. Entsprechend würde ich bspw. ableiten, dass sich die Raytracing-Implementationen in deren Hardware mit der NextGen auch signifikant weiterentwickeln werden.
IT hat im Mobile-Segment mit beträchtlichem Kundenschwund zu kämpfen, d. h. man könnte hier durchaus einen (Wieder)Einsteig in den PC-Markt erwarten (wenn sie ihre kommenden Designs ausreichend skalieren können).
 
Zuletzt bearbeitet:
Auf der Arbeit fehlt mir leider die Zeit dir einen Roman dazu zu schreiben,nur damit du das als differenziert ansiehst.
Fakt ist,AMD ist der einzige Hersteller der damit Massenprodukte anbietet und daher über weitreichende Patente und Erfahrungen verfügt in dem Bereich.man hat also zweifelsfrei hier die Technologieführerschaft derzeit inne.

Intel hat einen potentiell sehr interessanten Interposer für solche Chiplet Varianten (Core i 8000G),Hauptproblem bei einem solchen Aufbau ist aber die Cache Hierarchie.
 
Wenn man davon ausgeht, dass Intel es tatsächlich schafft, dass sie den Großteil ihrer rund jährlichen 13 Mrd. US$ R&D sinnlos und ohne Resultate verpulvern, dann kann man den Satz vielleicht so versuchen in den Raum zu stellen.
In einer eher realistischeren Betrachtungsweise dürfte deine allgemein gehaltene, undifferenzierte Aussage wohl eher auf Intel als auf AMD zutreffen. Intel muss sich lediglich mit dem Pferdefuß ihrer Fertigung rumschlagen, die es ihnen nicht erlaubt ihre Entwicklungen in der bestmöglichen Art umzusetzen. Erst Alder Lake und Sapphire Rapids werden erstmals Produkte sein, bei denen man mal sinnvoll vergleichen kann und selbst hier ist noch unklar ob die nicht immer noch an dem 10nm-Prozess kranken werden (das hängt davon ab welchen Entwickungsschritt man nun noch einmal mit der 10nm Enhanced SuperFin-Iteration hinlegen können wird).
Darüber hinaus ist Intels Portfolio weitaus umfassender als das von AMD und AMD hat mit fertigungsrelevanten Themen so gut wie fast gar nichts mehr am Hut, d. h. wenn du deinen Satz so anbringen möchtest, solltes du den schon sinnvoll einschränken, denn in dieser allgemeine Form trifft der zweiflos nicht zu (und wenn man dann noch die Softwareseite hinzu nehemn würde, wird ein Vergleichsversuch noch viel schiefer ;-)).

Und auch wenn man es gemeinhin vielfach so darzustellen versucht, setzt sich AMD vorrangig über die Kernskalierung ab, die vornehmlich durch die Verwendung des moderneren Fertigungsprozesses von TSMC ermöglicht wird. Erst mit Zen3 konnte man sich jetzt auch mal architektonisch deutlich absetzen, insofern muss man damit rechnen, dass das pendel auch leicht wieder zurückschwingen kann wenn Intel seine Fertigung wieder in den Griff bekommen wird, aber das wird man abwarten müssen.

Hier sollte man lernen zu unterscheiden zwischen "mir persönlich gefällt mein Ryzen" und wie ist Unternehmen XY technologisch/marktechnisch zu bewerten.


Die Aussage in dieser allgemeinen Form ist zweifellos richtig, aber in dem Falle kann man ebenso gesichert davon ausgehen dass da was kommen wird, weil AMD ansonsten ins Hintertreffen geraten würde, weil die Leistungsniveaus, die nVidia und Intel mit ihren Designs anpeilen, mit monolithischen Chips nicht wirtschaftlich zu realisieren sind. - Wie ich aber auch schon schrieb gehe ich bei einer ersten Implementation rein von Datacenter/Compute-Desings aus. Consumer-GPUs werden vermutlich erst mit einer späteren Gen folgen.
Firma 1 steckt viel Geld in die Entwicklung, ohne funktionierende Produkte am Markt.

Firma 2 hat weniger Budget, dafür aber konkurenzfähige Produkte am Markt, welche gekauft werden und Verbreitung finden.

Wer ist da Marktführer? Sicher nicht Firma 1....
 
Firma 1 steckt viel Geld in die Entwicklung, ohne funktionierende Produkte am Markt.

Firma 2 hat weniger Budget, dafür aber konkurenzfähige Produkte am Markt, welche gekauft werden und Verbreitung finden.

Wer ist da Marktführer? Sicher nicht Firma 1....

Wenn du uneingeschänkt "Marktführer" verwendest, stellt sich die Frage tatsächlich nicht, denn das ist im x86-Markt nach wie vor unangefochten Intel ... also erneut: Die Aussage bitte präzisieren, denn ansonsten ist die wertlos (oder driftet wieder ins Fanboy-Land ab; damit muss man in derartigen Foren zwar rechnen, richtiger werden diese Art Aussagen dadruch aber dennoch nicht).
Und nochmals: Keiner will dir deinen Ryzen madig reden, aber an AMDs markt/technischer Positionierung ändert sich nichts dadurch, weil eine Menge Gamer von deren CPUs begeistert sind. Würde ich in nächtser Zeit meine Gamingt-Plattform aktualisieren würde das wohl höchstwahrscheinlich auch ein Zen3 werden, deshalb schaue ich aber noch lange nicht mit verklärtem Blick auf die Firma. ;-)

@Gurdi: Fakt ist wahrscheinlch eher, dass dir bei Intel die Hintergründe und Fakten fehlen um das zu beurteilen, bzw. ich würde mal glatt soweit gehen, dass dir da voraussichtilch auch das Interesse bei dieser Firma fehlt, was voraussichtlich schlicht deinem Bias geschuldet ist (Availability Bias ;-)).
 
Zuletzt bearbeitet:
Wozu sollte ich, wenn ich eh informiert bin?
Du liegst wie immer falsch, bzw hast etwas erfunden oder falsch verstanden!

Bist jetzt ist jedenfalls nichts bekannt, alles nur Gerüchte und für RDNA ist das aufgrund der kosten eher unwahrscheinlich.

Für CDNA wird das sicher kommen, dort stoßen die Karten aber auch in ganz andere Preisregionen vor...
 
Zurück