Ryzen 5000: Vermeintliche Device-IDs der "Cezanne"-APUs gesichtet - weiterhin mit Vega-Grafik?

Vor einiger Zeit gab es mal Gerüchte, ich glaube von MLID (?), dass AMD bei APUs eine mehrstufige Strategie fährt. Ein Design mit Zen 3 und Vega und ein Design mit Zen 2/3(?) und RDNA. D.h. Zen 3 mit Vega wäre für leistungsfähige mobile Geräte gemacht (Cezanne?), die eh meist mit einer dGPU kombiniert werden, und somit auf maximale CPU Performance zurückgreifen können. Gegen 8 Zen 3 Kerne wird Intel wohl nicht ankommen können in 2021. Auch wenn Tiger Lake zumindest ein guter Schritt nach vorne zu sein scheint. Und als zweites Design könnte AMD eben dann ein abgespecktes CPU Design mit RDNA machen (Van Gogh?). Da würden auch 4 CPU Kerne reichen, was eher für Zen 2 spricht, da Zen 3 auf einem 8-Kern CCX basiert. Mit etwas Tuning und entsprechend hohen Taktraten dürfte die CPU immer noch recht flott sein, siehe 3300X. Das so freiwerdende Transistorbudget könnte man in eine leistungsstarke RDNA basierte iGPU investieren. Damit sollten kompakte und effiziente Geräte in den unteren Preissegmenten möglich sein.
 
Als Spieler kann es einem denke ich egal sein, ob Vega oder Navi drinsteckt, so oder so kommt nicht viel dabei rum. Für den Office Sektor reicht es so oder so.

Wenn, dann sollten wir nicht darüber reden, welchen Grafikkern eine CPU hat, sondern ob die Grafikkarte mal ein CPU Chiplet mit verpasst bekommt damit sie alles berechnen kann was ein Spiel fordert. AMD 5600 mit einem 4/8 Chiplet schon drin, oder eine 5700XT mir einem 6/12 Chiplet drauf. Das ist schließlich die Innovation dank der die Konsolen kompetitiv im Preis sind. Keine zwei Mainboards, keine zwei Sorten von RAM, keine zwei Kühllösungen. Stell Euch vor man müsste für den Spiele PC ein Mainboard weniger, einen Satz Speicher weniger und einen Kühler weniger kaufen.

Ob Intel, AMD oder Nvidia, entweder wollen sie nicht, oder sie können nicht und imo ist das ein gewaltiger Hemmschuh. Die Konsolen freut es solche APUs exklusiv zu bekommen, aber eigentlich ist es anti-kompetitiv und kundenfeindlich.
 
Also ich setze mal meine eigenen Gerüchte und eher logische Schlussfolgerungen hier ins Forum:

Wenn AMD spoilert, erst mit Desktop Ryzen 5000 größere Änderungen am Chip vorzunehmen, und Ryzen Desktop 4000 sei als verbesserte Version von Desktop Ryzen 3000 anzusehen, dann ist für mich eigentlich alles klar.

Das bedeutet für mich: Mobile Ryzen 4000 hat Vega Grafik, Mobile Ryzen 5000 hat vega Grafikf, erst Mobile Ryzen 6000 bekommt (AMD hat Änderungen angekündigt?!) Navi eingebaut.

Warum? Ich sagt es doch ständig selbst: Hardware wird langfristig Jahre im vorraus geplant und kann nich tmal eben von heute auf morgen umgebastelt werden.
Bestes aktuelle Beispiel: Intel braucht Jahre, um seinen neuen Chip zu konstruieren, im GPU und CPU Sektor mind. 3, wenn nicht sogar bis zu 5 Jahre.
AMD hat doch vorab den Fahrplan festgelegt, Zen 1 - 5.
Viel daran herumändern geht dann sehr schwer.

Für mich ist es zudem eher wahrscheinlich, dass man im Mobilsektor erst einmal die damals viel schlechtere Performance und Akkulaufzeit in einen eigenen Vorteil umkrempeln will und muss, das ist mit Mobile Ryzen 4000 ja jetzt auch wirklich gelungen, nachdem Mobile Ryzen 3000 schon ein guter Schritt war.
Man hat deswegen ja sogar die Grafik von 11 auf 8 Einheitenblöcke zurückgestuft, um da nochmal Strom einzusparen.
Daran sieht man doch, dass die CPU dort erst einmal Priorität hat.
Das ist auch wichtig, um überhaupt erst einmal Fuß zu fassen, denn was nutzt eine gute APU für Billigspiele, wenn die niemand verbaut und kaufen will?
Gamer kaufen nur mit guter Extrakarte ab NVidia 1650, wer nur Surfen und Videos schauen will, kauft sich die üblichen 400 Euro Wegschmeißtteile, wo Leute mit Grafikchipsätzen überhaupt nichts am Hut haben und nur den billigsten Preis und aber lange Akkulaufzeit vom Schild ablesen.
Wenn jetzt also mit Mobile Ryzen 5000 der nächste Schritt im Mobilsektor getan wird, um die Anbieter und auch dann die Allgemeinbevölkerung noch näher an AMD Produkte heranzuführen, dann kann man sich vielleicht auch mit einem besseren Grafikchip am Markt präsentieren, solange man dadurch auch Strom sparen kann.
Denn ansonsten wäre es für AMD auf jeden Fall gewinnbringender, z.B. mehr mobile Varianten einer 5500 draufpflanzen zu lassen, damit die Geräte auch wirklich spielbar werden, denn APUs sind nunmal weder Fisch noch Fleisch, sie kosten eher zu viel Akkuleistung, als dass sie dem Gaming von Nutzen wären.

Das ist so meine Meinung und Vermutung dazu. Danke fürs Weghören^^.
 
@Locuza

Alles richtig, aber die Frage ist ja dann: Wann hat AMD mit der Konzeptionierung von Zen3 begonnen.. Wann mit RDNA2.
Ist ja nicht so, dass man mal eben umschwenken kann. Geschweige denn, dass man mal eben die Architektur dahinter umwirft...Zen3 war schon in Designphase als es RDNA2 noch nicht gab.
Aber das werden wir wohl nicht erfahren. Ich sehe aber derzeit in Cezanne und Zen3 keine Revolution, sondern eben eine Evolution
 
Ist die Frage, wie unabhängig CPU und iGPU in der APU voneinander sind. Ansonsten muss man da im Schaltplan einfach bloß die Grafikeinheit austauschen.
 
Hmm Vega wäre irgendwie schade. RDNA2 sollte ja doch deutlich effizienter ans Werk gehen. Und das ist dann doch entscheidend für APUs die auch in den Mobilsektor wollen

Die letzten Jahre im Tiefschlaf verbracht oder nur ein billiger Trollversuch? Vega ist sehr effizient, einfach mal die Test zu den neuesten APUs anschauen, dann kommt die Erleuchtung...
Des Weiteren wird die Wahl auf Vega vermutlich auch mit der Fertigung zu tun haben, da man "nur" auf eine optimierte Variante der 7nm Fertigung greift, wird es für AMD wohl günstiger sein wieder Vega zu verwenden, was ich durchaus verstehen kann. RDNA2 werden wir dann wohl erst mit Zen4 sehen. Zumal man ja auch nicht vergessen darf, dass der Fokus bei RDNA2 erstmal bei den Konsolen und Desktop GPUs lag und der Notebooksektor hinten anstehen musste, da man schon ganz gut aufgestellt ist.

Monolithische Cores haben bei hohen Stückzahlen einen Kostenvorteil und außerdem diverse andere Vorteile (Latenz).

Wie soll denn ein monolithisches Design einen Kostenvorteil erzielen? Das ist per se teurer wie ein Chiplet Design, außer bei ganz wenigen Cores. Denn je größer der DIE desto schlechter ist auch die Asubeute (bei neuen Prozessen). Der Vorteil im mobilen Bereich besteht hier im Verbrauch, da ein monolithisches Designs Verbrauchsvorteile gegenüber einem Chiplet Design hat (die Kommunikation kostet Strom). Deswegen wird dieser Ansatz auch im Notebooksektor verfolgt.

Genau, wenn man nach Belegen fragt ist das provokativ...

Belege wird er dir nie liefern, er ist ein bekannter AMD hater und intelfanboy, einfach mal seine Beiträge der letzten Jahre anschauen, da kommt das deutlich zum Vorschein... Auch immer wieder lustig, kaum kommt eine AMD news und in den ersten Postings sieht man die gleichen User mit den gleichen "kritischen" Kommentaren. Nur komischerweise liest man bei intel News nie was kritisches von diesen Herrschaften...
 
Die letzten Jahre im Tiefschlaf verbracht oder nur ein billiger Trollversuch? Vega ist sehr effizient, einfach mal die Test zu den neuesten APUs anschauen, dann kommt die Erleuchtung...
Des Weiteren wird die Wahl auf Vega vermutlich auch mit der Fertigung zu tun haben, da man "nur" auf eine optimierte Variante der 7nm Fertigung greift, wird es für AMD wohl günstiger sein wieder Vega zu verwenden, was ich durchaus verstehen kann. RDNA2 werden wir dann wohl erst mit Zen4 sehen. Zumal man ja auch nicht vergessen darf, dass der Fokus bei RDNA2 erstmal bei den Konsolen und Desktop GPUs lag und der Notebooksektor hinten anstehen musste, da man schon ganz gut aufgestellt ist.



Wie soll denn ein monolithisches Design einen Kostenvorteil erzielen? Das ist per se teurer wie ein Chiplet Design, außer bei ganz wenigen Cores. Denn je größer der DIE desto schlechter ist auch die Asubeute (bei neuen Prozessen). Der Vorteil im mobilen Bereich besteht hier im Verbrauch, da ein monolithisches Designs Verbrauchsvorteile gegenüber einem Chiplet Design hat (die Kommunikation kostet Strom). Deswegen wird dieser Ansatz auch im Notebooksektor verfolgt.



Belege wird er dir nie liefern, er ist ein bekannter AMD hater und intelfanboy, einfach mal seine Beiträge der letzten Jahre anschauen, da kommt das deutlich zum Vorschein... Auch immer wieder lustig, kaum kommt eine AMD news und in den ersten Postings sieht man die gleichen User mit den gleichen "kritischen" Kommentaren. Nur komischerweise liest man bei intel News nie was kritisches von diesen Herrschaften...

Wusste gar nicht, dass DK007 (der ja etwas belegen sollte)ein AMD Hater und Intel Fanboy ist. Belege! Ansonsten ist das nichts anderes als eine dreiste Lüge/Unterstellung deinerseits.

Und nein Vega per se ist keine effiziente oder effektive Gaming Architektur. Wär dem so, würde man wohl kaum versuchen von ihr wegzukommen. Underclocked und in kleinem Ausbau braucht man schnell msl wenig Strom, das heißt noch lange nicht, dass die Architektur nicht ineffizient ist im Vergleich zu anderen.
Natürlich kann man auch Vega effizient vetreiben mit niedrigen Taktraten und Voltages, aber wenn Vega die Effizientere Architektur ist, warum betont AMD dann den Effizienzsprung zu Navi?


Und, dass das Chipletdesign automatisch günstiger ist, ist natürlich auch nicht korrekt.
Das hängt mot verschidenen Faktoren zusammen unter anderem den Stückzahlen. Ansonsten wäre es ja schön blöd von Intel oder Sony/MS nichtvauf Chiplets zu setzen, die Erfindung ist schließlich nicht neu.
Der Verbrauchsvorteil ist natürlich richtig, wenngleich nicht der einzige Grund.
Die Yieldraten sind bei Intel etwa so hoch, weil man ein und denselben Chip eh für verschiedene Konfigurationen einsetzen kann. Aber AMD hat dafür den Vorteil wesentlich flexibler zu sein. Es hat also jeder der Ansätze Vor/Nachteile. Und einer der Vorteile eines monolithischen Ansatzes kann in gewissen Konstellationen eine Kostenersparnis sein.
 
Zuletzt bearbeitet:
Wozu sollte ich unnötig mehr posten?

Wenn du mehr schreibst, würdest du nicht unnötig mehr sondern mal eine passende Menge schreiben. Mit dir sich zu unterhalten ist etwa wie mit einem kleinen Kind was ständig warum fragt. Irgendwann gibt man halt nur noch darum als Antwort und hofft das die Plage einen bald in Ruhe lässt.
 
Wusste gar nicht, dass DK007 (der ja etwas belegen sollte)ein AMD Hater und Intel Fanboy ist. Belege! Ansonsten ist das nichts anderes als eine dreiste Lüge/Unterstellung deinerseits.

Da hast du irgendwas falsch interpretiert. Ich denke Bärenmarke bezieht sich da auf Causurin.
 
Wieso AMD nicht einfach auf Chiplets bleibt und die GPU im I/O Die integriert?
Bei 7nm sollte genug Platz sein um bei ähnlicher Größe eine 8-10Core RDNA2 unterzubringen.

Somit ist diese Verwirrung mit den APUs nicht mehr vorhanden.
2000er nur Zen statt Zen+
3000er nur Zen+ statt Zen2
Und so weiter....
Wie soll denn ein monolithisches Design einen Kostenvorteil erzielen? Das ist per se teurer wie ein Chiplet Design, außer bei ganz wenigen Cores. Denn je größer der DIE desto schlechter ist auch die Asubeute (bei neuen Prozessen). Der Vorteil im mobilen Bereich besteht hier im Verbrauch, da ein monolithisches Designs Verbrauchsvorteile gegenüber einem Chiplet Design hat (die Kommunikation kostet Strom). Deswegen wird dieser Ansatz auch im Notebooksektor verfolgt.

Ein monolithisches Design erspart gegenüber Chiplets Kosten beim Substrat, vor allem aber die Interconnects ein. Die brauchen Platz, nicht unbedingt wenig Strom und kosten Leistung. Umgekehrt kann die Ausbeute von ohnehin relativ kleinen Chips auch bei monolithischer Fertigung sehr gut sein. Wenn man bereits 98,5 Prozent Yield hat, dann kann eine Reduktion des Ausschusses um 1/3 durch einen Großen I/O+GPU- und einen kleinen CPU-Chip beispielsweise nur 0,5 Prozent Silizium einsparen. Das verbraucht man bei zwei Chips aber schon allein durch die Freiräume um die zusätzliche Schnittkante und durch die Interconnects. Erschwerend kommt hinzu, dass die Größe von I/O-Chips zum Teil schon durch die Anschlüsse vorgegeben wird: Man kann sie gar nicht mehr kleiner machen, weil man dann nicht mehr alle Konakte nach außen führen kann. Hier gibt es zusätzliche Recheneinheiten also gratis, wenn man wegen dem Stromverbrauch ohnehin in 7 nm fertigen möchte.



So ist es, Slim halt. Da zählt vor allem Akkulaufzeit. Die Videoengine wurde schon bei Renoir's Vega geupdatet.


Ich glaube das ist lediglich eine optionale Zielgruppe und unter 720p gut und gerne möglich. Da zählt eher kleiner Formfaktor, Ersparnis und jedes Watt. AMD soll seine Bemühungen um 40-50, auf 170 Designwins gesteigert haben.

Selbst Intel hat die Reduktion auf minimales 3D + Encoder mittlerweile aufgegeben. Ich verstehe zwar auch nicht, wozu man in einem Office-PC oder einem portablen Arbeitsgerät mehr braucht, aber AMD verkauft die APUs auch über Gaming-Leistung und das klappt nur, wenn sie tatsächlich mehr bieten.


Als Spieler kann es einem denke ich egal sein, ob Vega oder Navi drinsteckt, so oder so kommt nicht viel dabei rum. Für den Office Sektor reicht es so oder so.

Wenn, dann sollten wir nicht darüber reden, welchen Grafikkern eine CPU hat, sondern ob die Grafikkarte mal ein CPU Chiplet mit verpasst bekommt damit sie alles berechnen kann was ein Spiel fordert. AMD 5600 mit einem 4/8 Chiplet schon drin, oder eine 5700XT mir einem 6/12 Chiplet drauf. Das ist schließlich die Innovation dank der die Konsolen kompetitiv im Preis sind. Keine zwei Mainboards, keine zwei Sorten von RAM, keine zwei Kühllösungen. Stell Euch vor man müsste für den Spiele PC ein Mainboard weniger, einen Satz Speicher weniger und einen Kühler weniger kaufen.

Ob Intel, AMD oder Nvidia, entweder wollen sie nicht, oder sie können nicht und imo ist das ein gewaltiger Hemmschuh. Die Konsolen freut es solche APUs exklusiv zu bekommen, aber eigentlich ist es anti-kompetitiv und kundenfeindlich.

Wo läge in dem Beispiel noch der Unterschied zu einer Konsole, wenn alle Prozessoren und der gesamte Speicher auf einer Platine verlötet werden?


@Locuza

Alles richtig, aber die Frage ist ja dann: Wann hat AMD mit der Konzeptionierung von Zen3 begonnen.. Wann mit RDNA2.
Ist ja nicht so, dass man mal eben umschwenken kann. Geschweige denn, dass man mal eben die Architektur dahinter umwirft...Zen3 war schon in Designphase als es RDNA2 noch nicht gab.
Aber das werden wir wohl nicht erfahren. Ich sehe aber derzeit in Cezanne und Zen3 keine Revolution, sondern eben eine Evolution

Die Entwicklung einer CPU-Architektur dreht sich lange Zeit nur um die eigentlichen Kerne. Deren Implementation in eine APU erfolgt erst viel später, umgekehrt kann man hier auch eine neue GPU-Technologie einfließen lassen. Allerdings ist es gut möglich, dass Cezanne einfach ein Renoir mit reinkopiertem Zen3-CCX an Stelle der beiden Zen2-CCX ist. In dem Fall hat die Entwicklung möglicherweise erst dieses Jahr begonnen, war aber auch von vorneherein mit minimalem Arbeitsaufwand geplant.
 
Zurück