• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Ryzen 5000: Vermeintliche Device-IDs der "Cezanne"-APUs gesichtet - weiterhin mit Vega-Grafik?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Ryzen 5000: Vermeintliche Device-IDs der "Cezanne"-APUs gesichtet - weiterhin mit Vega-Grafik?

Die für 2021 erwartete, nächste APU-Generation von AMD mit Codenamen "Cezanne" auf Basis der Zen 3-Architektur ist aktuell wieder Bestandteil eines möglichen Leaks.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Ryzen 5000: Vermeintliche Device-IDs der "Cezanne"-APUs gesichtet - weiterhin mit Vega-Grafik?
 

Rollora

Kokü-Junkie (m/w)
Hmm Vega wäre irgendwie schade. RDNA2 sollte ja doch deutlich effizienter ans Werk gehen. Und das ist dann doch entscheidend für APUs die auch in den Mobilsektor wollen
 
E

eclipso

Guest
Ist nicht Renoir's Vega schon eine "weiterentwickelte" GFX9? Die Frage ist, ob sich die Partner nach den Designwins für AMD vor allem im Bereich Slim, schon wieder einen Wechsel wünschen oder man sich eine gewisse Stabilität und Basis wünscht. Mit der Effizienz hat man bisher keine Probleme, da liegt man vor Intel und die Vega vor der iGPU.
 

PCGH_Torsten

Redaktion
Teammitglied
Ist nicht Renoir's Vega schon eine "weiterentwickelte" GFX9? Die Frage ist, ob sich die Partner nach den Designwins für AMD vor allem im Bereich Slim, schon wieder einen Wechsel wünschen oder man sich eine gewisse Stabilität und Basis wünscht. Mit der Effizienz hat man bisher keine Probleme, da liegt man vor Intel und die Vega vor der iGPU.

Für die Hardwarepartner sind nur der physische Aufbau des Packages, seine Schnittstellen und seine elektrisch-thermischen Eigenschaften wichtig. Wie das Ding intern arbeitet könnte AMD nach belieben ändern und auch auf Software-Seite sehe ich niemanden, gezielt für APUs entwickelt. Im Gegenteil, mit der Umstellung im Konsolenbereich und der Verbreitung von Navi-Co-Prozessoren in Macs dürfte RDNA-optimierter Code zur Ausnahme werden.
 

Ghostshield

PC-Selbstbauer(in)
Wieso AMD nicht einfach auf Chiplets bleibt und die GPU im I/O Die integriert?
Bei 7nm sollte genug Platz sein um bei ähnlicher Größe eine 8-10Core RDNA2 unterzubringen.

Somit ist diese Verwirrung mit den APUs nicht mehr vorhanden.
2000er nur Zen statt Zen+
3000er nur Zen+ statt Zen2
Und so weiter....
 

Rollora

Kokü-Junkie (m/w)
Wieso AMD nicht einfach auf Chiplets bleibt und die GPU im I/O Die integriert?
Bei 7nm sollte genug Platz sein um bei ähnlicher Größe eine 8-10Core RDNA2 unterzubringen.

Somit ist diese Verwirrung mit den APUs nicht mehr vorhanden.
2000er nur Zen statt Zen+
3000er nur Zen+ statt Zen2
Und so weiter....
Monolithische Cores haben bei hohen Stückzahlen einen Kostenvorteil und außerdem diverse andere Vorteile (Latenz).
Aber die Benennung nervt mich immer noch. Man hätte es einfach so machen sollen:
Zen - Ryzen 1000
Zen+ Ryzen 1000+ (oder gleich Zen 2 nennen)
Zen2- Ryzen 2000

und die jeweiligen APUs dazu wären halt dann Ryzen M 1000, 2000, 3000.

Aber gut, außer uns Nerds interessiert das niemanden
 

hotmob77

Kabelverknoter(in)
Dass Cezanne weiterhin auf Vega setzt war bereits bekannt. Man spart sogar offenbar noch eine CU ein und taktet entsprechend höher.
 

DKK007

PCGH-Community-Veteran(in)
Ich hoffe doch, dass doch wirklich RDNA2 kommt.
Vega wäre nächstes Jahr schon uralt. Zumal dann auch die neuen Konsolen schon da sind.
 

BunkerFunker

Komplett-PC-Aufrüster(in)
Ich hoffe AMD erhöht die Leistung von Vega erneut signifikant, ansonsten wird 2021 ein Jahr der Ernüchterung für alle, welche auf mehr iGPU-Leistung gehofft haben. Die Leistung einer GTX 1050ti oder einer RX 570 wäre ein Traum. Aber eben, leider wohl nur ein Traum für 2021. Zu viel Stillstand kann sich AMD aber auch nicht erlauben, nun wo der blaue Riese mit der Xe-Graphik auffährt.
 

Olstyle

Moderator
Teammitglied
Die Zielgruppe die sich mehr Leistung wünscht Ist halt sehr klein. In der Regel muss die IGPU gut Videos beschleunigen(was nicht die Shader sondern die VideoEngine macht) und ansonsten quasi nur für die Desktopeffekte ausreichen. Das bei möglichst wenig Verbrauch und Kosten.
->CUs so weit wie möglich reduzieren ist die Devise.
 

Technologie_Texter

BIOS-Overclocker(in)

Unrockstar85

PCGH-Community-Veteran(in)
Hmm Vega wäre irgendwie schade. RDNA2 sollte ja doch deutlich effizienter ans Werk gehen. Und das ist dann doch entscheidend für APUs die auch in den Mobilsektor wollen

Wenn man mit GFX9 noch mal 30% Verbesserung hätte, dann wären wir bei 1050 Leistung.. Soo schlecht wäre das wir ne IGPU nicht.. Ich denke RDNA2 wird noch mehr an der Brandbreite hängen, als es schon GCN tut... Also macht das erst Sinn mit DDR5

@DKK007
Das glaube ich in der Tat eben nicht, da Vega hier massiv auf die IGPU Bedürfnisse zugeschnitten wurde. Und die Effizienz in der APU ist Outstanding. Ich vermute, dass der RDNA2 hier ohne mehr Brandbreite exakt um 0% Effizienter ist, da Vega hier im Sweetspot rennt. Wenn ich die Unterschiede zwischen Vega im Zen 1 und Vega im Zen 2 sehe, dann hat AMD alles richtig gemacht.
 
E

eclipso

Guest
Das bei möglichst wenig Verbrauch und Kosten.
So ist es, Slim halt. Da zählt vor allem Akkulaufzeit. Die Videoengine wurde schon bei Renoir's Vega geupdatet.

Die Spiele. Bei der iGPU kommt es schließlich auf jedes FPS an.
Ich glaube das ist lediglich eine optionale Zielgruppe und unter 720p gut und gerne möglich. Da zählt eher kleiner Formfaktor, Ersparnis und jedes Watt. AMD soll seine Bemühungen um 40-50, auf 170 Designwins gesteigert haben.
 

Unrockstar85

PCGH-Community-Veteran(in)
Die Spiele.

Bei der iGPU kommt es schließlich auf jedes FPS an.

Bei IGpu zählen Effizienz, Akkulaufzeit und aktuelle Videoengine.. Das auf möglichst kleiner Fläche. Aber ich vermute, dass mit Samsungs Bestreben der RNDA Architektur in Mobile Devices, auch RDNA in die APu kommt.
Mit Zen 4 kommt dann RDNA
Schauen wir mal, ob Cezanne noch Vega hat..
 

Locuza

Lötkolbengott/-göttin
Wenn man mit GFX9 noch mal 30% Verbesserung hätte, dann wären wir bei 1050 Leistung.. Soo schlecht wäre das wir ne IGPU nicht.. Ich denke RDNA2 wird noch mehr an der Brandbreite hängen, als es schon GCN tut... Also macht das erst Sinn mit DDR5

@DKK007
Das glaube ich in der Tat eben nicht, da Vega hier massiv auf die IGPU Bedürfnisse zugeschnitten wurde. Und die Effizienz in der APU ist Outstanding. Ich vermute, dass der RDNA2 hier ohne mehr Brandbreite exakt um 0% Effizienter ist, da Vega hier im Sweetspot rennt.
RDNA hat eine bessere Delta-Color-Compression, dass senkt die Anforderungen an die Bandbreite und erhöht die Effizienz.
https://decdeg.com/wp-content/uploa...ics_Architecture_06102019-pdf7-1024x575-2.jpg

Die Architektur hat auch eine zusätzliche Cache-Stufe, dass senkt noch einmal die Anforderungen an externe Bandbreite, erneut ist das effizienter.
https://hexus.net/media/uploaded/2019/6/910fcae9-f40b-4ba1-9684-475d9dd4e46a.PNG

RDNA hat eine bessere Geometrie-Engine, die mehr Dreiecke vor dem Shading entfernt, spart erneut Bandbreite und führt zu besserer Leistung.
Im Bandbreitenlimit sollte RDNA ein gutes Stück weiter kommen, als GCN5, dass macht also schon jetzt Sinn (von der Perspektive betrachtet).

Vor allem RDNA2 bringt dann noch mehrere Nettigkeiten mit sich.
Variable Rate Shading könnte eine gute Kompromisslösung für iGPUs werden.
Mesh-Shader werden in Zukunft bei vermutlich mehreren Spielen zum Einsatz kommen, die sind auch effizienter, als Geometrie über Compute-Shader zu berechnen.
Sampler-Feedback wird sich vermutlich auch als neuer Standard bei der Textur- und Speicherverwaltung etablieren, auch effizienter, als aktuelle Lösungen.
Raytracing-Support wäre nicht praktikabel, aber immerhin wäre es testbar.

Natürlich ist die Frage bei sovielen extra Dingen, die RDNA drauf hat, wie es letztendlich um die Perf/mm² bestellt ist? (Könnte man auch schon jetzt annäherungsweise ausrechnen mit RDNA1 vs. GCN5)
Viele Featuren stellen auch offensichtlich einen Standard für die Zukunft dar, der Jahre benötigen bis er wirklich notwendig wird.

Aber wenn man die Wahl hat, dann würde man wohl lieber das neuste Zeug haben und nicht Technologie, die Featuretechnisch bei 2017 steckt.
RDNA1(2) bietet seit 2019 bessere Technik an und Xe von Intel wird das auch tun (zumindest Featuretechnisch).
 

DKK007

PCGH-Community-Veteran(in)
Aber wenn man die Wahl hat, dann würde man wohl lieber das neuste Zeug haben und nicht Technologie, die Featuretechnisch bei 2017 steckt.
RDNA1(2) bietet seit 2019 bessere Technik an und Xe von Intel wird das auch tun (zumindest Featuretechnisch).

Zumal es dann nach dem Release der APUs noch Monate braucht, bis es damit flächendeckend Notebooks zu kaufen gibt.
 

Rollora

Kokü-Junkie (m/w)
Kannst du das belegen?
Schon wieder am provokativ rumfragen?

Naja ist nur die Aussage von den Tests und von AMD selbst.

Zumal es dann nach dem Release der APUs noch Monate braucht, bis es damit flächendeckend Notebooks zu kaufen gibt.
Bei APUs ist das halt so eine Sache: man will natürlich das beste drin haben. Für die Effizienz. Oder um halt länger die Chance auf Treiberupdates zu haben bzw. davon zu profitieren (oder von den Optimierungen der Devs, denn keiner optimiert mehr Richtung Vega).

Aber abgesehen davon: bevor man wohl die neuesten Features flächendeckend in Spielen sieht, ist eine integrierte GPU wohl auch schon wieder zu langsam.
 

gruffi

Komplett-PC-Aufrüster(in)
Vor einiger Zeit gab es mal Gerüchte, ich glaube von MLID (?), dass AMD bei APUs eine mehrstufige Strategie fährt. Ein Design mit Zen 3 und Vega und ein Design mit Zen 2/3(?) und RDNA. D.h. Zen 3 mit Vega wäre für leistungsfähige mobile Geräte gemacht (Cezanne?), die eh meist mit einer dGPU kombiniert werden, und somit auf maximale CPU Performance zurückgreifen können. Gegen 8 Zen 3 Kerne wird Intel wohl nicht ankommen können in 2021. Auch wenn Tiger Lake zumindest ein guter Schritt nach vorne zu sein scheint. Und als zweites Design könnte AMD eben dann ein abgespecktes CPU Design mit RDNA machen (Van Gogh?). Da würden auch 4 CPU Kerne reichen, was eher für Zen 2 spricht, da Zen 3 auf einem 8-Kern CCX basiert. Mit etwas Tuning und entsprechend hohen Taktraten dürfte die CPU immer noch recht flott sein, siehe 3300X. Das so freiwerdende Transistorbudget könnte man in eine leistungsstarke RDNA basierte iGPU investieren. Damit sollten kompakte und effiziente Geräte in den unteren Preissegmenten möglich sein.
 

4thVariety

Software-Overclocker(in)
Als Spieler kann es einem denke ich egal sein, ob Vega oder Navi drinsteckt, so oder so kommt nicht viel dabei rum. Für den Office Sektor reicht es so oder so.

Wenn, dann sollten wir nicht darüber reden, welchen Grafikkern eine CPU hat, sondern ob die Grafikkarte mal ein CPU Chiplet mit verpasst bekommt damit sie alles berechnen kann was ein Spiel fordert. AMD 5600 mit einem 4/8 Chiplet schon drin, oder eine 5700XT mir einem 6/12 Chiplet drauf. Das ist schließlich die Innovation dank der die Konsolen kompetitiv im Preis sind. Keine zwei Mainboards, keine zwei Sorten von RAM, keine zwei Kühllösungen. Stell Euch vor man müsste für den Spiele PC ein Mainboard weniger, einen Satz Speicher weniger und einen Kühler weniger kaufen.

Ob Intel, AMD oder Nvidia, entweder wollen sie nicht, oder sie können nicht und imo ist das ein gewaltiger Hemmschuh. Die Konsolen freut es solche APUs exklusiv zu bekommen, aber eigentlich ist es anti-kompetitiv und kundenfeindlich.
 

scorplord

Software-Overclocker(in)
Genau, wenn man nach Belegen fragt ist das provokativ...

Ich glaube die eine Frage bezüglich Belege war nur rausgepickt, weil darauf auch geantwortet wurde.
Deine Art und Weise wie du aber diese Einzelsätze nur möglichst knapp raushaust ist schon sehr provokativ vom lesen her. Der Inhalt ist weniger der Punkt.
 

BxBender

BIOS-Overclocker(in)
Also ich setze mal meine eigenen Gerüchte und eher logische Schlussfolgerungen hier ins Forum:

Wenn AMD spoilert, erst mit Desktop Ryzen 5000 größere Änderungen am Chip vorzunehmen, und Ryzen Desktop 4000 sei als verbesserte Version von Desktop Ryzen 3000 anzusehen, dann ist für mich eigentlich alles klar.

Das bedeutet für mich: Mobile Ryzen 4000 hat Vega Grafik, Mobile Ryzen 5000 hat vega Grafikf, erst Mobile Ryzen 6000 bekommt (AMD hat Änderungen angekündigt?!) Navi eingebaut.

Warum? Ich sagt es doch ständig selbst: Hardware wird langfristig Jahre im vorraus geplant und kann nich tmal eben von heute auf morgen umgebastelt werden.
Bestes aktuelle Beispiel: Intel braucht Jahre, um seinen neuen Chip zu konstruieren, im GPU und CPU Sektor mind. 3, wenn nicht sogar bis zu 5 Jahre.
AMD hat doch vorab den Fahrplan festgelegt, Zen 1 - 5.
Viel daran herumändern geht dann sehr schwer.

Für mich ist es zudem eher wahrscheinlich, dass man im Mobilsektor erst einmal die damals viel schlechtere Performance und Akkulaufzeit in einen eigenen Vorteil umkrempeln will und muss, das ist mit Mobile Ryzen 4000 ja jetzt auch wirklich gelungen, nachdem Mobile Ryzen 3000 schon ein guter Schritt war.
Man hat deswegen ja sogar die Grafik von 11 auf 8 Einheitenblöcke zurückgestuft, um da nochmal Strom einzusparen.
Daran sieht man doch, dass die CPU dort erst einmal Priorität hat.
Das ist auch wichtig, um überhaupt erst einmal Fuß zu fassen, denn was nutzt eine gute APU für Billigspiele, wenn die niemand verbaut und kaufen will?
Gamer kaufen nur mit guter Extrakarte ab NVidia 1650, wer nur Surfen und Videos schauen will, kauft sich die üblichen 400 Euro Wegschmeißtteile, wo Leute mit Grafikchipsätzen überhaupt nichts am Hut haben und nur den billigsten Preis und aber lange Akkulaufzeit vom Schild ablesen.
Wenn jetzt also mit Mobile Ryzen 5000 der nächste Schritt im Mobilsektor getan wird, um die Anbieter und auch dann die Allgemeinbevölkerung noch näher an AMD Produkte heranzuführen, dann kann man sich vielleicht auch mit einem besseren Grafikchip am Markt präsentieren, solange man dadurch auch Strom sparen kann.
Denn ansonsten wäre es für AMD auf jeden Fall gewinnbringender, z.B. mehr mobile Varianten einer 5500 draufpflanzen zu lassen, damit die Geräte auch wirklich spielbar werden, denn APUs sind nunmal weder Fisch noch Fleisch, sie kosten eher zu viel Akkuleistung, als dass sie dem Gaming von Nutzen wären.

Das ist so meine Meinung und Vermutung dazu. Danke fürs Weghören^^.
 

Unrockstar85

PCGH-Community-Veteran(in)
@Locuza

Alles richtig, aber die Frage ist ja dann: Wann hat AMD mit der Konzeptionierung von Zen3 begonnen.. Wann mit RDNA2.
Ist ja nicht so, dass man mal eben umschwenken kann. Geschweige denn, dass man mal eben die Architektur dahinter umwirft...Zen3 war schon in Designphase als es RDNA2 noch nicht gab.
Aber das werden wir wohl nicht erfahren. Ich sehe aber derzeit in Cezanne und Zen3 keine Revolution, sondern eben eine Evolution
 

DKK007

PCGH-Community-Veteran(in)
Ist die Frage, wie unabhängig CPU und iGPU in der APU voneinander sind. Ansonsten muss man da im Schaltplan einfach bloß die Grafikeinheit austauschen.
 

Bärenmarke

Software-Overclocker(in)
Hmm Vega wäre irgendwie schade. RDNA2 sollte ja doch deutlich effizienter ans Werk gehen. Und das ist dann doch entscheidend für APUs die auch in den Mobilsektor wollen

Die letzten Jahre im Tiefschlaf verbracht oder nur ein billiger Trollversuch? Vega ist sehr effizient, einfach mal die Test zu den neuesten APUs anschauen, dann kommt die Erleuchtung...
Des Weiteren wird die Wahl auf Vega vermutlich auch mit der Fertigung zu tun haben, da man "nur" auf eine optimierte Variante der 7nm Fertigung greift, wird es für AMD wohl günstiger sein wieder Vega zu verwenden, was ich durchaus verstehen kann. RDNA2 werden wir dann wohl erst mit Zen4 sehen. Zumal man ja auch nicht vergessen darf, dass der Fokus bei RDNA2 erstmal bei den Konsolen und Desktop GPUs lag und der Notebooksektor hinten anstehen musste, da man schon ganz gut aufgestellt ist.

Monolithische Cores haben bei hohen Stückzahlen einen Kostenvorteil und außerdem diverse andere Vorteile (Latenz).

Wie soll denn ein monolithisches Design einen Kostenvorteil erzielen? Das ist per se teurer wie ein Chiplet Design, außer bei ganz wenigen Cores. Denn je größer der DIE desto schlechter ist auch die Asubeute (bei neuen Prozessen). Der Vorteil im mobilen Bereich besteht hier im Verbrauch, da ein monolithisches Designs Verbrauchsvorteile gegenüber einem Chiplet Design hat (die Kommunikation kostet Strom). Deswegen wird dieser Ansatz auch im Notebooksektor verfolgt.

Genau, wenn man nach Belegen fragt ist das provokativ...

Belege wird er dir nie liefern, er ist ein bekannter AMD hater und intelfanboy, einfach mal seine Beiträge der letzten Jahre anschauen, da kommt das deutlich zum Vorschein... Auch immer wieder lustig, kaum kommt eine AMD news und in den ersten Postings sieht man die gleichen User mit den gleichen "kritischen" Kommentaren. Nur komischerweise liest man bei intel News nie was kritisches von diesen Herrschaften...
 

Rollora

Kokü-Junkie (m/w)
Die letzten Jahre im Tiefschlaf verbracht oder nur ein billiger Trollversuch? Vega ist sehr effizient, einfach mal die Test zu den neuesten APUs anschauen, dann kommt die Erleuchtung...
Des Weiteren wird die Wahl auf Vega vermutlich auch mit der Fertigung zu tun haben, da man "nur" auf eine optimierte Variante der 7nm Fertigung greift, wird es für AMD wohl günstiger sein wieder Vega zu verwenden, was ich durchaus verstehen kann. RDNA2 werden wir dann wohl erst mit Zen4 sehen. Zumal man ja auch nicht vergessen darf, dass der Fokus bei RDNA2 erstmal bei den Konsolen und Desktop GPUs lag und der Notebooksektor hinten anstehen musste, da man schon ganz gut aufgestellt ist.



Wie soll denn ein monolithisches Design einen Kostenvorteil erzielen? Das ist per se teurer wie ein Chiplet Design, außer bei ganz wenigen Cores. Denn je größer der DIE desto schlechter ist auch die Asubeute (bei neuen Prozessen). Der Vorteil im mobilen Bereich besteht hier im Verbrauch, da ein monolithisches Designs Verbrauchsvorteile gegenüber einem Chiplet Design hat (die Kommunikation kostet Strom). Deswegen wird dieser Ansatz auch im Notebooksektor verfolgt.



Belege wird er dir nie liefern, er ist ein bekannter AMD hater und intelfanboy, einfach mal seine Beiträge der letzten Jahre anschauen, da kommt das deutlich zum Vorschein... Auch immer wieder lustig, kaum kommt eine AMD news und in den ersten Postings sieht man die gleichen User mit den gleichen "kritischen" Kommentaren. Nur komischerweise liest man bei intel News nie was kritisches von diesen Herrschaften...

Wusste gar nicht, dass DK007 (der ja etwas belegen sollte)ein AMD Hater und Intel Fanboy ist. Belege! Ansonsten ist das nichts anderes als eine dreiste Lüge/Unterstellung deinerseits.

Und nein Vega per se ist keine effiziente oder effektive Gaming Architektur. Wär dem so, würde man wohl kaum versuchen von ihr wegzukommen. Underclocked und in kleinem Ausbau braucht man schnell msl wenig Strom, das heißt noch lange nicht, dass die Architektur nicht ineffizient ist im Vergleich zu anderen.
Natürlich kann man auch Vega effizient vetreiben mit niedrigen Taktraten und Voltages, aber wenn Vega die Effizientere Architektur ist, warum betont AMD dann den Effizienzsprung zu Navi?


Und, dass das Chipletdesign automatisch günstiger ist, ist natürlich auch nicht korrekt.
Das hängt mot verschidenen Faktoren zusammen unter anderem den Stückzahlen. Ansonsten wäre es ja schön blöd von Intel oder Sony/MS nichtvauf Chiplets zu setzen, die Erfindung ist schließlich nicht neu.
Der Verbrauchsvorteil ist natürlich richtig, wenngleich nicht der einzige Grund.
Die Yieldraten sind bei Intel etwa so hoch, weil man ein und denselben Chip eh für verschiedene Konfigurationen einsetzen kann. Aber AMD hat dafür den Vorteil wesentlich flexibler zu sein. Es hat also jeder der Ansätze Vor/Nachteile. Und einer der Vorteile eines monolithischen Ansatzes kann in gewissen Konstellationen eine Kostenersparnis sein.
 
Zuletzt bearbeitet:

scorplord

Software-Overclocker(in)
Wozu sollte ich unnötig mehr posten?

Wenn du mehr schreibst, würdest du nicht unnötig mehr sondern mal eine passende Menge schreiben. Mit dir sich zu unterhalten ist etwa wie mit einem kleinen Kind was ständig warum fragt. Irgendwann gibt man halt nur noch darum als Antwort und hofft das die Plage einen bald in Ruhe lässt.
 

DKK007

PCGH-Community-Veteran(in)
Wusste gar nicht, dass DK007 (der ja etwas belegen sollte)ein AMD Hater und Intel Fanboy ist. Belege! Ansonsten ist das nichts anderes als eine dreiste Lüge/Unterstellung deinerseits.

Da hast du irgendwas falsch interpretiert. Ich denke Bärenmarke bezieht sich da auf Causurin.
 

PCGH_Torsten

Redaktion
Teammitglied
Wieso AMD nicht einfach auf Chiplets bleibt und die GPU im I/O Die integriert?
Bei 7nm sollte genug Platz sein um bei ähnlicher Größe eine 8-10Core RDNA2 unterzubringen.

Somit ist diese Verwirrung mit den APUs nicht mehr vorhanden.
2000er nur Zen statt Zen+
3000er nur Zen+ statt Zen2
Und so weiter....
Wie soll denn ein monolithisches Design einen Kostenvorteil erzielen? Das ist per se teurer wie ein Chiplet Design, außer bei ganz wenigen Cores. Denn je größer der DIE desto schlechter ist auch die Asubeute (bei neuen Prozessen). Der Vorteil im mobilen Bereich besteht hier im Verbrauch, da ein monolithisches Designs Verbrauchsvorteile gegenüber einem Chiplet Design hat (die Kommunikation kostet Strom). Deswegen wird dieser Ansatz auch im Notebooksektor verfolgt.

Ein monolithisches Design erspart gegenüber Chiplets Kosten beim Substrat, vor allem aber die Interconnects ein. Die brauchen Platz, nicht unbedingt wenig Strom und kosten Leistung. Umgekehrt kann die Ausbeute von ohnehin relativ kleinen Chips auch bei monolithischer Fertigung sehr gut sein. Wenn man bereits 98,5 Prozent Yield hat, dann kann eine Reduktion des Ausschusses um 1/3 durch einen Großen I/O+GPU- und einen kleinen CPU-Chip beispielsweise nur 0,5 Prozent Silizium einsparen. Das verbraucht man bei zwei Chips aber schon allein durch die Freiräume um die zusätzliche Schnittkante und durch die Interconnects. Erschwerend kommt hinzu, dass die Größe von I/O-Chips zum Teil schon durch die Anschlüsse vorgegeben wird: Man kann sie gar nicht mehr kleiner machen, weil man dann nicht mehr alle Konakte nach außen führen kann. Hier gibt es zusätzliche Recheneinheiten also gratis, wenn man wegen dem Stromverbrauch ohnehin in 7 nm fertigen möchte.



So ist es, Slim halt. Da zählt vor allem Akkulaufzeit. Die Videoengine wurde schon bei Renoir's Vega geupdatet.


Ich glaube das ist lediglich eine optionale Zielgruppe und unter 720p gut und gerne möglich. Da zählt eher kleiner Formfaktor, Ersparnis und jedes Watt. AMD soll seine Bemühungen um 40-50, auf 170 Designwins gesteigert haben.

Selbst Intel hat die Reduktion auf minimales 3D + Encoder mittlerweile aufgegeben. Ich verstehe zwar auch nicht, wozu man in einem Office-PC oder einem portablen Arbeitsgerät mehr braucht, aber AMD verkauft die APUs auch über Gaming-Leistung und das klappt nur, wenn sie tatsächlich mehr bieten.


Als Spieler kann es einem denke ich egal sein, ob Vega oder Navi drinsteckt, so oder so kommt nicht viel dabei rum. Für den Office Sektor reicht es so oder so.

Wenn, dann sollten wir nicht darüber reden, welchen Grafikkern eine CPU hat, sondern ob die Grafikkarte mal ein CPU Chiplet mit verpasst bekommt damit sie alles berechnen kann was ein Spiel fordert. AMD 5600 mit einem 4/8 Chiplet schon drin, oder eine 5700XT mir einem 6/12 Chiplet drauf. Das ist schließlich die Innovation dank der die Konsolen kompetitiv im Preis sind. Keine zwei Mainboards, keine zwei Sorten von RAM, keine zwei Kühllösungen. Stell Euch vor man müsste für den Spiele PC ein Mainboard weniger, einen Satz Speicher weniger und einen Kühler weniger kaufen.

Ob Intel, AMD oder Nvidia, entweder wollen sie nicht, oder sie können nicht und imo ist das ein gewaltiger Hemmschuh. Die Konsolen freut es solche APUs exklusiv zu bekommen, aber eigentlich ist es anti-kompetitiv und kundenfeindlich.

Wo läge in dem Beispiel noch der Unterschied zu einer Konsole, wenn alle Prozessoren und der gesamte Speicher auf einer Platine verlötet werden?


@Locuza

Alles richtig, aber die Frage ist ja dann: Wann hat AMD mit der Konzeptionierung von Zen3 begonnen.. Wann mit RDNA2.
Ist ja nicht so, dass man mal eben umschwenken kann. Geschweige denn, dass man mal eben die Architektur dahinter umwirft...Zen3 war schon in Designphase als es RDNA2 noch nicht gab.
Aber das werden wir wohl nicht erfahren. Ich sehe aber derzeit in Cezanne und Zen3 keine Revolution, sondern eben eine Evolution

Die Entwicklung einer CPU-Architektur dreht sich lange Zeit nur um die eigentlichen Kerne. Deren Implementation in eine APU erfolgt erst viel später, umgekehrt kann man hier auch eine neue GPU-Technologie einfließen lassen. Allerdings ist es gut möglich, dass Cezanne einfach ein Renoir mit reinkopiertem Zen3-CCX an Stelle der beiden Zen2-CCX ist. In dem Fall hat die Entwicklung möglicherweise erst dieses Jahr begonnen, war aber auch von vorneherein mit minimalem Arbeitsaufwand geplant.
 
Oben Unten