News AMD Ryzen 8000 ("Zen 5"): Gerüchte zu Strix Point und der Mega-APU Strix Halo

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Ryzen 8000 ("Zen 5"): Gerüchte zu Strix Point und der Mega-APU Strix Halo

Die Gerüchteküche hat neue Details zu den mobilen Zen-5-APUs der Serie Ryzen 8000 ("Strix Point") und der erwarteten Mega-APU ("Strix Halo") zutage gefördert, welche sich insbesondere auf die Kombinationen der Prozessorkerne aus Zen 5 und Zen 5c beziehen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD Ryzen 8000 ("Zen 5"): Gerüchte zu Strix Point und der Mega-APU Strix Halo
 
"oder 8x Zen 5 + 8x Zen 5c"

Also macht AMD jetzt doch einen auf Hybrid ?
Dachte mal was gelesen zu haben, dass sie auf das INTEL (P u. E Cores) Modell verzichten wollen.
 
Glaube bei der "CPU-Konifguration" in der Tabelle ist nicht nur ein Schreibfehler, sondern Ihr habt dabei auch die Daten für Strix Halo und Strix Point vertauscht?


Aber Strix Halo sieht bisher wirklich extrem gut aus. :)
 
Glaube bei der "CPU-Konifguration" in der Tabelle ist nicht nur ein Schreibfehler, sondern Ihr habt dabei auch die Daten für Strix Halo und Strix Point vertauscht?


Aber Strix Halo sieht bisher wirklich extrem gut aus. :)

Ja, 2560 Shader klingen wirklich gut, wenn man einfach nur ein wenig Causal äh Casual (der Fehler war echt^^) unterwegs sein möchte, oder sich mit Sahnestücken älterer Tage aus dem Sale begnügt.
Sachen wie eine Arc380 kann man dann ja wohl auch getrost in die Restetonne werfen.
Obwohl, Chinesen kaufen ja trotzdem gerne dediziert, selbst wenn es schlechter als das integrierte Zeug ist.
Komisches Völkchen.
 
"oder 8x Zen 5 + 8x Zen 5c"

Also macht AMD jetzt doch einen auf Hybrid ?
Dachte mal was gelesen zu haben, dass sie auf das INTEL (P u. E Cores) Modell verzichten wollen.
Nein Zen 5c kannst du nicht mit einem E-Core bei Intel vergleichen. Zen 5c hat die gleiche Architektur wie alle Zen5 Kerne. Der Unterschied ist nur, dass Zen 5c weniger L3 Cache hat und das Layout für niedrigere Taktfrequenzen optimiert wurde. Das resultiert in wesentlich kleinerer Chipfläche und Stromverbrauch. Aber technisch gesehen können die Zen 5c das gleiche was die "normalen" Zen 5 Kerne auch können. Sie haben die gleiche Architektur.
Intels E-Cores sind ein komplett anderes Design als die P-Cores. EDIT: Soweit ich weiß sogar mit anderem Instructionset. Bei der zwölften Generation wurden die E-Cores zu erklärt: "Die E-Kerne nutzen die Gracemont-Architektur, diese soll eine IPC ähnlich der alten Skylake-Implementierung aufweisen."
 
Zuletzt bearbeitet:
"oder 8x Zen 5 + 8x Zen 5c"

Also macht AMD jetzt doch einen auf Hybrid ?
Dachte mal was gelesen zu haben, dass sie auf das INTEL (P u. E Cores) Modell verzichten wollen.
Das ist schon relativ lange Stand der Dinge, allerdings unterscheidet sich die Art des Modells schon stark. Die "c" Cores von AMD sind im Prinzip nur vereinfachte "non C" Cores und keine Effizienzkerne. Sie verbrauchen weniger Platz auf dem Wafer, sind daher in erster Linie deutlich günstiger, werden aber keine Funktionseinheiten verlieren. Lediglich Cache wird eingeschränkt, sowie wird es C Cores nicht mit 3D Stack geben, da hier die Verbindungen nicht mitbelichtet werden und es werden Transistoren eingespart die sonst für hohe Taktraten benötigt werden. Daher ist es schon eine Art "E" Core, aber eben eine ganz andere Vorgehensweise als Intel, die ja eine eigene Architektur haben.

Die haben das aber nur für Desktop geäußert nicht für Laptops.
Ich glaube, dass die Aussage seinerzeit von AMD so gar nicht kam. Ich meine, man hat um den heißen Brei herumgeredet und nie offiziell gesagt "NEIN". Die Gerüchte nach solchen E-Cores (wird langsam echt kompliziert) gibt es ja schon, seit Alder Lake offiziell angekündigt wurde und jedesmal war seither Zen 5 als Releaszeitraum genannt. Jetzt kommen die "C-Cores" ja schon bei Zen 4 zum Einsatz, ich denke hier ist es wie so oft im Marketing, es sind ja keine E-Cores, also nennen wir sie so auch nicht. AMDs Gedanke ist auch grds. richtig (medial & Marketing), wenn man sie wie Intel E-Cores nennt, setzt man deren Wert von vorneherein herab und baut eine Erwartungshaltung auf. Nennt man das Ding jetzt C-Core weiß der Laie ja gar nicht was er erwarten darf und ggfls. kommt ein nicht so integrierter Kunde (ja, soll ein Wortwitz sein) auf die Idee, "nö, ich will die geilen C-Cores, die klingen ja noch viel geiler als die nicht C-Cores").

Sachen wie eine Arc380 kann man dann ja wohl auch getrost in die Restetonne werfen.
Wenn das wirklich in Richtung 4070 Q-Max geht, ist das schon mehr als beeindruckend, da würden dann relativ spontan sehr viele GPUs unnütz werden und das so zeitnah soviel Leistung in einer APU erreicht wird war glaube ich auch noch nicht vorhanden. Vor allem wenn die dann wirklich "frei" verfügbar ist und keine spezial APU für die PS5 Pro oder so wird.
 
Ja, 2560 Shader klingen wirklich gut, wenn man einfach nur ein wenig Causal äh Casual (der Fehler war echt^^) unterwegs sein möchte, oder sich mit Sahnestücken älterer Tage aus dem Sale begnügt.
Sachen wie eine Arc380 kann man dann ja wohl auch getrost in die Restetonne werfen.
Obwohl, Chinesen kaufen ja trotzdem gerne dediziert, selbst wenn es schlechter als das integrierte Zeug ist.
Komisches Völkchen.
du hängst mit einer iGPU ja trotzdem nur am DDR5 Speicherbus, schneller ist evtl trotzdem die 380, und außerdem kaufen sowas ja nicht nur Chinesen: wenn du eine kleine GPU nachrüsten möchtest/musst ist das Ding nicht unpraktisch, etwa auch dank AV1 encode (bis auf die SAM/ReBar Abhängigkeit)
 
Nein Zen 5c kannst du nicht mit einem E-Core bei Intel vergleichen. Zen 5c hat das gleiche Instructionset wie alle Zen5 Kerne. Der unterschied ist nur, dass Zen 5c weniger L3 Cache hat und das Layout für niedrigere Taktfrequenzen optimiert wurde. Das resultiert in wesentlich kleinerer Chipfläche und Stromverbrauch.
Es ist also das gleiche Prinzip, aber eine andere Herangehensweise.
Schon witzig, wenn man bedenkt, dass AMD damals gegen bigLITTLE geschossen hat ;)
 
Ich finde, es wird zu wenig darüber gesprochen, dass Zen C(ompact) eigentlich auch 3D-V-Cache bräuchte. Klingt vielleicht nach einer krassen These, aber sie hat Hand und Fuß:
Die Ziele für Zen C(ompact) sind vor allen Dingen extrem hohe Packdichte, eine komplett kompatible Architektur und hohe Energieeffizienz.
  1. Extrem hohe Packdichte hat die positiven Effekte, dass viele Kerne untergebracht werden, der Chip gleichzeitig klein bleibt und das ganze somit sehr kosteneffizient zu fertigen ist. Dafür braucht es aber zwei Dinge: Energieeffizienz, denn auf der kleinen Fläche wären hochkochende Kerne nicht zu kühlen und man muss irgendwo den Rotstift ansetzen. Sinnvollerweise-synergetisch bietet es sich an, dafür die Bereiche wegzustreichen, die einen hohen Takt ermöglichen. Das macht es leichter, ein kompaktes Layout zu finden und sorgt dafür, dass die CPU gar nicht mehr ineffizient arbeiten kann.
  2. Die komplett kompatible Architektur entstammt dem Server-Fokus, denn es bedeutet, dass keine Optimierungen des Codes pro Kern nötig sind. Ein netter Nebeneffekt ist die Tauglichkeit für Consumer-Prozessoren. Auch hier muss das OS relativ wenig machen.
  3. Die hohe Energieeffizienz folgt nicht nur aus der extrem hohen Packdichte, sondern sie war gleichzeitig auch ein eigenes Designziel. Auch dieses entstammt klar der Serverwelt. Die Server laufen möglichst ohne Unterbrechungen und entsprechend hohe Einsparungen sind durch hohe Energieeffizienz möglich. Ein netter Nebeneffekt ist abermals die Nutzung für Consumer-Prozessoren. Mobile Prozessoren spielen hier die erste Geige, aber eben auch für Desktop-Prozessoren ist attraktiv. Wenn heute die Wahl bestünde, statt zu einem 7950X3D als eine Kombi aus 1xRaphael-DIE-mit-V-Cache+1xRapahel-DIE zu 1xRaphael-DIE-mit-V-Cache+1xBergamo-DIE zu greifen, dann wäre letzterer in nahezu allen praktischen Einsatzszenarien überlegen.
Das alles gilt nicht nur für Zen 4C(ompact), sondern für Zen C(ompact) insgesamt.
In der Praxis wurden bei Zen4C sowohl die TSVs gestrichen als auch kein unified Cache verbaut. Erstes hat wahrscheinlich ein Bisschen Fläche gespart, letzteres lag vermutlich daran, dass es schlicht und ergreifend einfach war, zwei 8C-CCXes nebeneinanderzusetzen. Diese haben immer noch geringere Latenzen untereinander als zu Kernen auf einem anderen CCD, entsprechend bleiben 16C-Zen4C bei gleichem Takt schneller als 8C+8C-Zen4 bei gleichem Takt.
Beides, kein unified Cache und keine TSVs führen dazu, dass V-Cache mit Zen4C weder super lohnend noch überhaupt möglich ist. Doch das sollte nicht trügen, dass dieser aktuelle Status irgendetwas für die Zukunft ausschließen würde. 3D-V-Cache lohnt sich Zen C(ompact) generell nämlich total!
  1. Der-V-Cache sorgt dafür, dass auf mehr Cache im CPU-DIE verzichtet werden kann. Ja, der Cache auf dem eigentlichen DIE kann zusammengestrichen und das Design weiter kompakt gebaut werden. Die physischen Entfernungen zum V-Cache sind gering, entsprechend einfach ist es, ihn weiterhin bei geringer Latenz zu halten. Das Zusammenstreichen des Caches ermöglicht es dann wiederum, aus den zwei L3-Cache-Blöcken leichter einen vereinigten L3-Cache-Block zu machen.
  2. Ein vereinigter Cache-Block macht die Ansteuerung noch ähnlicher zum nicht-kompakten Design.
  3. Cache bringt Energieeffizienz. V-Cache indes hat vor allen Dingen einen Haken: Er erschwert die thermische Abführung. Dadurch erfordert er bereits hohe Energieeffizienz. Doch Zen C(ompact) soll ohnehin nur am Sweetspot betrieben werden, entsprechend gibt es gar kein erforderliches Opfer.
Ob wir V-Cache schon bei Zen 5C sehen werden oder erst bei Zen 6C kann ich natürlich dennoch nicht voraussagen. Vieles hängt auch damit zusammen, wie gut sich die Packaging-Kapazitäten bei TSMC entwickeln werden und ob AMD vielleicht auch neue Tricks einfallen, um dieses zu optimieren.
 
Es ist also das gleiche Prinzip, aber eine andere Herangehensweise.
Es ist bei Intel und AMD schon das gleiche Prinzip...
Schon witzig, wenn man bedenkt, dass AMD damals gegen bigLITTLE geschossen hat ;)
...aber beide haben wenig mit big.LITTLE aus dem ultramobilen Bereich zu tun. Der eigentliche Gedanke bei big.LITTLE ist nämlich, Kerne zu haben, die im Leerlauf alle Aufgaben übernehmen, um die großen Kerne schlafen zu legen. Davon braucht es nicht viele, sondern bloß genügend.

Der Ansatz von Intel (und in Zukunft auch von AMD) ist hingegen, neben einigen wenigen Kernen, die alles abarbeiten, was (vergleichsweise) wenig parallelisiert werden kann, auch noch (im Verhältnis) Massen an Kernen zu haben, die bei allem mitarbeiten können, was (nahezu) perfekt parallelisiert werden kann. Bei (nahezu) perfekter Parallelisierung sind mehr Kerne des gleichen Types bei gleichem Gesamt-Powerbudget einfach effizienter. Ein 100W-RaptorCove-Prozessor mit einer Konfiguration von 12P+0E wäre in solcher Software auch effizienter als einer mit 8P+0E. Nur ist eben 8P+16E in dem gleichen Szenario einfach noch stärker. Denn es sind einfach mehr Kerne, die gleichzeitig nicht allzu schlecht sind.

Es ist hoffentlich klar geworden, wieso das eigentlich ein vollkommen anderes Konzept als big.LITTLE ist. ARM hat das ganze nur dadurch verkompliziert, dass heutzutage die Effizienzkerne bei ihnen halt auch an anderen Aufgaben herumarbeiten.
Würden Intel- und AMD-CPUs auch big.LITTLE erhalten, dann wären sie im Leerlauf und Quasi-Leerlauf wahrscheinlich noch deutlich effizienter als heute. Von den entsprechenden Kernen hätte dann aber selbst eine kommende Giganto-CPU mit 12P+64E-Kernen aber bloß vier oder so. Sie säßen möglichst nah am IO-Bereich, damit der Rest der CPU möglichst tief schlafen gehen kann, während er nicht gebraucht wird.
 
Strix Halo im Sockel würde mich trotzdem eher wundern.
LPDDR5X erlaubt schließlich deutlich mehr Bandbreite (bei schlechteren Latenzen, aber GPUs brauchen eher Ersteres) als gesockelter RAM.
 
du hängst mit einer iGPU ja trotzdem nur am DDR5 Speicherbus
dafür allerdings auch DDR5X und 256Bit


Es ist also das gleiche Prinzip, aber eine andere Herangehensweise.
Schon witzig, wenn man bedenkt, dass AMD damals gegen bigLITTLE geschossen hat
Ja und Nein!

Intel hat bigLITTLE in meinen Augen in einem völlig anderen Kontext gebracht und auch entwickelt, der Ansatz war in meinen Augen massiv die Effizienz in ungeahnte Sphären zu heben und letztendlich auch um dem AMD Chipletdesign Kerne entgegenwerfen zu können, was ja auch grds. sehr gut funktioniert, auch wenn man die Effizienzkarte komplett opfern musste.

AMD braucht dies aber letztendlich auf Grund des Chipletdesigns so gar nicht machen, mit Kernen um sich werfen kann man auch jetzt schon, die Effizienz kann man ja auch in einem gewissen Maße fast beliebig skalieren, wie man bspw. an den Epycs sieht, 96 Kerne bei 2,2Ghz verbrauchen nicht wirklich mehr als ein 16 Kerne bei 5 Ghz, sind aber (in geeigneten Anwendungen) um ein Vielfaches schneller. Daher geht AMD hier eben den Ansatz, den ich so interessant aber zugleich auch gut finde die normalen Zen Cores einfach entsprechend zu designen, damit liefert man potenziell nahezu die gleiche Leistung pro Mhz (evtl. dämpft der fehlende Cache), muss sich nur darauf konzentrieren eine Architektur zu entwickeln (was für den kleinen David nicht ganz unwichtig sein dürfte) und kann dann in einem zweiten Step eben die Fertigungsfläche, am Ende dann eben Leistung pro mm² Wafer massiv steigern. Die Effizienz ist dann am Ende nur logisch und dürfte in meinen Augen kaum besser als bei einem gleich getakteten Standard Core liegen.

Am Ende werden beide recht ähnliches erreichen, mehr Kerne bei weniger Fläche! Aber der Ansatz ist eben grundlegend anders und wird auch in unterschiedlichen Szenarien anders funktionieren, bspw. wird AVX meines Wissens nach von den E-Cores nicht unterstützt, während AMDs C-Cores das können.
 
Jetzt ist Ihre Meinung gefragt zu AMD Ryzen 8000 ("Zen 5"): Gerüchte zu Strix Point und der Mega-APU Strix Halo
Mich verwundern die monolitischen CPUs bis zu 12 Kernen. Ist der Chipletansatz doch mit mehr Nachteilen behaftet, als ich bisher annahm? Deutet an, dass es keine CPUs mit Sockel sind, sondern verlötetet.

Egal, warten wir auf den PCGH Test, alles vorher ist reine Spekulation. Vor allem fehlen mir Daten zum L1 und L2 Cache.
 
Sehr gut. Freue mich, wenn ich in 4K ohne dedizierte GPU zocken kann. Aber bis ich meine 7900 XT gegen eine APU tauschen kann, wird es noch einige Jahre dauern.
 
Mich verwundern die monolitischen CPUs bis zu 12 Kernen. Ist der Chipletansatz doch mit mehr Nachteilen behaftet, als ich bisher annahm? Deutet an, dass es keine CPUs mit Sockel sind, sondern verlötetet.

Egal, warten wir auf den PCGH Test, alles vorher ist reine Spekulation. Vor allem fehlen mir Daten zum L1 und L2 Cache.
Für Chiplets brauchst du mehr Fläche und da das Teil auch für Handhelds gedacht ist dürfte das Thema Flächeneffizienz deutlich gewicht kriegen.
 
Sehr gut. Freue mich, wenn ich in 4K ohne dedizierte GPU zocken kann. Aber bis ich meine 7900 XT gegen eine APU tauschen kann, wird es noch einige Jahre dauern.
Dann aber wohl Spiele aus mehreren Jahren zuvor.... bei 4 K mein ich^^.
Sa haben ja vollwertige Karten heute so ihre Probleme, wenns nicht grad Indygames sind. Ich glaub du interpretierst da etwas zu viel Leistung rein, zumindest in der Realität. Ohne dir zu nahe treten zu wollen, ist nciht böse gement, ok?
 
Strix Halo im Sockel würde mich trotzdem eher wundern.
LPDDR5X erlaubt schließlich deutlich mehr Bandbreite (bei schlechteren Latenzen, aber GPUs brauchen eher Ersteres) als gesockelter RAM.
Sehe ich auch niemals im Desktop, nur mobile, daher ja auch der Vergleich mit ner 4070 maxQ. Die wohl im September kommende RX7700 mit voraussichtlich 48CU's und ebenfalls 64mb L3-Cache ist ja recht vergleichbar (auch wenn das noch nicht RDNA3.5 ist) und die kommt mit 432 GB/s Bandbreite, auf dem Desktop mit DDR5 ist was maximal möglich, ~60 GB/s mit DDR5 >7000? Da verhungern die 40 CU's doch hoffnungslos im Bandbreitenlimit, würde mich dich stark wundern, wenn es das so zu kaufen gäbe.
 
Nach dem Release der PS5 und der XBox X dachte ich eigentlich schon, dass AMD relativ zeitnah auch etwas ähnliches als APU für den PC-/Mobile-Markt bringen würde, um den Einsteigergrafikmarkt und den Markt für (kleinere) dezidierte GPUs in Notebooks und Co. damit komplett aufzurollen und obsolet zu machen.

Mal schauen, ob sie damit nun 2-3 CPU/GPU-Generationen später endlich beginnen werden.
 
Zurück