News Zen 5: Altbekannte Kernzahlen bei Ryzen 9000 im Sommer

PCGH-Redaktion

Kommentar-System
Teammitglied
Ryzen 9000 soll bereits kommende Woche gezeigt werden und mit bekannten Kernzahlen dann noch im Sommer starten. Im Juli die Desktop-Modelle mit Granite Ridge; danach die Mobile-CPUs und anschließend auch die bei Spielern beliebten 3D-NAND-Modelle.

Was sagt die PCGH-X-Community zu Zen 5: Altbekannte Kernzahlen bei Ryzen 9000 im Sommer

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Warum sollten 16 Kerne (aktuell) nicht reichen? Jeder der mehr bräuchte, wird das vermutlich beruflich benötigen und dann wohl zu neem Threadripper greifen o.ä.
Einen riesen Vorteil haben Intels viel Kerner ja gegenüber neem 16 Kern AMD Modell jetzt auch nicht und Spiele die mit so vielen Kernen klar kommen bzw. diese auch anständig nutzen können, sind sehr selten und dann ist FPS Vorteil auch noch Recht gering. Gibt ja immer noch genug Games, die nicht Mal mit 8 harmonieren, um das ganze Mal aufs Gaming zu fokussieren.
 
16 kerne würden schon reichen, wenn diese alle 3D Cache hätten. Allerdings ist davon nicht auszugehen, da es dann ja ein CCD mit 16 Kernen benötigen würde. Eine andere Alternative wäre, wenn der normale 16 Kerner in Games jetzt 20% vor einem 7800X3D liegen würde, aber auch davon gehe ich nicht aus.
 
16 kerne würden schon reichen, wenn diese alle 3D Cache hätten. Allerdings ist davon nicht auszugehen, da es dann ja ein CCD mit 16 Kernen benötigen würde. Eine andere Alternative wäre, wenn der normale 16 Kerner in Games jetzt 20% vor einem 7800X3D liegen würde, aber auch davon gehe ich nicht aus.
Warum sollte das 16 Kerne in einem CCD benötigen? Man kann auch zwei CCDs jeweils mit 3D Cache ausstatten, schau dir mal die Epycs an, da geht das ja auch.
 
Epycs werden eingesetzt, wenn viele unabhängige Prozesse parallel laufen. In einem Desktop-PC, vor allem als Spieler, braucht man die Rechenleistung aber konzentriert in einer Anwendung, denn mehr als eine kann man halt nicht bedienen. Somit hat man immer Probleme mit den Latenzen innerhalb heterogener Prozessoren. Wenn man extrem Compute-limitiert ist, kann dies das kleinere Übel gegenüber dem Einsatz von mehr Rechenkernen sein – Videos lieber auf 8+8-Kernen als auf 8 pur bearbeiten. Aber Anwendungen, die stark vom V-Cache profitieren, sind quasi per Definition nicht Compute-, sondern Speicher-, meist Speicher-Latenz-limitiert. Wenn man denen zusätzlich durch ein paar Kerne mehr einen kleinen extra Bonus verschaffen will oder, wichtiger, einen weiteren dicken Boost durch noch mehr Cache, dann müssen diese zusätzlichen Einheiten schnell ansprechbar sein. Sowas konnte AMDs IF bislang nicht leisten.

=> Entweder ein CCD oder man kann sich den zweiten Cache auch direkt sparen. Ersteres ist in meinen Augen aber noch auf lange Sicht ausgeschlossen, solange man nicht von der "das gleiche Chiplet für alle CPUs"-Strategie abweicht. 16er nebst verdoppelter Anbindung wären für die Masse des Desktopmarktes zu groß, da würde man jede Menge Silizium verschwenden. Aber ein zweites CCD ist in latenzkritischen Situationen halt nutzlos und kann lediglich für die Auslagerung von komplett unabhängigen Hintergrundlasten genutzt werden. Nur wird ein System halt nicht schneller, wenn Windows & Steam-Client acht Zen-Kerne plus V-Cache bekommen. Gamer bräuchten neben dem möglichst mächtigen Haupt-CCD eigentlich nur zwei bis vier Zen 4c für den Kleinkram.
 
Zuletzt bearbeitet:
Bin echt aufgeregt und möchte wissen was die Teile draufhaben, ob wir wie eins eine Überraschung erleben werden, oder sind es am Ende doch nur 10 bis 20 % Zuwachs im Rechnen.

Auf Intels Antwort freue ich mich auch schon drauf malsehen ob Intel in Sachen Effizienz, was gemacht hat.
Die ganz normalen Zen 5 interessieren mich nicht ehrlich gesagt ich warte auf die 3-D Modelle davon, aber ich möchte schon gerne sehen zu was AMD im Stande, ist oder auch nicht zu leisten.

Wird man Intel wieder hinter sich, lassen im Pro-Watt battle oder werden die Karten neugemischt wir werden es bald erfahren, wovon ich aber nicht ausgehe ....

Das Gute an der Sache ist aber, dass Intel früher oder später auch auf dass Nand verfahren umsteigen wird da AMD und Intel ihre Patente miteinander teilen müssen ist Kartellamtlich in den USA geregelt. ;)
 
Epycs werden eingesetzt, wenn viele unabhängige Prozesse parallel laufen. In einem Desktop-PC, vor allem als Spieler, braucht man die Rechenleistung aber konzentriert in einer Anwendung, denn mehr als eine kann man halt nicht bedienen. Somit hat man immer Probleme mit den Latenzen innerhalb heterogener Prozessoren. Wenn man extrem Compute-limitiert ist, kann dies das kleinere übel gegenüber dem Einsatz von mehr Rechenkernen sein – Videos lieber auf 8+8-Kernen als auf 8 pur. Aber Anwendungen, die stark vom V-Cache profitieren, sind quasi per Definition nicht Compute-, sondern Speicher-, meist Speicher-Latenz-limitiert. Wenn man denen zusätzlich durch ein paar Kerne mehr einen kleinen extra Bonus verschaffen will oder, wichtiger, einen weiteren dicken Boost durch noch mehr Cache, dann müssen diese zusätzlichen Einheiten schnell ansprechbar sein. Sowas konnte AMDs IF bislang nicht leisten.
Solange man einen IO-Die dazwischen hat bezweifel ich dass sich da auch was ändern wird. Eine direkte CCD zu CCD Kommunikation könnte evtl. einige dieser Probleme angehen. Aber ohne echten Druck von der Konkurrenz wird man wohl kaum Optimierungen dafür sehen.
 
Selbst mit direktem Link habe ich da so meine Zweifel. Die großen Zen 1 waren ja so aufgebaut und hatten massive Latenzprobleme; Intels monolithische CPUs wurden und werden seit Ewigkeiten direkt mittels QPI respektive Nachfolgern verbunden und müssen trotzdem als heterogenes System verwaltet werden. Selbst bei Sapphire Rapids, der einen extra Link für jede Reihe und jede Spalte von Kernen nutzt und dabei meinem Wissen nach sogar ohne Protokollwechsel auskommt, hatten wir in Spielen keine berauschende Leistung – massiv mehr Kerne und massiv mehr Cache können es scheinbar nicht aufwiegen, dass das Mesh (und in dem Fall ggf. auch der RAM-Controller) langsamer ist. Ähnliches haben wir bei Intel vorher auch schon zwischen Skylake und Skyalke X gesehen. Letzterer hatte viel mehr Kerne und Speicherkanäle, war aber selbst auf den gleichen Takt geprügelt langsamer. @spec sogar langsamer als sein Ring-Bus-nutzender Vorgänger. Leider sind Ring-Busse umgekehrt nur eingeschränkt skalierbar.
 
Zuletzt bearbeitet:
Hatte mir eigentlich vorgenommen mit Zen5 auf AM5 zu wechseln.
Ryzen 2600, jetzt Ryzen 5600 und dann eben Zen5 und dann wieder eine der letzten CPUs für AM5.
Aber ich habe eigentlich keinen Bedarf.
Wenn ein 6 Kerner mit x3d Endung kommt, würde ich aber doch aufrüsten 😅

Naja, schauen wir mal was alles kommt.
 
Na ein wenig mehr Kerne hätten sie mit der neuen Gen dann schon bringen können.
8 statt 6
10 statt 8
14 statt 12

Bin gespannt, wo der Geschwindigkeitsunterschied wirklich liegt.
 
Die Apokalypse, das jüngste Gericht das Armageddon, das Ende der Zeit rückt näher.
Es wird ein Pfeil inmitten ins Herz, verbunden mit einem See voller Tränen werden. (kleine Anspielung auf Arrow Lake:D)
Hört ihr bereits die Totenglocken läuten?
Seht ihr bereits die Götterdämmerung am Horizont aufziehen, Intel wird im Weltenbrand untergehen und aus der kümmerlichen Asche von Arrow lake wird Zen 5 3D wie ein Phönix in ungeahnte Gefilde emporsteigen und mit seiner Effizienz und Power alles dagewesene mit seinen brennenden Flügeln hinwegfegen.
 
Ich hoffe doch mal, dass Granite Ridge nichts wie "Phoenix" machen wird, sondern deutlich besser wird.^^

@Aeshma-Deva: Die CCD-Problematik bedingt auch, dass AMD keine gute Möglichkeit hat, 10-Kerner anzubieten und da sie beim Topmodell nicht über 16 gehen können, wäre auch ein 14-Ender schwer im Portfolio zu platzieren.
 
Schaut doch ganz gut aus. Zen 5 wird also eine 19 (!!!) mal so gute Verbesserung wie Zen 4. Der brachte 13% mehr IPC im Schnitt mit. Dann wird's bei Zen 5 also knapp 250% mehr IPC im Schnitt. Ist gekauft. :D

Okay, mal ernsthaft. Wer die Rechnung nicht kapiert hat, Zen 4 hatte im CPU-Z 1T Bench gerade mal 1% mehr IPC als Zen 3, was quasi ein Worst-Case darstellte. Mal abgesehen davon, dass ich von CPU-Z nichts halte, sagt ein Bench eines ES aber herzlich wenig aus. Und ob der überhaupt echt ist, bleibt auch fraglich. Auch wenn er durchaus ins Bild passen würde. Wenn CPU-Z weiterhin ein Worst-Case bleibt, und wir im Schnitt gut 10% mehr sehen, dann wären wir bei etwa 30%. Was für mich von allen Gerüchten die naheliegendste wäre. Denn genau das hatte Jim Keller anhand von specint2017 1T prognostiziert. Und irgendwie glaube ich hat er immer noch mehr Ahnung von der Materie als alle Leaker zusammen. Auch wenn seine Prognose für die Server-Ableger war. Was aber keinen grundlegenden Unterschied machen dürfte.
 
Epycs werden eingesetzt, wenn viele unabhängige Prozesse parallel laufen. In einem Desktop-PC, vor allem als Spieler, braucht man die Rechenleistung aber konzentriert in einer Anwendung, denn mehr als eine kann man halt nicht bedienen. Somit hat man immer Probleme mit den Latenzen innerhalb heterogener Prozessoren. Wenn man extrem Compute-limitiert ist, kann dies das kleinere übel gegenüber dem Einsatz von mehr Rechenkernen sein – Videos lieber auf 8+8-Kernen als auf 8 pur.
Hm was viele Unabhängige,wie sieht es denn mit 2 das selbe Programm aus,sind das auch 2 unabhängige Prozesse oder ein und das selbe Programm und wie verhält es sich denn da so,werden die beiden Programm zusammen gelegt und so Prozesse vereinfacht oder weil sind ja wenn sie 2 Unterschiedliche VIdeos gleichzeitig Umwandeln,ja nicht von einander Abhängig.WIe verhält es sich denn da.Klar zwei Programmer dieser Sorte bremsen einen 8 Kerner auf die doppelte Zeit ein,aber nicht bei einem 12 oder 16 Kerner oder sogar wie du beschrieben an einen 24 Kerner und so ,das nicht.Wäre mich nur interessieren,was du davon hälst bzw deine Meinung dazu,wie die so Aussieht.
 
Warum sollte das 16 Kerne in einem CCD benötigen? Man kann auch zwei CCDs jeweils mit 3D Cache ausstatten, schau dir mal die Epycs an, da geht das ja auch.
Hat Torsten ja bereits angerissen. Das Problem ist hier die Latenz. War auch schon recht verhalten von AMD selbst zu hören. Zwei getrennte Cache-Pools aufgrund von AMDs CPU-Design sind hier im Gaming-Szenario eher problematisch, wird also erst was mit Zen6 werden, der möglicherweise auch ein reguläres CCD mit 16 Kernen anbieten wird.

Na ein wenig mehr Kerne hätten sie mit der neuen Gen dann schon bringen können. [...]
Warum? Was soll das geringfügige Kern-Rumgeschiebe bringen, dass zu skizzierst? AMD wird weiterhin 4 oder 6 bis 16 Kerne im Consumer-Markt anbieten. Mehr macht aktuell absolut keinen Sinn aus Sicht von AMD und damit haben sie auch recht. Alles andere wären kleine Nischenprodukte.

Die Apokalypse, das jüngste Gericht das Armageddon, das Ende der Zeit rückt näher.
Es wird ein Pfeil inmitten ins Herz, verbunden mit einem See voller Tränen werden. (kleine Anspielung auf Arrow Lake:D)
Hört ihr bereits die Totenglocken läuten?
Seht ihr bereits die Götterdämmerung am Horizont aufziehen, Intel wird im Weltenbrand untergehen und aus der kümmerlichen Asche von Arrow lake wird Zen 5 3D wie ein Phönix in ungeahnte Gefilde emporsteigen und mit seiner Effizienz und Power alles dagewesene mit seinen brennenden Flügeln hinwegfegen.
Lol, was hast du den getrunken? Gerade jetzt mit Blick auf Arrow Lake ist dein Wunschdenken das gar denkbar abwegiste Szenario schlechthin. Intel implementiert in dieser Gen eine ganze Reihe neuer Technologien auf einmal, ein Novum seit längerer Zeit (und Meteor Lake war eher noch als eine Art Pilot zu betrachten).
Wenn es sich unbedingt in die von dir ersehnte Richtung entwickeln soll, ist das wahrscheinliche Szenario, dass Intel ggf. geringfügig weiter zurückfällt bis hin zu den Abstand nur leicht verringern kann, aber alles weit von "Armageddon" entfernt. Vermutlich wird Intel mit dem neuen Design gar jedoch eher die Gap verkleinern können. Ob es gar soweit reicht, dass man die Gap bereits mit nur einer echten, neuen Gen nahezu ausgleichen kann, scheint mir jedoch nicht unbedingt wahrscheinlich.
Darüber hinaus, ist etwas wie das V-Cache-Design für Intel im Cosnumer-Markt ein deutlich unbedeutenderer Markt, da nur eine kleine Käuferschaft diese teueren CPUs kauft und Intel hier mit um ein Vielfaches höheren Absatzzahlen hantiert als AMD. Die werden da deutlich anders draufschauen und auch bei AMD sollte man realistisch draufschauen und eher konstantieren, dass das schlicht ein Nebenprodukt der professionellen Produkte ist und nicht mehr. Gamer haben längst keine so hohe Priorität mehr für AMD, wie es noch im letzten Jahrzehnt zwangsweise der Fall war.

Einfach mal abwarten. So oder so gibt es im Consumer-Markt Leistung satt und das voraussichtlich von beiden Anbietern.
Für Gamer müsste erst mal primär die SW-Seite nachziehen, aber davon sind wir aktuell noch recht weit entfernt ...
 
Zuletzt bearbeitet:
Epycs werden eingesetzt, wenn viele unabhängige Prozesse parallel laufen. In einem Desktop-PC, vor allem als Spieler, braucht man die Rechenleistung aber konzentriert in einer Anwendung, denn mehr als eine kann man halt nicht bedienen. Somit hat man immer Probleme mit den Latenzen innerhalb heterogener Prozessoren. Wenn man extrem Compute-limitiert ist, kann dies das kleinere übel gegenüber dem Einsatz von mehr Rechenkernen sein – Videos lieber auf 8+8-Kernen als auf 8 pur.
Selbst für Compute limitierte Aufgaben würde ich jederzeit ein pures Design vorziehen. Warum? Ganz einfach. Die Lastverteilung ist viel ausgewogener. Für unabhängige Aufgaben mag das keine allzu grosse Rolle spielen. Wobei dort natürlich trotzdem der OS Scheduler mehr zu tun bekommt, damit er rechenintensive Threads nicht auf einen langsamen Kern schiebt. Für segmentierte Aufgaben spielt das aber durchaus eine Rolle, weil es die Implementierung vereinfacht und auch die Gesamtlaufzeit verbessern kann.
Mal ein kleines Beispiel. Ich hatte mir vor einiger Zeit ein PHP Skript gebastelt, welches mittels ffmpeg Videos automatisiert umwandelt. Dabei wurden erst die einzelnen Streams der Videos extrahiert, dann umgewandelt und am Ende alles wieder ins gewünschte Container-Format gepackt. Das Skript war darauf ausgelegt, die vorhandenen Kerne so gut wie möglich zu nutzen. Für die Video-Streams war das weniger relevant, da der Encoder mehrere logische Prozessoren unterstützt. Der Audio-Encoder hingegen konnte nur 1T. Also hab ich dort solange die Umwandlung von Audio-Streams angeschubst, bis keine logischen Prozessoren mehr frei waren. Der Rest verblieb in einer Warteschlange. Dabei hat ein kleines C++ Tool geholfen, weil PHP von Haus aus ja kein Multithreading unterstützt. Sobald ein logischer Prozessor frei wurde, wurde der nächste Stream aus der Warteschlange geholt. Das Problem mit hybriden Designs ist nun, dass unter Umständen die letzten Streams auf den lahmen Kernen landen, und man bis zu deren Fertigstellung unnötig warten muss, während die schnellen Kerne in der Zeit Däumchen drehen. Um dem entgegen zu wirken, gibt mehrere Möglichkeiten. Z.B. könnte man den jeweilgen Thread auf einen schnellen Kern schieben. Dazu müsste man aber erst mal wissen, welcher logische Prozessor "schnell" ist. Unschön. Oder man ermittelt z.B. eine Art "Score" für jeden Kern zur Laufzeit. Damit könnte man dann versuchen vorherzusagen, welche logischen Prozessoren wie genutzt werden müssen, damit die verbleibenden Streams in der Warteschlange möglichst optimal abgearbeitet werden. Mit so einem Score liesse sich auch die erste Möglichkeit umsetzen. Dazu bräuchte man aber erst mal gesammelte Daten. Und man müsste Threads explizit logischen Prozessoren zuweisen. Man hebelt damit quasi das Scheduling des OS und der CPU aus. Auch nicht wirklich schön.

Lange Rede, kurzer Fallus. Man sieht schon anhand so eines Bespiels, wie kompliziert ein hybrides Design werden kann, wenn man optimale Performance möchte. Und da kratze ich lediglich an der Oberfläche. Von Intels hybridem Design brauchen wir da gar nicht erst anfangen. Das ist für mich einfach Murks und geboren aus der Verzweiflung heraus. Weil ihnen drohte, den Anschluss im Kern-Wettrennen zu verlieren aufgrund des flächenineffizienten P-Kerns. Und Atom das nächstbeste verfügbare Design war, womit man bezüglich Flächeneffizienz mithalten konnte. Also bleiben wir mal bei AMDs Ansatz mit den C-Kernen. Die nahezu identische IPC zum P-Kern haben, trotzdem deutlich kleiner sind. Zwar müssen sie beim Takt Abstriche machen, bei voller Auslastung relativiert sich das aber wieder. Also statt einem 8+8 würde ich lieber einen 0+24 für Compute limitierte Aufgaben nehmen. Der ist schneller, effizienter, benötigt vermutlich kaum mehr Chipfläche und muss sich nicht mit den Problemen eines hybriden Designs rumärgern. Und spendiert man dem noch einen ordentlichen 3D-Cache, dann ist der für Spieler genauso gut geeignet.
 
Ich freue mich einfach sehr auf die neuen CPU's nach fast 2 Jahren und allem was damit verbunden ist wie Tests und das Abwägen wofür ich mich am Ende entscheide. Solche Ereignisse hauchen dem Hobby nach langer Durststrecke neues Leben ein 👍🏻
 
Ich freue mich einfach sehr auf die neuen CPU's nach fast 2 Jahren und allem was damit verbunden ist wie Tests und das Abwägen wofür ich mich am Ende entscheide. Solche Ereignisse hauchen dem Hobby nach langer Durststrecke neues Leben ein 👍🏻
Kenn ich, sofern es einen 16 Kerner mit 3D Cache gibt, Gönnen mit einer 5090er, mein jetziger ist von 2017 mit einer 6950xt als Update vor 2 Jahren :> Das alleinige Zusammenbauen mit Custom Wakü löst bei mir einen Ghs aus, das wird ein unrunder Geburtstag, hehe
 
Zurück