Gerüchte zu Ryzen 7000: Raphael-CPUs mit bis zu 24 Kernen und 5,4 GHz Takt

@Technologie_Texter Doch, warum?

Und wie will man das kühlen? Die Energiedichte ist doch bei Zen2 und 3 in 7nm schon so hoch, dass die CPUs sehr schnell an ihrer Temperaturgrenze sind.
Hab mal spaßeshalber auf Twitter nachgefragt. ^^ Man kann die Dichte auch immer anpassen mit entsprechenden Libs. Man muss nicht max Density gehen. Damit ist der "Einwand" vom @Technologie_Texter auch weitestgehend entkräftet.

1652966012047.png
 
Zuletzt bearbeitet von einem Moderator:
16C in 5nm mit 230W TDP wären nur realistisch, wenn der 5nm Node viel viel energiehungriger als 7nm wäre.
Dem ist aber eben nicht so;)
Wut? Ein 5950X taktet mit rund 4.2GHz allcore im Cinebench. Was ist, wenn AMD so was wie 5GHz haben will als Marketing "Gag"? Dann reden wir von fast 20% mehr Takt und IPC kostet auch Leistung. Es wird deutlich mehr Spannung benötig und das kostet. Die Abwärme steigt quadratisch mit der Spannung.
 
Was wie IPC kostet mehr Strom, das wusste ich ja nicht. Was kostet denn da mehr Strom, etwa das mehr an Transistoren. Die sind doch bei gleichen CPU takt doch nicht stromhungriger. Bei mehr CPU takt brauchen die mehr an Transistoren auch mehr Strom. Und mehr Strom bedeutet auch mehr Abwärme. Das wird noch interessant werden wie gut sich da ein Luftkühler schlagen wird.
 
Was wie IPC kostet mehr Strom, das wusste ich ja nicht. Was kostet denn da mehr Strom, etwa das mehr an Transistoren
Ja, mehr Schaltungen pro Taktzyklus kostet Energie. Du kannst ja mal einen 11700K und einen 10700K bei 4GHz laufen lassen, dann wird der 11700K rund 20% schneller sein im Cinebench, aber auch mehr Energie verbrauchen. Es sind interessanterweise keine 20%. Höhere IPC macht CPUs idR effzienter.
 
Weiß nicht, ich glaube ich nicht, dass beste Spannungsskalierung und hohe Taktbarkeit korrelieren.
Doch, tut es. Ist ja auch logisch. Kerne laufen nicht mit beliebig viel Spannung. Die Spannung bleibt ein limitierender Faktor. Und die besten Dies mit den besten Kernen werden üblicherweise auch für die teuersten Chips verwendet. Wobei lukrativere Märkte wie Server nochmals bevorzugter behandelt werden.

Ja klar, ich als Softwareentwickler verstehe das nicht. :D Dass es ohne Zweifel Anwendungsfälle für HCC CPUs gibt, ist aber nicht gleichbedeutend damit, dass das im Mainstream Sinn macht.
Genau, du als Softwareentwickler. ^^ Niemand sagt, dass ein 24-Kern Prozessor für den durchschnittlichen Benutzer gedacht ist. Ein X670 Board ist es auch nicht. Trotzdem wird es diesen Chipsatz für AM5 geben. Zusätzliche Optionen sind sowohl am unteren als auch oberen Ende des Portfolios immer willkommen. Erst recht auf einer Mainstream Plattform. Wir hatten ein Jahrzehnt lang Intels Quad Stagnation auf deren Mainstream Plattform. Dass es seit einigen Jahren auch hier endlich wieder vorangeht, ist absolut sinnvoll.

Ja ne, is klar. Mit Hashtag oder vielleicht besser mit eckigen Klammern drum rum? :D
Eher nicht. Das ist zu undeutlich und verwirrt wahrscheinlich nur. Die deutsche Sprache bietet genügend andere Möglichkeiten, eine persönliche Meinung auch als solche zu kennzeichnen. ;)
Wir wissen ja noch nicht, ob die 230W stimmen. Aber wenn AMD bei 16 Kernen bleibt, dann wären die 230W durchaus verwunderlich, weil einerseits die Architektur effizienter wird, aber anderseits vor allem der 5nm Prozess ordentlich Effizienz mitbringt. Wieso muss man dennoch auf 230W gehen?
Verwunderlich wäre das keinesfalls. Man bekämpft einfach Feuer mit Feuer im oberen Bereich. Mit Brechstange hat das nichts zu tun. Es wäre einfach nur der Konter zu Intel. Der Grossteil des Zen 4 Portfolios wird ja bei maximal 120W TDP bleiben.
 
Zuletzt bearbeitet:
Wut? Ein 5950X taktet mit rund 4.2GHz allcore im Cinebench. Was ist, wenn AMD so was wie 5GHz haben will als Marketing "Gag"? Dann reden wir von fast 20% mehr Takt und IPC kostet auch Leistung. Es wird deutlich mehr Spannung benötig und das kostet. Die Abwärme steigt quadratisch mit der Spannung.
Laut AMD sind aber >25% Takt bei gleicher Leistungsaufnahme mit dem neuen 5nm Prozess gegenüber 7nm möglich. Und der Sprung des 12nm IOD auf 6nm könnte nicht weniger signifikant ausfallen. Nimmt man das als Grundlage, dann rechtfertigt auch ein 16C Zen 4 @ 5 GHz All-Core noch keine 230W.
Die Frage ist, wie AMD auf diese >25% kommt. Sollte das auf Genoa basieren, der mit geringeren Taktraten läuft, dann ist fraglich, ob 5nm ausreicht, von 4 auf 5 GHz ohne Erhöhung der Leistungsaufnahme zu takten. Zudem ist ungewiss, was die gesteigerte Zen 4 IPC zusätzlich an Energie kostet. Zen 3 konnte die IPC zumindest ohne Erhöhung der Leistungsaufnahme steigern.
Daher ergibt es im Moment wenig Sinn, dass AMD 230W für einen 16C Zen 4 @ 5 GHz braucht. Für mehr Kerne oder für Taktraten oberhalb von 5 GHz wäre schon eher plausibel. Wie gesagt, beides wäre aber in erster Linie lediglich ein Konter auf Intel. Und nicht weil es notwendig wäre.
Ja, mehr Schaltungen pro Taktzyklus kostet Energie.
Mehr Schaltungen kosten nicht mehr Energie per se. Das ist ja des Wesen von CMOS. Es gibt zwar auch eine statische Verlustleistung. Diese ist aber sehr gering und kann praktisch vernachlässigt werden. Wichtig ist die dynamische Verlustleistung, also wenn ein CMOS Inverter tatsächlich schaltet. Man kann also mit guter Optimierung auf Transistorebene durchaus mehr Logik für mehr IPC implementieren, ohne die durchschnittliche dynamische Verlustleistung zu erhöhen. Zen 3 ist das beste Beispiel. Intel hatte mit den Architekturupdates seit Sunny Cove einfach weniger gut optimiert, weshalb dort nicht nur IPC, sondern auch die Verlustleistung pro Takt stieg.
 
Zuletzt bearbeitet:
Laut AMD sind aber >25% Takt bei gleicher Leistungsaufnahme mit dem neuen 5nm Prozess gegenüber 7nm möglich. Und der Sprung des 12nm IOD auf 6nm könnte nicht weniger signifikant ausfallen. Nimmt man das als Grundlage, dann rechtfertigt auch ein 16C Zen 4 @ 5 GHz All-Core noch keine 230W.
Weiß nicht, irgend so ne ISO Power Angabe des Nodes hat ja am Ende wenig mit dem fertigen Silizium zu tun.

Doch, tut es. Ist ja auch logisch. Kerne laufen nicht mit beliebig viel Spannung. Die Spannung bleibt ein limitierender Faktor. Und die besten Dies mit den besten Kernen werden üblicherweise auch für die teuersten Chips verwendet. Wobei lukrativere Märkte wie Server nochmals bevorzugter behandelt werden.
Da hätte ich gerne mal Belege von dir an dieser Stelle, dass eine CPU, die beispielsweise bei 3.8GHz weniger Spannung braucht dann auch Kerne auf dem CCD hat, die höher takten.

Ich habe z.b. Kerne auf meinem 12900K, die packen keine 5.3GHz prime stable, egal, wie hoch man die Spannung setzt (in einem vernünftigen Rahmen natürlich, der mit normalen Methoden gekühlt werden kann).

Mal abgesehen davon, bitte auch Belege dafür, dass ein 5950X besser selektierte Chiplets hat als ein 5800X bezogen auf die Effizienz/Spannungs-Takt-Kurve.

Man kann also mit guter Optimierung auf Transistorebene durchaus mehr Logik für mehr IPC implementieren, ohne die durchschnittliche dynamische Verlustleistung zu erhöhen. Zen 3 ist das beste Beispiel.
Zen 3? Im Vergleich zu Zen 2? Da wird doch der gleiche Node verwendet?!

Genau, du als Softwareentwickler. ^^ Niemand sagt, dass ein 24-Kern Prozessor für den durchschnittlichen Benutzer gedacht ist. Ein X670 Board ist es auch nicht. Trotzdem wird es diesen Chipsatz für AM5 geben. Zusätzliche Optionen sind sowohl am unteren als auch oberen Ende des Portfolios immer willkommen. Erst recht auf einer Mainstream Plattform.
Nein, eben nicht. Dann muss man auch mal die Bottlenecks einer Mainstream Plattform diskutieren: Speicher Channels, Lanes usw.

Nur, weil es Use Cases für HCC gibt, heißt das noch lange nicht, dass das im Maintream ohne weiteres Sinn macht.
 
Zuletzt bearbeitet von einem Moderator:
Brechstange ist das nicht. Intel ist Brechstange.
Kann es sein, dass beide Hersteller Brechstangen nutzen?
Oder ist das zu Intel affin?:D
Nur weil du ihn nicht verstehst und nichts mit so vielen Kernen anfangen kannst, muss es nicht sinnlos sein.
Eine Gaming CPU zu kaufen, damit man eine pralle Gamingleistung innehat, aber sich dann 24 Kerne ans Bein bindet, die man auch in 30 Jahren nicht nutzen wird, ist schon relativ albern.
Eine 6c12T CPU mit 4 E-Cores und high clocks wäre da deutlich schöner, leider bietet so etwas weder AMD noch Intel. Moar Cores geht aber in die drölfte Runde und bringt letzten Endes gar nichts.

Heute würde gar eine 4c8t CPU mit high clocks und 3D Cache sämtliche Johannes B Kerner aufarbeiten, doch in Talkshows (Foren) wird regelmäßig zu vielen Kernen geraten, weil Software sich rasend entwickle und es sich lohne ordentlich reinzukac*en um endlich "Ruhe" zu haben.
AMD grätschte da mit dem 5800x3D so richtig rein.
Plötzlich waren 8 Cores wieder salonfähig und es gab einen Fehler im Universum.:-D
 
Zuletzt bearbeitet:
Wieso muss er sowas Kennzeichnen? Sollte man davon in einem Kommentarbereich einer News nicht ausgehen?
Gerade wenn man so smart wie du ist
:P
Seine Meinungen die er teilt sind per se die objektive Wahrheit, weißt du das noch nicht?:-)
Verwunderlich wäre das keinesfalls. Man bekämpft einfach Feuer mit Feuer im oberen Bereich. Mit Brechstange hat das nichts zu tun. Es wäre einfach nur der Konter zu Intel. Der Grossteil des Zen 4 Portfolios wird ja bei maximal 120W TDP bleiben.
Bei AMD ist es das Feuer und bei Intel ist es die Brechstange.
Holen beide die Brechstange heraus, gilt das nur für den, der sie zuerst ausgegraben hat.
Logik 2022.

:-D
 
Zuletzt bearbeitet:
Kann es sein, dass beide Hersteller Brechstangen nutzen?
Oder ist das zu Intel affin?:D
Ja, ist es. ;) AMD nutzt seit Zen, also seit etwa 5 Jahren, ein PPT von maximal ~140W. Intel erlaubt spätestens seit der 9. Generation 200W und mehr.

Eine Gaming CPU zu kaufen, damit man eine pralle Gamingleistung innehat, aber sich dann 24 Kerne ans Bein bindet, die man auch in 30 Jahren nicht nutzen wird, ist schon relativ albern.
Wie schon gesagt, CPUs werden nicht nur für Gaming gemacht und verkauft. Wenn du eine Gaming CPU willst, dann kauf dir eine mit 8 P-Kernen und ohne störende E-Kerne. AMD hat davon einige im Portfolio (5700G, 5700X, 5800X, 5800X3D) und wird auch mit Zen 4 was entsprechendes anbieten. Das reicht aktuell locker und wird auch in den kommenden Jahren noch gut zu gebrauchen sein. Wer höhere Anforderungen hat, für den werden auch mehr Kerne interessant sein. Einfach mal etwas über den eigenen Horizont hinaus schauen. ;)

Heute würde gar eine 4c8t CPU mit high clocks und 3D Cache sämtliche Johannes B Kerner aufarbeiten
Das ist aber nicht sonderlich effizient und lässt wenig Spielraum für mehrere parallele Tasks. Ausser für Budget Rechner würde ich niemandem mehr 4 Kerne empfehlen.
Wieso muss er sowas Kennzeichnen? Sollte man davon in einem Kommentarbereich einer News nicht ausgehen?
Gerade wenn man so smart wie du ist :P
Wenn man Behauptungen aufstellt, die weder was mit der eigentlichen News noch mit Fakten zu tun haben, dann sollte man das sehr wohl als persönliche Meinung kennzeichnen. Gehört zu einer vernünftigen Diskussionskultur. ;)
 
Ja, ist es. ;) AMD nutzt seit Zen, also seit etwa 5 Jahren, ein PPT von maximal ~140W. Intel erlaubt spätestens seit der 9. Generation 200W und mehr.
Kann man so oder so sehen. Für mich gibt es da keine eindeutige Antwort was diese lächerliche Diskussion der Brechstangen betrifft.

Wie schon gesagt, CPUs werden nicht nur für Gaming gemacht und verkauft.
Was nichts an der Problematik ändert, dass nur High End CPUs mit vielen Kernen die höchsten ST Taktraten bekommen und demzufolge auch die höchste Spieleleistung bieten.

Wenn man Behauptungen aufstellt, die weder was mit der eigentlichen News noch mit Fakten zu tun haben, dann sollte man das sehr wohl als persönliche Meinung kennzeichnen.w;)
Deshalb ist die Geschichte mit den Brechstangen und Feuer auch nur deine ganz persönliche Meinung. ;)
 
Weiß nicht, irgend so ne ISO Power Angabe des Nodes hat ja am Ende wenig mit dem fertigen Silizium zu tun.
Was AMD auf der CES gezeigt hat, war aber schon sehr konkret für deren Version des 5nm Prozesses, der ja kein Standard N5 Prozess ist. Insofern kann man schon davon ausgehen, dass das auch so stimmt. Eben bezogen auf den reinen Fertigungsprozess. Die Frage ist halt, für welche Taktbereiche das gilt. Und welchen weiteren Einfluss die Architektur hat.

Da hätte ich gerne mal Belege von dir an dieser Stelle, dass eine CPU, die beispielsweise bei 3.8GHz weniger Spannung braucht dann auch Kerne auf dem CCD hat, die höher takten.
Wat? Das habe ich doch gar nicht gesagt. Es gibt Zielvorgaben für den maximalen Takt. Die Chips, die diese Taktraten schaffen, möglichst mit der geringsten Spannung, sind logischerweise die besten Chips und werden für die grössten und lukrativsten SKUs verwendet. Das ist keine Erfindung von mir, sondern nennt sich "Binning". Dazu findest du im Netz genügend Quellen.

Ich habe z.b. Kerne auf meinem 12900K, die packen keine 5.3GHz prime stable, egal, wie hoch man die Spannung setzt (in einem vernünftigen Rahmen natürlich, der mit normalen Methoden gekühlt werden kann).
Der 12900K ist ja auch nicht für 5,3 GHz spezifiziert. ;) Laut Intel liegt der maximale Boost bei 5.2 GHz. Und laut deren Turbo Boost Spezifikation muss der auch nicht auf allen Kernen erreichbar sein, sondern lediglich auf einem Kern. Auf diesem einen Kern muss er aber zumindest garantiert sein. Auf z.B. einem 12700K muss für keinen Kern über 5 GHz garantiert werden. Logischerweise werden dafür weniger gut taktende Chips verwendet. Und so setzt sich das nach unten fort. Ich hab keine Ahnung, inwiefern sich die Intel Chips im Schnitt takten lassen. Aber wenn das nach oben so dünn wird, dann zeigt das eigentlich nur, wie hart Intel da schon an der Taktkotzgrenze agiert. Und das dürfte beim 12900KS noch problematischer sein. Vermutlich auch eine Konsequenz des problematischen 10nm Prozesses.

Zen 3? Im Vergleich zu Zen 2? Da wird doch der gleiche Node verwendet?!
Eben genau deshalb. AMD hat dort rein durch Optimierung der Transistorlogik an Effizienz gewonnen und nicht durch bessere Transistoren.

Nein, eben nicht. Dann muss man auch mal die Bottlenecks einer Mainstream Plattform diskutieren: Speicher Channels, Lanes usw.
Doch. Je nach Chipsatz ändern sich ja auch die I/O Features. Und man kann das wählen, was zu den eigenen Anforderungen am besten passt. Selbst wenn manche Features überall gleich bleiben, z.B. Dual Channel Speicher Support, so muss das kein Ausschlusskriterium sein. Erst recht bei einer neuen Speichergeneration, die auch ohne Triple oder Quad Channel die Speicherbandbreite deutlich steigern kann. Letztendlich ist das Verhältnis von 16 Kernen und DDR4-3200 das gleiche wie 24 Kerne und DDR5 4800. Alleine deswegen würden auch auf AM5 mehr Kerne Sinn ergeben. Aber wie gesagt, es bleibt erst mal ein Gerücht. Eventuell wissen wir am Montag mehr. Ich würde mehr Kerne auf jeden Fall begrüssen, weil das längerfristig bessere Preise für SKUs mit weniger Kernen bedeuten würde.
 
Doch, tut es. Ist ja auch logisch. Kerne laufen nicht mit beliebig viel Spannung. Die Spannung bleibt ein limitierender Faktor. Und die besten Dies mit den besten Kernen werden üblicherweise auch für die teuersten Chips verwendet. Wobei lukrativere Märkte wie Server nochmals bevorzugter behandelt werden.
Die CPU mit der besten Spannungsskalierung wird nicht zwingend als High End SKU eingesetzt, noch besitzt sie automatisch die höchste Taktbarkeit, ansonsten hätte mein 9900K nicht existieren dürfen.:-)
 
Kann man so oder so sehen.
Nö, kann man nicht. Das sind ja Fakten. Davor die Augen zu verschliessen oder es zu beschönigen, wäre halt wie du sagst einfach nur zu "Intel affin". ;) AMD hat mit den 9000er FX ja ebenso die Brechstange angesetzt. Da gab es auch nichts zu beschönigen. Oder Intel davor mit Netburst.

Was nichts an der Problematik ändert, dass nur High End CPUs mit vielen Kernen die höchsten ST Taktraten bekommen und demzufolge auch die höchste Spieleleistung bieten.
Die Unterschiede sind aber marginal. Zwischen 5950X und 5800X liegen gerade mal 200 MHz bzw ~4%. Das ist quasi vernachlässigbar. Erst recht, da dieser maximale Boost sowieso nicht immer anliegt. Andere Lösungen bieten deutlich bessere Vorteile, siehe 5800X3D. Dahin sollte die Entwicklung gehen. Takt ist nicht alles. Zumal meist eh die GPU der limitierende Faktor in Spielen bleibt. Takt wird meiner Meinung nach erst dann wieder eine grössere Rolle einnehmen, wenn andere Materialien verwendet werden als herkömmliches Silizium. Also wenn wir uns nicht mehr im einstelligen, sondern eventuell im dreistelligen GHz Bereich bewegen. Bis dahin dürfte es aber noch ein gutes Stück dauern.

Deshalb ist die Geschichte mit den Brechstangen und Feuer auch nur deine ganz persönliche Meinung. ;)
Klar. So wie dass nicht nur High-End CPUs die höchsten Single Core Taktraten bekommen sollten nur deine ganz persönliche Meinung ist. ;)
Die CPU mit der besten Spannungsskalierung wird nicht zwingend als High End SKU eingesetzt
Üblicherweise schon. Was nicht bedeuten muss, dass SKUs darunter schlechter laufen müssen. Das bleibt eine Frage der Yields und wie viele Exemplare eines Modells in den Handeln gelangen. Beispiel, wenn AMD z.B. 30% der besten vollwertigen Chips für AM4 reserviert, aber nur 10% für den 5950X benötigt werden, dann bleiben logischerweise 20% für andere SKUs wie dem 5800X oder 5700X.
 
Nö, kann man nicht. Das sind ja Fakten.
Doch kann man. Wenn AMD und Intel auf einer Mainstreamplattform sinnlos die Kernzahlen in die Höhe schrauben und den Verbrauch auf deutlich über 200 Watt steigern, was eigentlich den Profiplattformen vorbehalten war, ist das nichts anderes als #Brechstange. Und wer da nun zu erst anfängt, angefangen hat oder nicht, spielt in der Endabrechnung auch keine wirkliche Rolle, deshalb ist mein Standpunkt hier völlig neutral.

Solange das noch in einem kühlbaren Rahmen abläuft (12900KS ausgenommen) kann mir das nur recht sein.

Davor die Augen zu verschliessen oder es zu beschönigen, wäre halt wie du sagst einfach nur zu "Intel affin". ;)
Ich beschönige nichts. Mir geht es nur gegen den Strich, wenn jemand immer einseitig für einen Hersteller argumentiert. CPUs lassen sich auch in ihrer Leistungsaufnahme deutlich begrenzen und leisten immer noch sehr viel.
Das wird auch AMD wissen. Und dennoch spricht die Gerüchteküche von 230 Watt, was einer Erhöhung der Leistungsaufnahme von über 60% entspricht.

Zumal meist eh die GPU der limitierende Faktor in Spielen bleibt.
Dann sollte man die GPU mal wechseln, schon lohnt sich eine flottere CPU.
 
Zurück