News AMD Ryzen 9000 ("Granite Ridge"): Alle Fakten und Spekulationen zu den neuen Zen-5-CPUs

vermutlich würde ein ryzen 24 Kerner mit ht 48 threads oder sowas auch mehr Strom unter vollast benötigen
Alles eine Frage der Einstellung. Wie du am Threadripper siehst kann man auch 96 Kerne mit 350W unter Vollast betreiben - nur eben dann mit 2 statt 4+ GHz.

Wie hoch die TDP von CPU-Modellen ist ist weniger technisch bedingt sondern dem Marktumfeld geschuldet. Man muss halt ausloten, was das Silizium kann bzw. wie die Skalierung ist und wo sich der Wettbewerb befindet und wie man sich positionieren kann/will.

Intel hat genausowenig Lust 250W in seine CPUs zu drücken wie AMD es hat (weil solche Verlustleistungen hohe Sekundärkosten bei Sockel, Kühler, MosFets, Signalling, Packaging... verursachen). Nur wenn man auf sehr ähnlichem performancelevel ist und eine bestimmte Taktrate benötigt um nen Ticken schneller zu sein als die anderen wird der betriebspunkt halt (unsinnig) hoch gewählt um das zu erreichen.
Nimm mal von nem 7950X oder 14900K die letzten 500 MHz oben weg plus daran angepasste vCore (also 1,2 statt 1,5v....) - schwupp schon biste zwar nur messbar langsamer (nicht fühlbar) aber beide CPUs fressen locker 100W weniger.
 
Seit 5 Jahren hängen wir nun bei 16 Kernen. Intel hat man für ihre 4 Kerne gelyncht, bei AMD herrscht mal wieder stilles Schweigen.
Ein Unterschied war, dass die Sprünge zwischen den Generationen auch sonst sehr klein waren und "gelyncht" haben nur die, die keine Impulskontrolle hatten und sich geärgert haben, dass sie sich im Endeffekt selbst abgezockt haben, weil sie trotzdem jedes mal aufgerüstet haben. Ich weiß auch nicht, wie du auf stilles Schweigen kommst, wenn erst zwei Posts vor deinem von einem "besseren Refresh" geschrieben wurde.
 
Für 230€ eine RTX 3050 8GB oder ne RX 6650XT?

Würde eher sagen das den High-End / Enthusiasten (gerade mit RT) Bereich NV die erste Wahl ist aber darunter?
Man sollte nicht davon ausgehen das der schnellste Hersteller im Preis-nach-oben-offen-Segment auch in allen anderen Preis / Nutzungsklassen der selbe ist.

Bin mir sicher das geht auch auf für die CPUs.
wens beide in allen liegen mitspielen (so wie aktuell) ja aber wenn einer oben monopol haben wird trifft das wohl nicht mehr zu

Für 230€ eine RTX 3050 8GB oder ne RX 6650XT?

naja oben gewinnt nvidea eh und diesmal müssen sie unten nur bluten um AMD komplett zu zerstören
AMD kann da nix verschenken
die grünen schon um weiter AMD unter druck zu setzen
ab 5070 aufwärts sind die grünen konkurrenzlos und werden sich das auch so bezahlen lassen
 
@Incredible Alk
naja je nach Anwendung macht das was du da geschrieben hast durchaus was aus bei der gesammt Leistung.
und ein 16 Kerner muss genauso takten wie ein 24 Kerner um diese zu vergleichen zu können. Klar kann man einen 24 Kerner niedriger takten als ein 16 Kerner. Aber dann verpufft der Vorteil bei manchen Anwendung. Wenn man nun vergleicht einen 16 Kerner mit 5,1 GHz mit einem 24 Kerner mit 4,5 GHz oder weniger vergleicht dann verliert der mit mehr Kernen auch um einige % kann man so sagen.
 
Klar kann man einen 24 Kerner niedriger takten als ein 16 Kerner. Aber dann verpufft der Vorteil bei manchen Anwendung.
Wer sich ne CPU mit 24 und mehr Kernen kauft sollte auch Anwendungen haben die das nutzen...

Natürlich ist ein Direktvergleich bei lowThread Anwendungen da Quark. Bei nem 10-Thread-Programm ziehste auch mit jedem halbwegs aktuellen Ryzen den 96er Threadripper für zigtausend Euro über den Tisch. Nur wenn ich nen Kernmonster habe und passenden Worklaod dafür wird der Takt ziemlich nebensächlich - rendere mal drei oder vier Videostreams in 4K auf x.265 gleichzeitig raus. Der Threadripper macht das extrem schnell und effizient, bei nem Desktop-Ryzen biste froh wenn er nicht abstürzt (nicht wegen Instabilität sondern weil die Ressourcen ausgehen).
 
Ein Unterschied war, dass die Sprünge zwischen den Generationen auch sonst sehr klein waren und "gelyncht" haben nur die, die keine Impulskontrolle hatten und sich geärgert haben, dass sie sich im Endeffekt selbst abgezockt haben, weil sie trotzdem jedes mal aufgerüstet haben. Ich weiß auch nicht, wie du auf stilles Schweigen kommst, wenn erst zwei Posts vor deinem von einem "besseren Refresh" geschrieben wurde.
  • Zen+ ‭➜ Zen 2: +15 Prozent
  • Zen 2 ‭➜ Zen 3: +19 Prozent
  • Zen 3 ‭➜ Zen 4: +13 Prozent
  • Zen 4 ➜ Zen 5: +30 Prozent
Wo sind die Sprünge jetzt größer? In der News ist von 30% die rede und das wird der Bestcase sein. Im Durchschnitt werdens vermutlich 15% und das gabs bei Intel auch.

Und dann ist noch die Frage, ob man 30% schneller als der X oder X3D ist. Vermutlich ersteres womit man gerade eben so den X3D schlägt.
 
Zuletzt bearbeitet:
häh? ich fasse die fakten zusammen

AMD CPU sind halt konkurenzlos so wie die Nvidea karten (bei RDNA2 sah das noch anders aus,) unmd bis RDNA5 wird sich ganz sicher nichts dran ändern

und 10-20% mehr leistung sind einfach stillstand, die letzte GPU hab ich nach 300% mehrleistung gekauft
die 20% merkst doch gar nicht

in alan wake von 12 auf 13fps
ggwp

Konkurrenzlos ist garnichts. Welche "Fakten"? Das sind bis jetzt Mutmaßungen und Gerüchte.
Zudem kommt es immer auf die Ansprüche, Energieanforderungen und Preisvorstellung an.
Nvida macht im Rasterizing auch keine dollen Sprünge. Und Preis-Leistung sieht bei den Grünen ganz mies aus - selbst Intel schafft das besser, vor allem im Low-end und Mid-range.

10-20 % mehr IPC sind Stillstand?! Von was träumst Du eigentlich nachts? Wir reden hier von CPUs! Nochmal zum Mitschreiben: Zeh-peh-Uhs!
Und wieder wird einfach CPU zu GPU gleichgesetzt. Was soll das?
300% GPU Mehrleistung? Wo? Nvidia?! Nur in ihren Marketingslides auf ganz ausgewählte Randfälle.
An Deiner zitierten FPS siehst Du das schon mal garnicht. für 300% "Mehrleistung" muss man da schon eine Graka von vor 4 Generationen oder so mit heute vergleichen.
Vielleicht solltest Du nochmal die Aufrüstmatrizen von PCGH studieren.

1. April ist rum, ihr könnt wieder aufhören, ernst werden.

und RDNA4 wird ja nciht mal ne 4070ti schlagen können, die gibt es seit jahren schon zu kaufen und die AMD kommt erst irgendwann nächstes jahr
vielleicht reichts ja noch gegen ne 5060ti :ugly:

4070 Ti gibt es seit Januar 2023. Also knapp mal gerade seit etwas mehr als einem Jahr ... nicht Jahren.
Und die wird in Rasterizing bequem von ein RX 7900XT geschlagen, laut PCGH-Leistungsindex. Auch was Preis und RAM angeht. Diese liegt selbst noch vor einer 3090 Ti.
Erst beim zweitrangigen Raytracing schafft sie es mit einer etwas teureren RX 7900XTX fast gleichzuziehen.

Wie dem auch sei, ich will hier garnicht über GPU-Leistungen philosophieren. Der Artikel drehte sich, wie schon mehrfach gesagt, um CPUs!
 
Zuletzt bearbeitet:
@Incredible Alk Ja stimmt kann ich nur bestätigen. Waren zwar nur h264 gewesen aber auch das kann man auf die Spitze treiben. Bei 3 gleichzeitig ging trotz drosseln des taktes und auf eigentlich 120 Watt mit 3,8 GHz takt, der Stromverbrauch auf dem 5950x auf 180 Watt nach oben, eher mehr richtung 200 Watt. Die Temperaturen stiegen auf 90 grad nach oben. Ab 4 gleichzeitig stürzten welche ab und wenn nicht waren die Videos unbrauchbar gewesen. Also ich habe die CPU an die Grenzen des möglichen gebracht was geht. Bei intel reichen schon 2 - 3 aus um die Leistung massiv einzubrechen zu lassen.
die e Kerne halfen dann nix mehr und die CPU war am Ende des 13900k gewesen. Der test musste sogar abgebrochen werden weil es keinen Sinn mehr machte. Von knapp einer Minuten auf über fast 3 Minuten abgestürzt. Ich habe gemerkt solche cpu eignet sich eben nicht gut hardcore umwandeln.
Darum ist das bißchen was intel schneller ist nicht wirklich der Bringer weil ich oft 2 oder so gleichzeitig umwandeln tue. Hier ist AMD deutlich besser. Besonders wenn man mehrere hinter einander damit umwandelt. Nun ist das meine Programm halt nicht mit handbrake vergleichbar weil handbrake wäre deutlich besser optimiert. Aber das was ich so brauche mir leider nicht das schnellste Programm bieten kann.

keine sogar ich habe das optimale programm was ich brauche bereits. Wenn ich die letzten % an mehrleistung drauf angewiesen bin würde ich auf ein threadripper sparen und nicht an ryzen interessiert.
jedoch bedarf es halt mehr als. nur ein paar Prozent mehrleistung um etwas an haben zu wollen was so teuer ist,wie die threadripper und so.
 
Zuletzt bearbeitet:
Wirt reden hier von CPUs! Nochmal zum Mitscreiben: Zeh-peh-Uhs!
Und wieder wird einfach CPU zu GPU gleichgesetzt. Was soll das?
300% GPU Mehrleistung? Wo? Nvidia?! Nur in ihren Marketingslides auf ganz ausgewählte Randfälle.
ich rede die ganze zeit über GPUs

und 300% Mehrleistung hab ich mir kommend von ner GTX 1070 gegönnt
wtf
Wie dem auch sei, ich will hier garnicht über GPU-Leitungen philosophieren. Der Artikel drehte sich, wie schon mehrfach gesagt, um CPUs!
und ich hab nur folgendes geschrieben:

weil sie mit RDNA4 komplett auf der stelle treten werden und nvidea sich gönnen wird, wollen sie evtl mit ner brecher CPU die intel komplett wegknallt ablenken?

daraufhin erzählen mir alle wie toll RDNA4 wird :ugly:

mein frage war CPU bezopgen
ob die deshalb wo super krank wird um von graka markt abzulenken
daraufhin:
NEIN RDNA4 ist super
nvidia dies das
wtf
 
Ich kann mich noch an die 2010er erinnern, da kam Intel immer wieder mit neuen CPUs und das waren jahrelang 4 Kerner und jede neue Gen hatte 15% mehr Leistung, da war der Aufschrei immer gross. AMD macht jetzt quasi das Gleiche, immer 16 Kerner und ca. 15% mehr Leistung jede Generation, wird auch langsam langweilig. 30% sollten eigentlich mal drin sein nach 2 Jahren.
Bist Du Dir da ganz sicher mit Deiner Erinnerung?

Ich bin 2008 auf einen Core2Duo E8400 und dann später auf einen i7-3770K (der bis letztes Jahr noch gewerkelt hat - gut, Corona-bedingt schon etwas über. Wollte den seit 4 Jahren upgraden).
Danach waren die Steigerungen kaum der Rede wert - weder in der IPC noch in der Kernzahl. Darum haben ja die Intel-CPUs so lange ausgereicht weil es kaum merkliche Steigerungen zu verzeichnen gab und das ganze stagnierte.

Anandtech hat hier eine Auswertung dazu.
Da kommst Du mit Deinen erinnerten 15% Gen-over-Gen nicht hin.
Ich meine mich da zeitweise eher an IPC-gains um die 4-6% zu erinnern, die Intel vorgwurfen wurden.
 
Zuletzt bearbeitet:
Wo sind die Sprünge jetzt größer? In der News ist von 30% die rede und das wird der Bestcase sein. Im Durchschnitt werdens vermutlich 15% und das gabs bei Intel auch.
Die 30% glaube ich auch nicht, die Größenordnung um 15% ist da auf jeden Fall realistischer. 15% waren aber bei Intel in dieser Zeit die absolute Ausnahme. Zwischen Sandy Bridge und Skylake ist da noch was passiert, danach kam aber lange fast gar nichts mehr. Aber das war ja auch kein Problem, wenn man sich nicht genötigt sah, trotzdem jede Generation zu kaufen.
 
ich rede die ganze zeit über GPUs
Ja, aber das ist ja nun DEIN PROBLEM. Dass Du in einem Artikel über CPUs in der Diskussion auf GPUs abdriftest und auch noch CPU-Werte als Diskussionsgrundlage zur Vergleichbarkeit und Prognose heranziehst.

und 300% Mehrleistung hab ich mir kommend von ner GTX 1070 gegönnt
wtf
GTX 1070 auf was? Die aufgeführte RX 6800? Das sind ja schon 3 Generationen, oder?
Von was redet ihr hier eigentlich? Äpfel und Birnen.
Ich habe auch von eine i7-3770k mit onboard-Graphic (wegen ausgefallener R9-290X 8GB) mehrer 100% Leistungszuwächse bei CPU und GPU (auch im Vergleich zur dedizierten) durch upgrade hingelegt.
Das ist aber doch nicht von Generation zu Generation!


und ich hab nur folgendes geschrieben:
"weil sie mit RDNA4 komplett auf der stelle treten werden und nvidea sich gönnen wird, wollen sie evtl mit ner brecher CPU die intel komplett wegknallt ablenken?"​

daraufhin erzählen mir alle wie toll RDNA4 wird :ugly:

mein frage war CPU bezopgen
ob die deshalb wo super krank wird um von graka markt abzulenken
daraufhin:
NEIN RDNA4 ist super
nvidia dies das
wtf
Eine Konsolidierung ist kein "auf der Stelle treten".
Wenn der Verbrauch und Preis bei gleicher Leistung oder Steigerungen an anderer Stelle (z.B. zweitrangigem Raytracing) besser ausfallen.
Nur, dass es halt kein non-Plus-ultra high-End Enthusiast-Produkt geben soll.
Nvidia wird auch keine Lust haben, riesen Leistungssprünge für billig in großer Stückzahl den Kunden zum Frass vorzuwerfen und lieber die fetten Margen bei AI absahnen, so lange noch möglich.
Da muss sich erst noch zeigen, was von dieser Seite in welcher Menge und zu welchem Preis kommt.
Die Firmen legen sich ihre Strategien schon selbst zu recht und analyseren und spionieren gut. Da brauchst Du Dir um diese keine Sorgen morgen. Die setzen sich schon nicht hin und würfeln sich was wild zusammen.

Einfach mal abwarten und die Benchmarks vergleichen, wenn es soweit ist.

(beendest Du jede Argumentation mit "wtf"?)
-> "WTF"
 
Zuletzt bearbeitet:
Ja, aber das ist ja nun DEIN PROBLEM. Dass Du in einem Artikle über CPUs in der Diskussion auf GPUs abdriftest und auch noch CPU-Werte als Diskussionsgrundlage zur Vergleichbarkeit und Prognose heranziehst.
es wurde doch danach gefragt wtf

nochmal ich schreib

"weil sie mit RDNA4 komplett auf der stelle treten werden und nvidea sich gönnen wird, wollen sie evtl mit ner brecher CPU die intel komplett wegknallt ablenken?"

daraudf brauch ne GPU diskusion los, das RDNA4 super toll ist
die hab ich doch gar nicht angefangen
meine frage ging darum warum die CPUs zu krank zu legen werden

seitdem kommen ALLE auf mich zu und erzählen was von GPUS

aber irgendwie meine shculd das es um GPUS ging oder so?!?! wtf
GTX 1070 auf was? Die aufgeführte RX 6800? Das sind ja schon 3 Generationen, oder?
Von was redet ihr hier eigentlich? Äpfel und Birnen.
es wurde geschrei4ebn das person x bereiot ist 400€ für 30% mehr leistung auszugeben

ich schrieb daraufhin dass es bei mir schon um die 300% sein müssen, sonst rüste ich auf
keine Ahnung was du da jetzt irgendwie draus machst
Eine Konsolidierung ist kein "auf der Stelle treten".
ES WIRD NICH MEHR LEISTUNG ALS ES JETZ SCHON VOM AMD GIBT GEBEN
vberstehst du das? ja der verbrauch wird weniger aber die Leistung bleibt kleben
da kommt nix zum jubeln

wer in den nächsten 3 jahren mehr leistung will muss NVIDEA kaufen und das ist doch nur mal ein fakt und endet hoffentlich weider mit RDNA5

was kann man da nicht verstehen?
 
Okay, der Prozessor wird schneller....mehr Lanes wären mir wesentlich lieber. Was ist eigendlich mit dem dazu passenden Chipsatz? Kommt da eine modernere, stromsparende Version zum Einsatz?
 
Zuletzt bearbeitet:
Was die meisten hier interessiert ist doch eigentlich nur wie gut der Zen 5 CCD für eine spätere X3D Version taugt.
Für den Gamer ist die "normale" Version doch eigentlich nur noch das Preview auf die spannende Version zur CES.
Viel spannender ist da schon, ob Epic mit den neuen Kernen weiter so performt und langsam aber stetig Boden gegen Intel im Server gut machen kann. Und natürlich wie es mit der AI bubble weiter geht.

Die RDNA4 gegen Consumer-Blackwell Diskussion die hier so leidenschaftlich geführt wird interessiert aktuell weder Nvidia noch AMD sonderlich.
 
Wir warten alle schon ganz gespannt auf Zen5 3D den heiligen Gral aller Gaming CPU's.
Das Schreckgespenst, der Alptraum der zahllosen Intel Fanboys bereits jetzt, schlaflose Nächte beschert.

Beim normalen Zen 5 handelt es sich doch nur um einen kleinen Vorgeschmack, der vornehmlich dazu dient
den Scherbenhaufen den Intel produziert hat einmal so richtig gut durchzuwischen.
 
Zurück