Sagen wir mal so, ich hatte bisher gehofft, dass zen4 von der IPC aus so viel besser als zen3 würde, dass AMD gegen AlderLake2.0 keine allzu großen Schwierigkeiten haben würde. Jetzt siehts aber eher so aus, dass die IPC Steigerung eher sehr mau wird und viel über den Takt geholt werden muss - und AMD offenbar der Meinung ist Intel nur mit deutlich angehobener Leistungsaufnahme schlagen zu können.
Damit sie auf den Verbrauch schauen könnten, müßte es eine Situation, wie bei Sandy bridge geben. Eine absolut klare Überlegenheit, die AMD einfach nur pulverisiert hat. Da konnte Intel dann auch ganz bequem auf 25-30% der erreichbaren Leistung verzichten und die CPU mit 3,4 GHz takten, die 4,5-5GHz konnten sich dann die Übertakter holen.
So eine Situation wird es wohl ersteinmal nicht geben.
Es ist ja legitim das zu tun und deine/eure Argumente sind völlig stimmig, der Auslöser für diese Strategie dürfte aber eher dann eine Underperformance von Zen4 (gegenüber dem Performanceziel) gewesen sein.
Von "Underperformance" dürfte keine Rede sein, wenn es kommt, wie die Gerüchteküche vorhersagt. Der Punkt ist, dass der Vorsprung auf die Konkurrenz eigentlich nicht groß genug sein kann. 10% Vorsprung sind schön und gut, aber 20-30% sind ein sanftes Ruhekissen, besonders, wenn man bedenkt, dass die Konkurrenz gerne mal etwas aus dem Hut zaubert.
Für einsparen müßte eben eine Situation, wie sie Intel beim FX hatte her. Extremer Leistungsabstand und die Konkurrenz kann auch die nächsten 5 Jahre nicht dagegenhalten. Da kann man es langsam angehen lassen und auf 95W TDP gehen, das senkt die Kosten für den Boxedlüfter.
Wäre nicht das erste Mal. Wenn AMD leistungsmäßig unter Zugzwang standen, haben sie in der Vergangenheit genauso die Sweetspots ihrer Architekturen ignoriert und Strom durchgezogen, als käm der unbegrenzt aus der Steckdose, wie Intel in vergleichbarer Situation. Das merkwürdige ist nur, wieso AMD beim AM5 so unter Zugzwang stehen sollte – sie haben eine komplett neue Architektur, sie haben massiv schnelleren RAM und vor allem machen sie einen Full-Node-Sprung. Die ersten beiden Punkte könnten im günstigsten Fall schon für die versprochenen ">15 Prozent" Mehrleistung reichen und die Fertigung so in eine drastische Verbrauchssenkung investiert werden. Wenn man knapper kalkuliert und die 10 Prozent mehr Takt wirklich für die Rechenleistung braucht, dann dürfte im Umkehrschluss die Architektur nicht breiter sein und somit bei gleichem Takt und gleicher Fertigung auch nicht mehr verbrauchen; bei 10 Prozent mehr Takt und N5 + N6 statt N7 + 12nm sollte die Leistung knapp runtergehen.
Stattdessen stellt man 230 W in den Raum. Die hätte ich erwartet, wenn man 15 Prozent unter Beibehaltung von N7 oder alternativ mit Zen 3+ in N6 erreichen wollten.
Man muß auch sagen, dass diese Entwicklung von den ganzen Hardwaretestern auch quasi eingefordert wird. Zwar gibt es ein bis zwei böse Sätze über den Verbrauch, aber am Ende zählt einfach nur die Länge des Balkens und nichts anderes.
Es gibt die Weisheit "liefere nur das, was dein Kunde auch möchte
und wofür er auch
bezahlt. Wenn die Leute gerne sparsame CPUs hätten, aber nur nach dem längsten Balken kaufen, dann liefert man als Firma den längsten Balken. Wenn die Kundschaft Leistung möchte, aber nur nach MHz bezahlt, dann kommt der P4 heraus (sogesehen war er ein voller Erfolg).
Ich wundert eher, dass AMD bei 230W schon aufhört, immerhin geht Intel bis gut 350W.
Der i9 12900K hat den damaligen Test mit 0,1% Vorsprung gewonnen und wurde dadurch offizieller PCGH Gamingking (wenn auch nur einige Monate). Das hätte er nicht geschafft, wenn Intel die Energie nicht nach Kräften zum Fenster rausgeheizt hätte.
Tatsächlich halten die meisten KoWaKüs im Redaktionsumfeld mittlerweile deutlich über 5 Jahre, teils bis zu 10, und das ist dann einfach der Bereich in dem Diffusion dem Kreislauf ein Ende setzt.
Hat es nicht irgendeinem Redakteur die Titan zerschossen, weil es plötzlich grüne Brühe geregnet hat?