News Überraschung bei Ryzen 9000X3D: Schwingt AMD wieder die Effizienzkeule mit 6 Kernen?

Das Problem an dem Wunsch ist nur: Egal ob AMD oder Intel, wenn die CPU es technisch kann wird der Stock-Betriebspunkt auch tendentiell immer sehr (zu) hoch gewählt weil Leute auf Benchmarkbalken starren und nicht auf Effizienzen. Also lässt man CPUs lieber 200-250W saufen um dem Gegner 3% abzunehmen statt sie mit 100-150W ab Werk einzustellen was sehr oft beinahe genauso schnell ist.
Man hat es doch am Ryzen 9000 gesehen. Für mich als Laie wurde dieser auf Effizienz getrimmt. AMD hat dadurch ein paar Prozent "verschenkt" und eventuell auch bei der Entwicklung geguckt, dass sie so effizient wie möglich sind und nicht so schnell wie möglich. Die Resonanz war nicht so gut, zumindest nicht die, welche ich mitbekam. Was scheint also aus unternehmerischer Sicht besser zu sein?
 
Man hat es doch am Ryzen 9000 gesehen. Für mich als Laie wurde dieser auf Effizienz getrimmt. AMD hat dadurch ein paar Prozent "verschenkt" und eventuell auch bei der Entwicklung geguckt, dass sie so effizient wie möglich sind und nicht so schnell wie möglich.
AMD hat sich da offensichtlich verschätzt da man (nach den Folien die man vorher gezeigt hat offenbar ernsthaft) geglaubt hat, mit kleineren TDP-Klassen überall "gewinnen" zu können in den Benchmarks.
Nachdem dann unabhängige Tests gezeigt haben dass die Performance viel schlechter als von AMD beworben war und man in vielen Szenarien auch nicht gegen die "alten" Intels ankam (die Gründe sind sicher vielfälig, aber die CPU sehr hastig zu releasen bevor beispielsweise die Scheduler die neue Branchprediction kannten dürfte großen Einfluss gehabt haben) schiebt man dann nachträglich doch noch die hohen TDPs nach um die beispielhaft oben genannten 3% (es sind real meist mehr) doch noch einzufahren [koste es was es wolle].

Was AMD da gemacht hat war kein Paradigmenwechsel von "wir wollen effizient sein auch wenns ein bisschen Leistung kostet", das war ums hart zu formulieren schlichtweg holprig und verschätzt und nachgetreten.
 
Was sagt die PCGH-X-Community zu Überraschung bei Ryzen 9000X3D: Schwingt AMD wieder die Effizienzkeule mit 6 Kernen?

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
@PCGH

Weshalb steht im Text "Ende Oktober", wenn doch der Leaker explizit von early November schreibt (siehe Anhang) ?!?

Edit : o.k. Vorstellung Oktober / Release November (thx @True Monkey) :cool:
 

Anhänge

  • Okt Nov.jpg
    Okt Nov.jpg
    561,6 KB · Aufrufe: 9
Zuletzt bearbeitet:
Nachdem dann unabhängige Tests gezeigt haben dass die Performance viel schlechter als von AMD beworben war und man in vielen Szenarien auch nicht gegen die "alten" Intels ankam (die Gründe sind sicher vielfälig, aber die CPU sehr hastig zu releasen bevor beispielsweise die Scheduler die neue Branchprediction kannten dürfte großen Einfluss gehabt haben) schiebt man dann nachträglich doch noch die hohen TDPs nach um die beispielhaft oben genannten 3% (es sind real meist mehr) doch noch einzufahren [koste es was es wolle].
Ja, da hast du einen Punkt. Hatte die Werbung vergessen. Sie hätten vermutlich 2 Monate später die CPUs freigeben sollen. So kamen sie als Bananenprodukt zum Kunden, was niemals einen guten Eindruck hinterlässt. Nötig wäre es m. E. n. nicht gewesen.
 
Ist es technisch für AMD möglich, einen Ryzen9 9950X3D2 zu bauen; also mit dem zusätzlichen Cache auf beiden DIEs? Ich verstehe einfach nicht, warum das nicht gemacht wird und Windoof immer wieder darauf getrimmt werden muß, die richtigen Kerne für bestimmte Aufgaben zu nutzen.
 
Ist es technisch für AMD möglich, einen Ryzen9 9950X3D2 zu bauen; also mit dem zusätzlichen Cache auf beiden DIEs?
Ja, natürlich.
Es gab bereits bei Ryzen 7000 und 5000 Prototypen mit zwei 3D-Cache-CCDs.

Ich verstehe einfach nicht, warum das nicht gemacht wird
Weil ein 3D-Cache die darunter liegenden Kerne dazu zwingt niedriger zu takten. Wenn du beide vorhandenen CCDs mit 3DCache bestückst wird die CPU in cachelastigen Workloads nur minimal besser (da die meisten dieser Workloads wie etwa Spiele kaum einen Vorteil von 16 Kernen statt 8 haben) aber in allen anderen Workloads die mit Takt skalieren schlechter. Deswegen haben die 12-/16-Kerner beide "Sorten" von kernen um alle Workloads bestmöglich abdecken zu können.
 
Weil ein 3D-Cache die darunter liegenden Kerne dazu zwingt niedriger zu takten. Wenn du beide vorhandenen CCDs mit 3DCache bestückst wird die CPU in cachelastigen Workloads nur minimal besser (da die meisten dieser Workloads wie etwa Spiele kaum einen Vorteil von 16 Kernen statt 8 haben) aber in allen anderen Workloads die mit Takt skalieren schlechter. Deswegen haben die 12-/16-Kerner beide "Sorten" von kernen um alle Workloads bestmöglich abdecken zu können.

Die realistische Antwort ist wohl, dass das billiger ist und man den Takt des zweiten CCD auf die Packung schreiben kann. Auch heute gibt es noch viele, die Leistung in GHz messen und da hören sich 5,7GHzu deutlich besser an,. als 5,2GHz, besonders wenn die Konkurrenz 6,2GHz auf die Schachteln schreiben kann.

ich merk nicht mal nen Unterschied zwischen meinen neuen 5700x3d vs 5600x

lieber in GPU investieren

Da zockst du halt eben die falschen Spiele.
 
Warum sagt mir das denn keiner das ich schon wieder was mache was gar nicht geht ?
Okay, da Du ja so darauf bestehst: Du machst schon wieder was, was gar nicht geht! :ugly:
EDIT: Hier
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
"9800X3D cannot be overclocked"
Also ich würde aktuell die CPU auch nicht übertakten wollen. Ich bin eher fasziniert davon, was mensch mit so wenig Stromverbrauch so alles an Leistung heraus bekommt. Fand @PCGH_Dave Optimierung vom 7800X3D sehr beeindruckend. :daumen: Wenn ein 9800X3D ähnlich Stromsparend laufen und ein bisschen leistungsstärker sein sollte als der 7800X3D, dann würde ich mir den kaufen. Insofern bin ich sehr gespannt auf baldige Tests. :pcghrockt:
 
Zuletzt bearbeitet:
Also ich würde aktuell die CPU auch nicht übertakten wollen. Ich bin eher fasziniert davon, was mensch mit so wenig Stromverbrauch so alles an Leistung heraus bekommt.
Es ist generell beeindruckend welche Effizienz moderne Chips so hinlegen wenn man Betriebspunkte wählt die dafür sehr günstig sind. Selbst der als saufender Chip verschriene Raptorlake wird sehr effizient wenn man ihn passend konfiguriert, acuh wenn man damit natürlich nicht die Rekordwerte eines X3D erreicht.

Wir sind allgemein stark beeinflusst um nicht geblendet zu sagen davon, dass die Werkseinstellungen im ständigen Konkurrenzkampf meist hart an der Obergrenze gewählt werden obwohl das aus Effizienzsicht eine Vollkatastrophe ist.
Du kannst dir einen Monster-PC mit 14900KS und RTX4090 bauen (um mal die härtesten Stromfresser aktuell zu wählen) und damit 600-700W beim Zocken verballern, mit OC für ne Handvoll mehr fps noch mehr. Oder du stellst die CPU auf 100W PL2 + UV und die GPU auf 2,4 GHz bei 0,85v oder sowas ein und hast 90% der Spieleleistung mit gefühlten 300 statt 600W.
Das Spielchen mit nem dahingehend optimierten 7800X3D und ner RTX4080@UV und man kann sich problemlos eine sehr performante Zockermaschine bauen, die insgesamt (!) mit 200-250W im Mittel problemlos auskommt. Nur sowas verkauft sich einfach schlecht da die breite Masse der Leute nur auf fps und nicht auf Watt (pro fps) schaut. :ka:
 
Ist es technisch für AMD möglich, einen Ryzen9 9950X3D2 zu bauen; also mit dem zusätzlichen Cache auf beiden DIEs? Ich verstehe einfach nicht, warum das nicht gemacht wird und Windoof immer wieder darauf getrimmt werden muß, die richtigen Kerne für bestimmte Aufgaben zu nutzen.
 
Du kannst dir einen Monster-PC mit 14900KS und RTX4090 bauen (um mal die härtesten Stromfresser aktuell zu wählen) und damit 600-700W beim Zocken verballern, mit OC für ne Handvoll mehr fps noch mehr.
Oder die gleiche Leistung bei weniger als 350 Watt. Aber dazu müsste man sich länger als zwei Sekunden damit beschäftigen, was viele nicht mehr können heutzutage.
Ob ein 9800X3D in dessen Fußstapfen treten kann, wird sich erst noch zeigen müssen, denn AMD sprach von mehr Takt für die neuen X3D und das würde die Effizienz zunichte machen.
 
Es ist generell beeindruckend welche Effizienz moderne Chips so hinlegen wenn man Betriebspunkte wählt die dafür sehr günstig sind. Selbst der als saufender Chip verschriene Raptorlake wird sehr effizient wenn man ihn passend konfiguriert, acuh wenn man damit natürlich nicht die Rekordwerte eines X3D erreicht.

Wir sind allgemein stark beeinflusst um nicht geblendet zu sagen davon, dass die Werkseinstellungen im ständigen Konkurrenzkampf meist hart an der Obergrenze gewählt werden obwohl das aus Effizienzsicht eine Vollkatastrophe ist.
Du kannst dir einen Monster-PC mit 14900KS und RTX4090 bauen (um mal die härtesten Stromfresser aktuell zu wählen) und damit 600-700W beim Zocken verballern, mit OC für ne Handvoll mehr fps noch mehr. Oder du stellst die CPU auf 100W PL2 + UV und die GPU auf 2,4 GHz bei 0,85v oder sowas ein und hast 90% der Spieleleistung mit gefühlten 300 statt 600W.
Das Spielchen mit nem dahingehend optimierten 7800X3D und ner RTX4080@UV und man kann sich problemlos eine sehr performante Zockermaschine bauen, die insgesamt (!) mit 200-250W im Mittel problemlos auskommt. Nur sowas verkauft sich einfach schlecht da die breite Masse der Leute nur auf fps und nicht auf Watt (pro fps) schaut. :ka:
Imho ist die Effizienz in den letzten Jahren eh der deutlich interessantere Tuning-Faktor geworden, alltagstaugliches Overclocking ist ja etwas hinfällig wenn die Chips sich alle schon ab Werk automatisch an die Kotzgrenze fahren. Die unterschiede zwischen Werkseinstellungen und Sweet-Spot sind ja schon immer da gewesen aber aktuell scheint eine halbierung des Stromverbrauchs bei kaum weniger Leistung ja echt die Norm zu sein was ich schon etwas krass finde, aber zumindest gibts dann wieder mehr zum tweaken, nur eben in die andere Richtung als früher :P
 
Ob ein 9800X3D in dessen Fußstapfen treten kann, wird sich erst noch zeigen müssen, denn AMD sprach von mehr Takt für die neuen X3D und das würde die Effizienz zunichte machen.
Wobei mensch doch wohl PBO deaktivieren (wie Du beim 7800X3D) und/oder anderweitig Takt/Leistung beschränken können müsste, oder nicht? Oder nimmst Du an, dass mensch damit die gleiche Leistung heraus bekäme 9800X3D=7800X3D?
 
Wobei mensch doch wohl PBO deaktivieren (wie Du beim 7800X3D) und/oder anderweitig Takt/Leistung beschränken können müsste, oder nicht?
Manuell beschränken kann man immer, es geht darum dass AMD bei den 9000ern die Werkseinstellungen ggf. höher wählt als bei den 7000ern so dass die out-of-the-Box Effizienz schlechter werden könnte.
 
Zurück