News AMD Ryzen Roadmap: AM5-Desktop-Prozessoren ohne E-Cores

Ich denke, dass AMD einfach kein Geld hat, um einen neuen Kern zu bauen. Die haben schon genug Probleme, mit Intel und Nvidia mitzuhalten. Eine neue Mikroarchitektur kostet viel Kohle und Zeit, und wer weiß, ob die sich überhaupt lohnt. Vielleicht kommt ja was Besseres in ein paar Jahren. AMD macht halt das Beste aus dem, was sie haben: ein bisschen am Design schrauben, die Fertigung optimieren und auf architektonische Spielereien verzichten. Das ist zwar nicht ideal, aber besser als nichts. Mal sehen, wie die Chips sich schlagen werden.
"Kein Geld" so pauschal ist sicherlich nicht ganz richtig, aber die haben halt andere Prioritäten und müssen weiteres Wachstum anstreben, denn die Vorteile, die man aus der fertigungstechnischen Führerschaft durch den Einkauf bei TSMC über die Jahre hatte, werden bald entfallen.
Darüber hinaus, eine neue Mikroarchitektur wird so oder so gesichert kommen und die Grundlagen sind auch schon festgezurrt, wenn man die letzten Interviews diesbezüglich berücksichtigt. Hierbei ist nur zu beachten, dass solche Entwicklungen Jahre vorher beginnen. ;-)
Abschließend, wie gesagt, es hängt von der Marktentwicklung ab und es kann durchaus sein, dass wenn der Markt in bestimmten Szenarien nach noch mehr Effizienz giert, AMD diesem Verlagen nachgeben oder aber das betreffende Marktsegment aufgeben muss.
So etwas wie die Eierlegendewollmilchsau gibt es auch in der Halbleiterbranche nicht, d. h. wenn etwas extrem durchsatzstark und/oder funktionsreich sein muss, kann es nicht gleichzeitig hochgradig effizient sein, sprich bis zu einem gewissen Grad kann man zwar versuchen mit nur einem Design alle Märkte zu bedienen, sobald aber Konurrenten (hier den Plural beachten, da auch die ARM-Designs hier eine relevante Rolle spielen) hier bzgl. der Effizienz alle Register ziehen, muss man nachziehen oder den Hut nehmen. Und das Nachziehen sollte man nach Möglichkeit vermeiden, sprich man sollte vorbereitet sein und mitziehen, sodass ich davon ausgehe, dass man im Hintergurnd, wenn auch derzeit möglicherweise nur in einem Kleinteam durchaus Möglichkeiten evaluiert ob und wie man mit einem entsprechenden Design aufwarten kann.

Ich bin nicht deiner Meinung. Es gibt viele Gründe, warum man sich gegen eine neue Mikroarchitektur entscheiden könnte, die nicht nur mit dem Preis zu tun haben. Zum Beispiel könnte es technische Herausforderungen geben, die eine solche Umstellung erschweren oder verzögern. Oder es könnte strategische Vorteile haben, die bestehende Architektur zu optimieren und zu verfeinern, anstatt ständig etwas Neues zu entwickeln. Oder es könnte einfach eine Frage des Geschmacks sein, welche Art von CPU man bevorzugt. Ich finde es unfair, AMD als Budget-Lösung abzustempeln, nur weil sie nicht jedes Jahr eine Revolution auf den Markt bringen. Sie bieten immer noch eine sehr gute Leistung und Effizienz für viele Anwendungsbereiche und haben sich einen loyalen Kundenstamm erarbeitet. Ich denke, du solltest deine Argumente etwas differenzierter betrachten und nicht nur auf die Watt-Zahlen schauen.
Ich sprach hier von dem voraussichtlich maßgeblichsten Grund und das sind mit ziemlicher Wahrscheinlichkeit derzeit die dafür notwendigen Entwickungskosten.
"strategische Vorteile": Unterschiedliche Marktsegmente haben teilweise deutlich unterschiedliche Anforderungen. Wenn du hier nur mit einem einzigen Produkt aufwartest und das in alle Märkte zu pressen versuchst, wirst du immer in Schwierigkeiten kommen, weil deine Konkurrenten maßgeschneiderte Lösungen bieten. Diesen absatztechnischen Nachteil kannst du bspw. gegenrechnen gegen die eingesparten Entwicklungskosten für ein oder meherere, zusätzliche Designs, also erneut Kosten. Darüber hinaus, wenn du für ein spezielles Segment derart ungünstige Betriebseigenschaften mitbringst aufgrund deines OneSizeFitsAll-Ansatzes, wirst du gezwungen sein, dein Produkt über den Preis in den Markt zu pressen. Auch das ist suboptimal, da es dir auf die Marge schlägt, also wäre die Frasge wie günstig du entwickeln und fertigen kannst ... hier einen nennenswerten Vorteil für AMD anzunehmen erscheint jedoch nicht plausibel. ;-)
"technische Herausforderungen": Würde ja in dem Sinne nur den Einführungszeitpunkt betreffen, würde ggf. auch implizieren, dass man sehrwohl daran arbeitet ... darüber hinaus sitzen bei AMD aber keine Amateure, die nicht wissen wie man CPUs entwickelt und deren grundsätzliche Aussage, über die wir hier gerade reden, habe ich nicht so verstanden, dass es hier nur um ein oder zwei Quartale geht, sondern dass man so schnell keine eigene, spezialisierte Mikroarchitektur hierfür zu sehen bekommen wird, d. h. ich gehe hier von Jahren aus und das wären weniger technische Herausforderungen sondern man hätte das Projekt komplett in den Sand gesetzt oder den Markt nicht richtig eingeschätzt und viel zu spät mit der Entwickung angefangen ... Wie schon gesagt, ein Teil ihres R&D wird sicherlich an derartigem arbeiten, nur sehen die vermutlich noch nicht die wirtschaftlichen Gegebenheiten ...
"eine Frage des Geschmacks sein, welche Art von CPU man bevorzugt": Wer ist hier "man"? Ich hoffe nicht, dass du AMD meinst, denn hier gilt grundsätzlich, dass wenn man am Markt vorbei entwickelt, man Verluste einfährt oder gar gleich weg vom Fenster ist. ;-) Darüber hinaus, auch auf dem Desktop und selbst im Gaming kann man Effizienz-Kerne sinnvoll einsetzen. Hybridarchitekturen haben auf dem PC gerade erst Einzug gehalten, da ist noch viel Luft nach oben, auch SW-seitig.
"unfair, AMD als Budget-Lösung": Eine deratige Bewertung hat nichts mit Fairness zu tun und diese ist auch in keinster Weise abwertend. Es ist nun einmal schlicht so, dass der Enthusiasten-Markt, der für sein Traumsystem nahezu bereit ist jeden Preis zu zahlen, sehr klein ist. Alle anderen schauen auf die eine oder andere Art auf den Euro und dementsprechend wird hier auch vielfach zu AMD gegriffen (was keinesfalls die Vorzüge von deren Produkte nivellieren soll). Hast du dir mal überlegt, warum man immer wieder so massive Preisnachlässe bei den AMD-Produkte bekommt? Als Tipp, das "A" in AMD steht nicht für Altruismus. ;-) Die Nachlässe sind schlicht für den erforderlichen Absatz notwendig. Beispeislweise bei den AMD-GPUs ist das ein regelrechtes Trauerspiel. Man bietet eine durchaus gute Rasterizer-Leistung an, gleich viel oder mehr VRAM und ist günstiger und muss dennoch mit der Zeit nochmals viel günstiger werden um die Produkte absetzen zu können.
In 2021 mit Corona und den Marktenpässen bei RDNA2 war es bspw. ganz extrem. Die nVidia-Produkte waren maßlos überteuert, die AMD-Produkte waren auch überteuert aber dennoch relativ gesehen viel billiger als die der Konkurrenz und dennoch wurden diese kaum gekauft, sodass man keine Marktanteile gewinnen konnte bzw. in eingen Quartalen gar noch Marktanteile verlor. Dagegen der "normale Menschenverstand" hätte in einer naiven Sichtweise angenommen: viel billiger als die Konkurrenz, in Teilen vergleichbare Leistung und mehr VRAM, ein no brainer ... aber nein, so schaut der Markt da halt eben nicht drauf und einer der pausiblen *) Bausteine für eine Erklärung ist nun einmal , dass ein nennenswerter Teil der AMD-affinen Käuferschaft zu diesen hohen Preisen schlicht nicht bereit war zu kaufen, wohingegen nVidia dennoch ob der wahnsinngien Preise gekauft wurde.

*) Und notwendigsten Bausteine, denn die technischen Eigenschaften der Produkte alleine können dieses Marktverhalten nicht erklären.

**) Ergänzend vielleicht noch, dass es in Bezug auf einen Mrd.-Dollar-Konzern wie AMD kein "(un)fair" geben kann aus unserer Konsumentensicht. Diese Firma bedient Märkte und keine Einzelpersonen und sie verhält sich ebenso auch wie keine, auch wenn so manch einer gerne verklärt auf deren CEO schauen mag, aber unterm Strich arbeitet dieser nach den gleichen Mechanismen und Prinzipien wie die CEOs von anderen vergleichbar großen Konzernen. Der wesentliche Unterschied ist vielmehr, dass die Firma sich in den jeweiligen Segmenten in anderen Marktsituationen wiederfindet als ihre Konkurrenz und dementsprechend muss sie hier zwangsweise anders agieren um am Markt bestehen zu können. Das verwechseln manche gerne mit Eigenschaften, die man eher eine realen Person vorbehalten sollten, aber sicherlich nicht solchen Konzernen. ;-)
 
Was heißt, bei gleicher Leistungsaufnahme? Für die Spielleistung eines 13900KS benötigt AMD nicht mal 70 Watt.
Du wärst überrascht, wie wenig ein 13900K benötigt, und wie viel er noch leistet wenn er nicht mit der vollen TDP läuft und die E-Cores abgeschaltet sind.
Die CPU ist ja auf maximale Leistung, sprich 251 Watt konfiguriert.
Das Spiel könnte ich nun bei Anwendungen weiterführen und den Intel auf die 120 Watt TDP des 7950X3D limitieren. Der 7950X ist da unnötigerweise auf 170 Watt(220) TDP eingestellt.
Nicht AMD hat hier ein Problem, sondern Intel.
AMD hat durchaus ein Problem bei Teillasten, im Windowsbetrieb, bei Spielen nicht.
Intel hat kein Effizienzproblem, sondern primär ein Leistungsproblem, was die letzten paar % betrifft. Das kann sich mit dem Refresh dann schon ändern.
Schraub mal einen 13900KS auf 68 Watt herunter. Was, glaubst du, leistet der dann noch?
Wenn ich raten wollte immer noch recht viel. Vielleicht etwa 15% weniger.
Wie ich darauf komme.
Erstens ist er sehr teuer im Vergleich zu anderen Prozessoren auf dem Markt. Du zahlen viel mehr für eine geringfügige Leistungssteigerung, die du wahrscheinlich nicht einmal bemerken wirst.
Wieso? Du hast doch etwa 20% mehr Spieleleistung bei @stock sehr niedriger Energieaufnahme und nur eine geringfügig niedrigere Anwendungsperformance für rund 100€ mehr, verglichen mit dem 7950X.
Zweitens ist er sehr energiehungrig und erzeugt viel Wärme.
Die X3D CPUs sind doch aufgrund der geringeren TDP und des Abschaltens des anderen CCX bei Spielen, eben genau nicht so energiehungrig.^^

Kurz gesagt, ist ein überteuerter Prozessor, der mehr Probleme als Vorteile bringt.
Sehe ich nicht.
 
Zuletzt bearbeitet:
Wenn ich raten wollte immer noch recht viel. Vielleicht etwa 15% weniger.
Wie ich darauf komme.
Was verstehe ich da nicht ? Lt. CB verliert der 13900K in Multi-Core Anwendungen bei 65 Watt zu 253 Watt ganze 37%, während der 7950X nur 31% verliert und somit 12% vor dem 13900K liegt.

Der 7950X3D müsste bei 65 Watt Leistungsaufnahme in Spielen deutlich schneller wie ein 13900K mit 65 Watt sein.
Oder etwa nicht ?
 
Liest sich als ob AMD sozusagen im Desktop nur P-cores anbieten will und im mobile Segment nur E-cores.

Reduziert sicher den Aufwand bei der Softwareunterstützung.
 
Steile Thesen hier :D

Dann wollen wir uns die mal genauer anschauen...

Erstens ist er sehr teuer im Vergleich zu anderen Prozessoren auf dem Markt. Du zahlen viel mehr für eine geringfügige Leistungssteigerung, die du wahrscheinlich nicht einmal bemerken wirst.
Stimmt, absolut brutal der Preise Unterschied:

Und dazu der Leistungsunterschied:

Der 7950X3D ist also ca 19% teurer, bietet aber satte 30% Mehrleistung in Spielen. Wenn also eine CPU ein schlechtes Preisleistungsverhältnis hat ist es die non 3D Cache Variante.
Zweitens ist er sehr energiehungrig und erzeugt viel Wärme.
Hier ist der Effizienz Index für Spiele:

Der 7950X3D ist also um den Faktor 2,26 effizienter als der 7950X. Das ist echt brutal energiehungrig und heiß :ugly:

Vllt beim nächsten mal vorher kurz die eigenen Aussagen überprüfen bevor man sich lächerlich macht :schief:
 
@PCGH_Dave
Mal eine vermutung aber ist Zen4c nicht sowas wie die E-Cores bei intel ?
Ich meine sie sind kleiner, effizienter und Takten niedriger und haben dank kleineren cache auch weniger IPC in den meisten Anwendungen.
Achtung Klaskugel:
Aber zen4c wird jetzt mobil getestet und wenn es klappt wird dann vlt schon zen5 Big littel mit zen5 Kernen als P und vlt zen4c als littel oder als zen5c , wobei ich denke das du erstmal das erprobte nimmst(zen4c).
Den einfach nur kleiner machen geht nicht, zen4c war vermutlich mehr aufwand als man denkt.
 
Du wärst überrascht, wie wenig ein 13900K benötigt, und wie viel er noch leistet wenn er nicht mit der vollen TDP läuft und die E-Cores abgeschaltet sind.
Wenn ich den 13900K um 16 Kerne beschneiden muss, dann darf ich den vergleichbaren 7800X3D auch optimieren. :ka: Wenn ich die Intel-CPU auf den durchschnittlichen Verbrauch der AMD-CPU konfiguriere, dann sieht es nicht mehr so rosig für den 13900K aus:

Screenshot 2023-07-17 092958.png


Die Leistung des 13900K entspricht dann etwa der eines 12700K oder eines Ryzen 7700 ohne X. Das ist zwar gemessen an den älteren CPUs eine gute Effizienz-Steigerung, jedoch keine Konkurrenz für AMD. Ohne Limitierung liefert ein 13900K in dieser Szene übrigens 110,2 Fps, 89 Fps P1 und 73 Fps P0.2 (alle Kerne aktiv) – bei ~ 177 Watt. Also selbst voll ausgefahren reicht es nicht, um die Konkurrenz zu schlagen. Wir sind uns zumindest einig, dass Intel den 13900K fernab des Sweet Spots konfiguriert hat, aber seit Coffee Lake muss Intel mit der Brechstange arbeiten, weil AMD einfach zu mächtig geworden ist.

Die CPU ist ja auf maximale Leistung, sprich 251 Watt konfiguriert.
Alle CPUs mit Turbo-Boost versuchen diesen bestmöglich auszureizen. Es hängt jedoch davon ab, was die zugrundeliegende Architektur damit anfängt. Einige von ihnen holen mehr Leistung pro Watt heraus als andere.
Intel hat kein Effizienzproblem, sondern primär ein Leistungsproblem, was die letzten paar % betrifft. Das kann sich mit dem Refresh dann schon ändern.
Du meinst also, der RPL-Refresh wird einige Prozent langsamer als die aktuellen CPUs (oder gleichschnell) und punktet dafür mit höherer Effizienz? Na dann wünsche ich dir jetzt schon viel Spaß bei der Lektüre des Tests dazu :bier:
Wenn ich raten wollte immer noch recht viel. Vielleicht etwa 15% weniger.
Wie ich darauf komme.
Siehe oben, es sind rund 25 Prozent. Dann muss man auch infrage stellen, wozu man dann einen solchen Prozessor kauft, wenn ich 16 Kerne abschalten und die Leistung um 25 Prozent reduzieren muss, damit ich eine gute Watt-Bilanz habe (die selbst dann noch der Konkurrenz unterlegen ist).

Raptor Lake ist keine schlechte CPU-Generation, jedoch effizienztechnisch AMD unterlegen. Einzig beim Idle-Verbrauch liegt Intel vorn, was, wie zuvor erwähnt, am Chiplet-Design der AMD-CPUs liegt. Da wird es spannend, was Zen 5 bringen wird, schauen wir mal.
 
AMD hat durchaus ein Problem bei Teillasten, im Windowsbetrieb, bei Spielen nicht.
Intel hat kein Effizienzproblem, sondern primär ein Leistungsproblem, was die letzten paar % betrifft. Das kann sich mit dem Refresh dann schon ändern.
???

AMD hat im Idle (Teillast relativiert sich meist schon völlig) ein "Problem" wie du es gerne bezeichnest, allerdings ist dieses Problem dem größten Vorteil der Architektur geschuldet. Man hat eben noch einen Kommunikationschip im Chip, der im Idle / niedrigen Teillastbereich überproportional aufschlägt, das ist soweit richtig. Dafür bietet der Chip etwas, was Intel gerne hätte, nämlich Skalierbarkeit. Nicht umsonst kann AMD ohne Yieldrate zu opfern, 96Kerner anbieten.
Allerdings, das sehe ich grds. auch, wird es im Desktop eher nicht mehr als 16 Kerne in naher Zukunft benötigen. Daher schwindet mit jeder Fertigungsstruktur ein wenig vom Vorteil den AMD dort hat, da grds. mehr Kerne auf weniger Fläche Platz hätten und die Yieldrate somit nicht negativ (oder nicht mehr so negativ) beeinflussen können.

Bzgl. Intel sehe ich das auch etwas anders. Intel hat insbesondere ein Fertigungsproblem und ich denke auch, dass es architektonisch durchaus problematisch ist, was sie tun. Man sieht eben, dass man mit einem Refresh (was du erzählst ist ziemlicher Quatsch) nicht die letzten % unter maximaler Effizienz herausgequetscht werden können, mit dem Refresh wird man eher weiter an der Taktschraube drehen, die Effizienz weiter versaubeuteln und sich selbst dafür feiern, dass man wieder ganz oben im Balkendiagramm angekommen ist. Per se, sind die 13th keine schlechten Chips, allerdings hat man eben um im Balkendiagramm (im übrigen begeht NV den selben Fehler bei der 4090 und AMD bei der XTX) vorne zu liegen die Chips derartig weit aus dem Sweetspot geholt, dass sie quasi alles niederbrennen.

Das Intel derzeit aber auch architektonisch nicht ganz mithalten kann, sieht man bspw. bei dem N100 der irgendwie in Konkurenz zum Z1 /Extreme steht und dort nicht einmal bei 6W (PL1 ja wohl 12W und PL2 gar 20W; während Z1 Extreme bis 35W konfiguriert wird, aber bei 15W Betrieb (17,1W Max lt. Rivatuner) ca. die vierfache Leistung bietet wie ein N100 (den 305 habe ich noch nirgends gefunden). Also auch in den E-Cores kann AMD grds. mit seinen Standard Cores effizienztechnisch mehr als mithalten.

Mal eine vermutung aber ist Zen4c nicht sowas wie die E-Cores bei intel ?
Nicht so ganz, grds. sind Zen 4c voll funktionsfähige Zen 4 Kerne, es wird lediglich die Anzahl der Kerne / CCX auf dem CCD verdoppelt, damit effektiv der L3 halbiert (dieser bleibt gleich, aber durch die Verdoppelung der Kerne eben effektiv halber L3), dazu verzichtet man auf TSV (kein 3D Cache möglich) und auf Grund der Taktbeschränkungen kann man eben auch "dichter" packen.
Im Vergleich zu Intel sind die Unterschiede hier deutlich geringer, ich vermute auch, dass der Hintergrund eher das mehr Kerne auf gleiche Fläche ist, aber das Ziel ist am Ende relativ identisch, mehr Kerne billiger zu produzieren! Das die Chips dadurch effizienter werden ist sicherlich für Rechenzentren ein wichtiger Aspekt, bin mir nur nicht sicher, ob das das Ziel war, oder der Nebeneffekt den man mitnimmt?



Ansonsten habe ich mal eine steile These, bzw. eher Frage. Was wäre denn von einer "Lizenzsierung" von Snapdragon / ARM? Könnte man solche Effizienzcores nicht in ein x86-Design einbinden? Ich meine Windows soll ja ARM kompatibel werden und effizient sind die Dinger ja ohne Ende, dazu "günstig" zu produzieren. Warum soll AMD den immensen Aufwand betreiben "neue" E-Cores zu bauen, wenn es schon was besseres gibt?
Na dann wünsche ich dir jetzt schon viel Spaß bei der Lektüre des Tests dazu
Na hoffen wir mal, dass du damit das NDA nicht gebrochen hast :wayne:
 
Zuletzt bearbeitet:
Na hoffen wir mal, dass du damit das NDA nicht gebrochen hast :wayne:
Es gibt kein NDA. Laut den letzten Gerüchten kommen die neuen CPUs erst im Oktober. Wir haben noch nie Samples bereits Monate vor dem Launch erhalten, eher Wochen, wenn überhaupt. Das war mehr eine Anspielung darauf, dass Intel niemals nicht mit dem Refresh der neue Effizienz-Meister wird. Ich kann mich natürlich irren, aber der bisherige Verlauf bei den Intel-CPUs im Desktop zeigt auf, dass die Effizienz zwar pro Generation zulegt, Intel jedoch auf Kosten derer versucht, bei den Tests weit vorn zu stehen. Ein "Core i9-14900K" wird daher nach meiner Ansicht sehr schnell, womöglich sogar schneller als ein Ryzen 9 7950X3D, erkauft sich dies jedoch mit einem exorbitanten Verbrauch unter Last. Dazu kommt, dass hier kein neues Cove-Design zum Einsatz kommt, sondern Raptor-Coves. Was die leisten, und was nicht, wissen wir bereits. AMD braucht sich in Sachen Effizienz keine Sorgen zu machen. Die Leistungskrone jedoch wird Intel erhalten beziehungsweise behalten, denn ein i9-13900KS dominiert bereits jetzt in Anwendungen ggü. einem 7950X und ist lediglich in Spielen ~3,5 Prozent langsamer als ein 7950X3D.
 
Ich sprach hier von dem voraussichtlich maßgeblichsten Grund und das sind mit ziemlicher Wahrscheinlichkeit derzeit die dafür notwendigen Entwickungskosten.
"strategische Vorteile": Unterschiedliche Marktsegmente haben teilweise deutlich unterschiedliche Anforderungen. Wenn du hier nur mit einem einzigen Produkt aufwartest und das in alle Märkte zu pressen versuchst, wirst du immer in Schwierigkeiten kommen, weil deine Konkurrenten maßgeschneiderte Lösungen bieten. Diesen absatztechnischen Nachteil kannst du bspw. gegenrechnen gegen die eingesparten Entwicklungskosten für ein oder meherere, zusätzliche Designs, also erneut Kosten. Darüber hinaus, wenn du für ein spezielles Segment derart ungünstige Betriebseigenschaften mitbringst aufgrund deines OneSizeFitsAll-Ansatzes, wirst du gezwungen sein, dein Produkt über den Preis in den Markt zu pressen. Auch das ist suboptimal, da es dir auf die Marge schlägt, also wäre die Frasge wie günstig du entwickeln und fertigen kannst ... hier einen nennenswerten Vorteil für AMD anzunehmen erscheint jedoch nicht plausibel.
Ich bin nicht überzeugt von deiner Argumentation. Du behauptest, dass der voraussichtlich maßgeblichste Grund für AMDs Strategie die hohen Entwicklungskosten sind, aber du lieferst keine Belege dafür. Wie hoch sind diese Kosten im Vergleich zu den potenziellen Gewinnen, die durch eine stärkere Marktpräsenz erzielt werden könnten? Wie lange würde es dauern, um verschiedene Produkte für verschiedene Marktsegmente zu entwickeln? Du ignorierst auch die strategischen Vorteile, die sich aus einer differenzierten Produktpalette ergeben könnten. Du sagst, dass AMD in Schwierigkeiten kommen würde, weil die Konkurrenten maßgeschneiderte Lösungen bieten, aber du erwähnst nicht, wie AMD sich von diesen Lösungen abheben könnte. Könnte AMD nicht innovative Features oder Leistungsverbesserungen anbieten, die die Kunden ansprechen würden? Könnte AMD nicht von einem besseren Image oder einer höheren Kundenzufriedenheit profitieren, wenn es mehr auf die Bedürfnisse der verschiedenen Märkte eingehen würde? Du stellst es so dar, als ob AMD nur die Wahl hätte, sein Produkt über den Preis zu verkaufen oder gar nicht zu verkaufen, aber das ist eine falsche Dichotomie. Es gibt viele andere Faktoren, die den Erfolg eines Produkts beeinflussen, und ich glaube nicht, dass du sie alle berücksichtigt hast.
 
Da es ja für die CPU nur ein Gesammtenergiebudget gibt, sehe ich das zwiespältig. Klar wenn man leichte Routineaufgaben an die E-Core geben kann, kann das manchmal von Vorteil sein.

So - und was ist, wenn es nix leichtes gibt? Dann sind die Dinger wohl von nicht so grossem Nutzen.........zweiter Nachteil, seit Intel die E-Cores hat, stagniert die Anzahl an P-Cores bei denen ganz hart.
Also wir müssen uns zwischen der teilweise gegebenen besseren Effizienz (Komisch, denn die Intel CPUs schlucken trotzdem mehr Saft, als die "nur" P-Cores bei Ryzen, wozu taugt das Desigen dann eigentlich?) und der ewig leichen Kernanzahl entscheiden, miese Wahl, in meinen Augen........
 
Wenn ich die Intel-CPU auf den durchschnittlichen Verbrauch der AMD-CPU konfiguriere, dann sieht es nicht mehr so rosig für den 13900K aus:
Ich finde das @54Watt schon recht gut für 16 E-Cores im Schlepptau und schlechterer Fertigung. Ich sehe da keine 3-fache Effizienz des 7800X3D.
Gegen den 7950X3D @70 Watt sieht es dann etwas besser aus.
Wir sind uns zumindest einig, dass Intel den 13900K fernab des Sweet Spots konfiguriert hat, aber seit Coffee Lake muss Intel mit der Brechstange arbeiten, weil AMD einfach zu mächtig geworden ist.
Ja, darauf wollte ich hinsichtlich der Effizienz hinaus.
Die CPU lässt sich mit abgeschalteten E-Cores auf 88 Watt Im BIOS limitieren läuft nur minimal langsamer als Stock.
Du meinst also, der RPL-Refresh wird einige Prozent langsamer als die aktuellen CPUs (oder gleichschnell) und punktet dafür mit höherer Effizienz?
Ich denke man erzielt mit einem niedriger eingestellten TDP Limit eine wesentlich höhere Performance als Raptor Lake.
Siehe oben, es sind rund 25 Prozent.
Ich wollte auf den 7950X3D hinaus, der ist von der restlichen Hardware etwa vergleichbar.
Raptor Lake ist keine schlechte CPU-Generation, jedoch effizienztechnisch AMD unterlegen.
Unterlegen ja, ich sehe aber keine großen Effizienz-Unterschiede zu einer vergleichbaren AMD CPU, wie dem 7950X3D. Nichts was man mit einem guten Refresh nicht korrigieren könnte und das ohne 3DV-Cache.
 
Unterlegen ja, ich sehe aber keine großen Effizienz-Unterschiede zu einer vergleichbaren AMD CPU, wie dem 7950X3D. Nichts was man mit einem guten Refresh nicht korrigieren könnte und das ohne 3DV-Cache.
Ich lasse das einfach mal hier:

Laut diesem Index ist der 7950x3d 36% effizienter als ein 13900k.
Also wenn man den 13900k als 100% sieht ist der 7950x3d 136%.
 
Ich finde das @54Watt schon recht gut für 16 E-Cores im Schlepptau und schlechterer Fertigung. Ich sehe da keine 3-fache Effizienz des 7800X3D.
Gegen den 7950X3D @70 Watt sieht es dann etwas besser aus.
Auf dem Bild, also dem Benchmark, laufen nur die acht P-Cores. Hätte ich die 16 E-Cores aktiviert gelassen, wäre die Performance sehr viel geringer, weil die P-Cores viel niedriger takten müssten. Und ja, die dreifache Effizienz ist es da natürlich nicht, aber selbst auf diese geringe TDP konfiguriert, liefert die Intel-CPU immer noch weniger Fps pro Watt als ein stinknormaler 7800X3D. Der Vergleich zum 7950X3D wäre dann erst mit acht aktiven E-Cores fair (sogar ziemlich fair, weil dann beide Prozessoren acht "schnelle" und acht "langsame" Kerne ins Rennen schicken).
Ja, darauf wollte ich hinsichtlich der Effizienz hinaus.
Die CPU lässt sich mit abgeschalteten E-Cores auf 88 Watt Im BIOS limitieren läuft nur minimal langsamer als Stock.
Das hatten wir zum Launch getestet, allerdings mit aktiven E-Cores. Die Performance ist in Spielen dann knapp unterhalb eines i5-13600K. Nicht besonders hoch, aber natürlich ziemlich effizient im Vergleich zum i5 – was aufgrund der erhöhten Menge des L3-Cache jedoch kein Hexenwerk ist.
Ich denke man erzielt mit einem niedriger eingestellten TDP Limit eine wesentlich höhere Performance als Raptor Lake.
Aber wie soll das gehen? Selbst, wenn wir von richtig gut gebinnten Chips ausgehen, sitzt unter der Haube der gleiche Kern – Raptor Cove. Das ist keine neue Architektur, sondern nur Refresh.
Ich wollte auf den 7950X3D hinaus, der ist von der restlichen Hardware etwa vergleichbar.

Unterlegen ja, ich sehe aber keine großen Effizienz-Unterschiede zu einer vergleichbaren AMD CPU, wie dem 7950X3D. Nichts was man mit einem guten Refresh nicht korrigieren könnte und das ohne 3DV-Cache.
Das kannst du drehen und wenden, wie du willst, ein 13900K wird niemals so effizient in Spielen, wie ein 7950X3D, das packt auch kein 14900K:
1689594784947.png

Auch in Anwendungen ist Intel komplett hinterher, etliche AMD-CPUs sind effizienter:
1689594836415.png


Und zum Thema, wie sparsam die Zen-4-Kerne eigentlich sind (als Vorschau auf den baldigen 7800X3D-Artikel von mir):

1689594363225.png


Ich will mal einen Intel-Prozessor mit dieser Leistung sehen, wo nur die Kerne allein nur knapp bei über einem Watt liegen. SoC + MISC ist dann der ganze Kram drumherum, das Chiplet. Aber selbst 5,8 Watt sind hier als sehr gut zu bewerten, ich sehe viele Ryzen, auch hier im Forum, die da mit über 20 Watt auf dem SoC laufen, oder noch mehr.
 
Stock in Spielen ist das ein Fakt, da gibt es wenig dran zu rütteln.
Daran rüttele ich ja nicht. Bei einem Effizienz-Vergleich sollte man meiner Meinung nach aber verschiedene Einstellungen vergleichen um die Effizienz zu bewerten.
Optimieren kann ich beide und im Extremfall ist der 7800X3D vllt nur noch doppelt so effizient. Das ist aber trotzdem grottenschlecht.
Der 7800X3D ist auch nur ein 8 Kerner.
Aber wie soll das gehen? Selbst, wenn wir von richtig gut gebinnten Chips ausgehen, sitzt unter der Haube der gleiche Kern – Raptor Cove. Das ist keine neue Architektur, sondern nur Refresh.
Der gleiche Kern, aber mit einer gereifteren Fertigung, mit einer optimierten Spannungsversorgung.
Das kannst du drehen und wenden, wie du willst, ein 13900K wird niemals so effizient in Spielen, wie ein 7950X3D (...)
Wollte ich auch nicht sagen. Ich wollte nur ergänzen, dass der Effizienzunterschied zwischen den Architekturen eher gering ist und der 3-fache Verbrauch Resultat einer Stock-Einstellung nach dem Maximalprinzip ist.
, das packt auch kein 14900K:
Ich weiß nicht, habe ihn nicht getestet.Der 14900K könnte @ 70 Watt oder @88 Watt deutlich effizienter arbeiten als der alte 13900K und durchaus auf das Effizienzniveau eines 7950X3D kommen.
 
Zuletzt bearbeitet:
Daran rüttele ich ja nicht. Bei einem Effizienz-Vergleich sollte man meiner Meinung nach aber verschiedene Einstellungen vergleichen um die Effizienz zu bewerten.
Wir sprechen hier von Faktor 3 beim 7800X3D, bzw. von Faktor 2,5 beim 7950X3D, dem 13900K gegenüber. Da kannst du optimieren bis du schwarz wirst. Intel ist aktuell um Längen ineffizienter.
Der 7800X3D ist auch nur ein 8 Kerner.
Der 7800X3D ist gerade mal 18% effizienter in Spielen als der 7950X3D. Das ändert doch nichts an der Grundaussage.
 
Zurück