Special CPU-Duell 2024: AMD Ryzen 9000 ("Granite Ridge") gegen Intel Core Ultra 200 ("Arrow Lake")

Was für schlagende News Core Ultra vs Ryzen

Und die wenigsten interessierts realpolitisch.


Wie wärs mal wenn man sich auf das alte Format zurück besinnt und wirklich mal Prozessoren und Grafikkarten aus dem Einstiegssegment und der Mittelklasse testen würde anstatt dem nächst höheren Ziel in Arsch blässt.

PCGH ist als Zeitschrift seit 2019/20 uninteressant, ihr vergleicht nur noch Highend.

Wenn ihr meint das ist die PCGH dann wirds wohl so sein,
wieso gibts dann aber Youtube Channels mit zig tausend Abos wo einfach nur die Mitte der Konsumenten angesprochen werden wo von CPU vom Entry alias 10400F bis zum 14900K von der Arc 310 bis zur RTX 4090 alles durch den Benchmark Parcour durchgejagt wird. :D


Das ist nicht PCGH, das ist die PCGH vom Springer Verlag die die Leser für dumm verkaufen will :P
 
Der CPU-Tile von MTL ist Intel 4, unten rechts entsprechen beschriftet. Die Intel 20A für Arrow Lake sind ebenfalls für den CPU-Tile bestätigt, aber der Rest meinem Wissen nach noch offen. Es wird allgemein davon ausgegangen, dass der Graphics Tile bei TSMC bleibt, da man so weniger Transferaufwand von den dGPUs hat. Aber ob es N5, N4 oder schon N3 wird? Letzteres galt für Meteor Lake und Arrow Lake mal als sicher und es kommt nicht in MTL zum Einsatz, aber damals wurde Lunar Lake auch noch als Intel 18A gehandelt und jetzt ist N3 für dessen -MX-Ausführung im Gespräch. Zu SOC und IO habe ich noch gar nichts gehört. Wie so oft interessiert sich außer dem Mainboard-Fachredakteur niemand für den "Plattform"-Teil des Produkts.^^ Denkbar wäre sogar eine 1:1-Übernahme der entsprechenden MTL-Tiles. (Ehrlich gesagt hatte ich die auch bei Graphics erwartet, aber wenn man jetzt XMX nutzen will, muss da von vorne anfangen.)
wie flexibel ist das Ganze eigentlich: ist es möglich einfach nach Verfügbarkeit (bei Arrow Lake dann), dazuzustöpseln was man will? Also etwa die qlte GPU für Einsteigerlaptops, die bessere für hochpreisige? Kann man theoretisch, wenn man feststellt, dass die Lager noch voll mit der für MTL gedachten GPU sind, sein, dass man diese GPU dann später nochmal verwendet oder ist der Aufwand zu groß?
 
Was für schlagende News Core Ultra vs Ryzen

Und die wenigsten interessierts realpolitisch.


Wie wärs mal wenn man sich auf das alte Format zurück besinnt und wirklich mal Prozessoren und Grafikkarten aus dem Einstiegssegment und der Mittelklasse testen würde anstatt dem nächst höheren Ziel in Arsch blässt.

PCGH ist als Zeitschrift seit 2019/20 uninteressant, ihr vergleicht nur noch Highend.

Wenn ihr meint das ist die PCGH dann wirds wohl so sein,
wieso gibts dann aber Youtube Channels mit zig tausend Abos wo einfach nur die Mitte der Konsumenten angesprochen werden wo von CPU vom Entry alias 10400F bis zum 14900K von der Arc 310 bis zur RTX 4090 alles durch den Benchmark Parcour durchgejagt wird. :D


Das ist nicht PCGH, das ist die PCGH vom Springer Verlag die die Leser für dumm verkaufen will :P
Ich verstehe diese Kritik ehrlich gesagt nicht. Gibt es mittlerweile zu viele Artikel zu Gerüchten? Ich würde sagen ja.

Aber dass sich PCGH nur mit Highend beschäftigt und nur Highend testet, stimmt einfach nicht. Es werden auch immer wieder Einsteiger- und Mittelklassemodelle der Hardware (CPUs, GPUs und Mainboards) getestet. Und in den Ranglisten für CPUs und GPUs sind die auch immer dabei. Von daher sehe ich da einfach kein Problem.
 
Was für schlagende News Core Ultra vs Ryzen

Und die wenigsten interessierts realpolitisch.


Wie wärs mal wenn man sich auf das alte Format zurück besinnt und wirklich mal Prozessoren und Grafikkarten aus dem Einstiegssegment und der Mittelklasse testen würde anstatt dem nächst höheren Ziel in Arsch blässt.

PCGH ist als Zeitschrift seit 2019/20 uninteressant, ihr vergleicht nur noch Highend.

Wenn ihr meint das ist die PCGH dann wirds wohl so sein,
wieso gibts dann aber Youtube Channels mit zig tausend Abos wo einfach nur die Mitte der Konsumenten angesprochen werden wo von CPU vom Entry alias 10400F bis zum 14900K von der Arc 310 bis zur RTX 4090 alles durch den Benchmark Parcour durchgejagt wird. :D


Das ist nicht PCGH, das ist die PCGH vom Springer Verlag die die Leser für dumm verkaufen will :P
du liest wohl ein anderes PCGH als ich, klapp mal alle CPUs/GPUs aus bei den Test
 
Was für schlagende News Core Ultra vs Ryzen

Und die wenigsten interessierts realpolitisch.


Wie wärs mal wenn man sich auf das alte Format zurück besinnt und wirklich mal Prozessoren und Grafikkarten aus dem Einstiegssegment und der Mittelklasse testen würde anstatt dem nächst höheren Ziel in Arsch blässt.

PCGH ist als Zeitschrift seit 2019/20 uninteressant, ihr vergleicht nur noch Highend.

Wenn ihr meint das ist die PCGH dann wirds wohl so sein,
wieso gibts dann aber Youtube Channels mit zig tausend Abos wo einfach nur die Mitte der Konsumenten angesprochen werden wo von CPU vom Entry alias 10400F bis zum 14900K von der Arc 310 bis zur RTX 4090 alles durch den Benchmark Parcour durchgejagt wird. :D


Das ist nicht PCGH, das ist die PCGH vom Springer Verlag die die Leser für dumm verkaufen will :P
Nicht nur hier auf der Seite sondern auch auf ihrem YT Channel wird Low End Hardware vorgestellt.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Keine Ahnung welche PCGH Seite du normalerweise so liest aber sicher nicht die richtige.
 
schade dass AMD e-cores immernoch nicht hinbekommt. vielleicht mit AM6 aber AM5 hätte auch genug Lanes
ihh! ihhgittigit bäh pfui!!

Um Himmels Willen bloß dass nicht und AMD kann auch gerne diese iGPU weglassen.
Intel verbaut nur E Cores, damit ihre CPU keine 500W zieht ...bei halbe Leistung versteht sich :nicken:

Zur info! Das E bei intel E-Core, steht für lahme Ente :lol:

AES.png

7960XbeideMC.png
:huh: Ente für Multicore? Nee lass ma!​
 
Zuletzt bearbeitet:
Den Speicherdurchsatz des Threadrippers mit dem des 13900K zu vergleichen und das dann auf die Kerne zu schieben, ist aber auch big brain time.
 
Ich find's zum kotzen mit dem only 8 P Cores bei Intel und den E Cores die sie einem Hinterherwerfen. Ebenso finde ich es zum kotzen das AMD nicht einen 16 Kern 3D Monster mit nur einem CCX raushaut...

Wenn Arrowlake nicht signifikant schneller wird in Games, wird es wohl ein Zen5 3D bei mir, aber auf only 8 Kerne hab ich ehrlich gesagt auch keinen Bock. Solange kein Monitor mit einer deutlich höheren Refresh rate gekauft wird, reicht auch der optimierte 12700k noch aus, nur dieses Jahr könnte es was werden mit den 240-360Hz OLED Monitoren, dann wäre eine starke bzw stärkere CPU schon fast ein must have.
Also abwarten und schauen was kommt und wie alle performen.
 
Wenn die so Abfall sind, wieso machen sie AMD im Multithreading dann das Leben so schwer? ;)

Edit:
Anhang anzeigen 1447905
Wenn das "Abfall" sein soll, was sind denn dann AMDs Kerne?
Mal wieder nur unqualifizierter Nonsense eines roten Verehrers.
Wo bitteschön machen sie AMD das Leben schwer? AMD hat es nicht mal für nötig gehalten, mit Zen 4 die Kernanzahl zu erhöhen, obwohl Intel mit dem 13900K zur gleichen Zeit satte 50% mehr Kerne an den Start gebracht hat. Was automatisch die MT Energieeffizienz erhöht, ohne dass man irgendwas am Design oder der Fertigung ändern muss. Mal abgesehen davon, was soll ein cherry picked CB R23 Vergleich aussagen? Genau, rein gar nichts. Zumal CB seit jeher Intel deutlich besser liegt. Ausnahme war vielleicht R15.

Wenn man Intels Probleme verstehen will, und warum sie an so vielen Fronten im Moment das Nachsehen haben, woran auch die E-Kerne nicht viel ändern, muss man schon etwas genauer hinschauen. Z.B. AT hatte dazu Tests gemacht, die dass gut veranschaulichen:

https://images.anandtech.com/doci/17641/7950x power scaling cbr23_575px.png

https://images.anandtech.com/doci/17641/13900k power scaling cbr23_575px.png

230W PPT sind für einen Ryzen 7950X völlig überdimensioniert. Die Kerne stossen schon wesentlich früher an ihre thermischen Grenzen, so dass in dem Fall ab etwa 100W nur noch geringe Zuwächse zu verzeichnen sind. Mit mehr Kernen, wie beim 13900K, kann man höhere Power Targets logischerweise auch besser ausnutzen. Deshalb schaut der 13900K hier bei ~250W vielleicht gar nicht so schlecht aus. Schaut man aber mal auf kleinere Power Targets, dann wird der 13900K mitunter regelrecht massakriert. Trotz mehr Kernen und trotz zwei Drittel "E"-Kerne.

https://images.anandtech.com/graphs/graph17641/130507.png

Hier reichen dem 7950X also schon 65W, um fast die gleiche Performance zu bieten wie ein 13900K bei nahezu doppelter Leistungsaufnahme. Und das trotz des Mikrocode- und Kernvorteils auf Intels Seite. Das zeigt recht deutlich, wie weit AMD im Moment dank der effizienteren Architektur und der besseren Fertigung enteilt ist. Jetzt stell dir mal ein hypothetisches 8P+16C Design von AMD vor. Der Vorsprung von AMD wäre hier noch deutlich gravierender. Und selbst bei ~250W hätte Intel keine Chance mehr.

Intels E-Kerne machen AMD das Leben also keineswegs schwer. Eher so wird ein Schuh daraus, auch Intels E-Kerne sind nicht gut genug, um AMD dazu zu nötigen, endlich mehr Kerne im Desktop Markt zu bringen. Seit Zen 2 sieht AMD keine Notwendigkeit, mehr als 16 Kerne zu bringen. Vor Alder Lake stand Intel da völlig auf verlorenem Posten. Und seit Alder Lake können sie mit den E-Kernen maximal Schadensbegrenzung betreiben, mehr aber auch nicht.
 
@gruffi gleicher Threadcount und gleiche Leistung in MT, aber trotzdem ziehen User wie du über die E-Kerne hier.
Willst du mir erzählen, dass Intel mit 8 Kernen die gleiche Leistung erzielt wie AMD mit 16?
Das macht es noch trauriger für euch AMD-Heros :D

Fakt ist, dass die E-Kerne so stark sind, dass man damit den 7950X hinter sich lässt in Awendungen, also können sie so schlecht gar nicht sein ;)
Du kannst rumheulen und relativieren, wie du willst. Was du dir da zusammendrehst, damit dein heißgeliebtes AMD besser dasteht, interessiert nur dich und deine Anhängerschafft. Neutrale Benchmarks und Tests zeigen was anderes und eine andere Auslegung führt, oh wunder, zu einem anderen Ergebnis. Das war aber nicht Kern meiner Aussage, also bleib beim Thema, ansonsten -> ignore.

Intels E-Kerne machen AMD das Leben also keineswegs schwer. Eher so wird ein Schuh daraus, auch Intels E-Kerne sind nicht gut genug, um AMD dazu zu nötigen, endlich mehr Kerne im Desktop Markt zu bringen. Seit Zen 2 sieht AMD keine Notwendigkeit, mehr als 16 Kerne zu bringen. Vor Alder Lake stand Intel da völlig auf verlorenem Posten. Und seit Alder Lake können sie mit den E-Kernen maximal Schadensbegrenzung betreiben, mehr aber auch nicht.
Größter Schwachsinn, den ich jemals gelesen habe. AMD bietet nur 16 Kerne im Mainstream, weil man ansonsten sich selbst (Threadripper) kanibalisieren würde und kein Spiel von diesem Corecount auch nur ansatzweise profitiert. Wer viel MT Leistung braucht, für den ist Threadripper bzw. Epyc und die CPUs lässt AMD sich fürstlich bezahlen.
 
Zuletzt bearbeitet:
wie flexibel ist das Ganze eigentlich: ist es möglich einfach nach Verfügbarkeit (bei Arrow Lake dann), dazuzustöpseln was man will? Also etwa die qlte GPU für Einsteigerlaptops, die bessere für hochpreisige? Kann man theoretisch, wenn man feststellt, dass die Lager noch voll mit der für MTL gedachten GPU sind, sein, dass man diese GPU dann später nochmal verwendet oder ist der Aufwand zu groß?

Flexibilität dieser Art soll einer der Vorteile des Tile-Konzeptes werden, ja. Um sie tatsächlich zu nutzen, muss man aber natürlich auch Schnittstellen und physische Dimensionen der Chips konstant halten. In der Vergangenheit tendierte Intel eher zu einer Vielfalt unterschiedlicher Chips, die zwar alle auf dem gleichen Baukasten basieren, aber für verschiedene Märkte unterschiedlich gefertigt werden. Bei den Stückzahlen, die die umsetzen, muss man sich schon sehr verplanen, damit einzelne Bauteile eines Prozessors am Ende in so großer Menge auf Lager liegen bleiben, dass sich ein weiteres Produkt damit lohnt.
 
Flexibilität dieser Art soll einer der Vorteile des Tile-Konzeptes werden, ja. Um sie tatsächlich zu nutzen, muss man aber natürlich auch Schnittstellen und physische Dimensionen der Chips konstant halten. In der Vergangenheit tendierte Intel eher zu einer Vielfalt unterschiedlicher Chips, die zwar alle auf dem gleichen Baukasten basieren, aber für verschiedene Märkte unterschiedlich gefertigt werden. Bei den Stückzahlen, die die umsetzen, muss man sich schon sehr verplanen, damit einzelne Bauteile eines Prozessors am Ende in so großer Menge auf Lager liegen bleiben, dass sich ein weiteres Produkt damit lohnt.
Danke ja, deshalb ja meine Frage, ob man einen Lückenfüller machen kann. Stimmt aber, damit sich das rechnet (man muss den dann ja auch in ausreichender Stückzahl anbieten, auch wenn man mit wenig Verkauf rechnet).
Da bei Lunar Lake & Beyond statt 36µm nur mehr 25µm Pitch steht, nehme ich an, dass da schon einiges nicht mehr kompatibel wäre, außer man designed den Grafikchip gleich für beide Szenarien
 
Intel hat es nie betont, aber normalerweise sind 3D-Stacking-Techniken flexibel genug, um verschiedene Pitches zu unterstützen. Kostet im Übergangsbereich natürlich Platz, aber mit einem angepassten Base-Die müsste das eigentlich technisch gehen und wenn Abmessungen und Pinbelegung nicht identisch sind, muss man den sowieso anpassen. Aber die Frage ist halt, unter welchen Bedingungen sich das überhaupt lohnt? Und selbst dann würde ich nicht darauf wetten, dass Intel es auch macht. Bei deren Produktpalette komme zumindest ich mit meiner Logik manchmal nicht weit.
 
Wenn die so Abfall sind, wieso machen sie AMD im Multithreading dann das Leben so schwer? ;)

Wenn das "Abfall" sein soll, was sind denn dann AMDs Kerne?
Mal wieder nur unqualifizierter Nonsense eines roten Verehrers.
An sich richtig. Jetzt um die Gleichung zu komplettieren stellst du noch den Balken mit der Leistungsaufnahme dazu und schaust wie das kombinierte Ergebnis aussieht. 2% mehr Leistung bei 50% mehr Verbrauch oder so ?

Ist das Ergebnis dann immer noch gleichermaßen gut zu bewerten ? ;)
 
Ja, weil der 7950X hier auch 230W+ aus der Dose zieht.
wo ist dein hier?

In dem tests auf PCGH des 7950x waren es 214w im schnitt und beim test des 14900k waren es für den 7950x im schnitt 212w was beides doch etwas unter 230w+ ist.

Und deutlich weniger als die 292w des 14900k ist der damit "Fette" 4% im schnitt in Anwendungen schneller ist.

Also ohne entsprechende hinweise wo du deine

"auch 230W+ aus der Dose zieht. Die nehmen sich in heavy MT workloads beide nichts,"

her hast ist das nur heiße Luft.
 
In dem tests auf PCGH des 7950x waren es 214w im schnitt und beim test des 14900k waren es für den 7950x im schnitt 212w was beides doch etwas unter 230w+ ist.
Gut, dann waren es halt 212W. Die 18W machen den Kohl natürlich fett ;)
Je nach Benchmark sinds auch gerne mal mehr als 230W:

Vor allem dann, wenn PBO aktiviert ist.

Und deutlich weniger als die 292w des 14900k ist der damit "Fette" 4% im schnitt in Anwendungen schneller ist.
Die Sprache war aber nicht vom 14900K, sondern vom 13900K.
Es ging auch nicht um die Anwendungsleistung per se, sondern um die E-Cores die angeblich so schrott seien sollen, aber hauptsache du mischt dich ein und gibst deinen Senf dazu, ohne zu wissen, worum es geht.
Anders kennt mans von der AMD Brigade hier ja eh nicht ;)
 
Zuletzt bearbeitet:
Zurück