Erstes OC-Ergebnis vom Core i9-10900K: Wie viel geht noch bei Comet Lake?

nochmal... es sind punkte in cinebench.. das heisst nicht das die cpu 28% mehr leistet...

dann würd ich deine GPU mal aufrüsten damit da davon überhaupt was merkst... man wann die Kinder das endlich kapieren - alleine das "Kommt mir nihct ins aus " entlarvt dich als evolutionsbremse - dazu gehören nämlich immer zwei ;-)
ohne amd wäre dein 7700 noch highend auf Jahre hinweg
Kurz nach Mittag schon besoffen?
Weder habe ich eine solche Aussage je getätigt-Kommt mir nihct ins aus- was immer das heißen soll, noch habe ich je einen i7 7700 besessen.

Was das Ganze dann noch mit meiner Grafikkarte (die ich ja wechseln muß) zu tun haben soll, mußt Du mir auch noch erklären.
 
Zuletzt bearbeitet:
5,4 GHz auf allen Kernen, bei der Spannung?

Schon beeindruckend, was Intel da abliefert. Da Intel pro MHz, in Spielen, schon mit dem i9 9900K eine bessere Leistung hat, haben sie ihren Gamingking noch weiter ausgebaut. Zumindest bis Zen3, da wird es in dem Bereich wieder spannend.

Ist das Übertakten ist bei den eh schon beeindruckenden Taktraten überhaupt noch sinnvoll, ob gibt es hier nur noch 2% Mehrleistung bei 20% mehr Verbrauch und Wärmeentwicklung?

Der Stromverbrauch steigt exponentiell. Er erhöht sich quadratisch mit der Spannung (die man für den höheren Takt erhöhen muß) und Linear mit dem Takt. Außerdem sorgt eine höhere Spannung dafür, dass die CPU durch Elektromigration deutlich schneller kaputt geht.

Deshalb sollte man als Faustrehgel auf die letzten 200MHz verzichten, auch wenn sie möglich sind.

Es ging hier um die angeblichen 2% Mehrleistung die man sich kurz mal aus den Fingern gesogen hat. Bei dem Test sind es eben ~28% bestätigte Mehrleistung zu stock und nicht blos die 2% aus dem Märchenwald.

Deine 28% sind so aber wohl nur möglich, wenn man die TDP begrenzt. Wenn man von 4,8GHz Turbo auf allen Kernen ausgeht, dann sind 5,4GHz lediglich eine Takterhöhung von 12,5%.

Frage: Würdet ihr ein CineBench-Ergebnis des 10900K von PCGH akzeptieren, welches in CineBench R15 unter Windows 8 festgehalten wurde? Ich denke eher nicht ;)

Solange ihr nicht mit dem Userbenchmark ankommt, dürfte alles in Ordnung sein. Wenn ihr hingegen den Userbenchmark, als alleiniges Kriterium nehmt, dann brennt hier die Hütte.

EDIT:
dann würd ich deine GPU mal aufrüsten damit da davon überhaupt was merkst... man wann die Kinder das endlich kapieren - alleine das "Kommt mir nihct ins aus " entlarvt dich als evolutionsbremse - dazu gehören nämlich immer zwei ;-)
ohne amd wäre dein 7700 noch highend auf Jahre hinweg

Ich fürchte du hast "Lichtspieler2000" mit "DaHell63" verwechselt...

@DaHell63: darum packt man seine Signatur in die CPU oder so ähnlich :ugly:
 
Zuletzt bearbeitet:
Eben 5.4GHz auf CPU und Uncore ist doch ein fabelhaftes Ergebnis. I.d.r liegt ja der Uncore 200-300Mhz unterhalb des Core Taktes, hätte man dies beibehalten wäre sicher noch etwas mehr drin gewesen.:)
Ist für ein frühes Sample doch eigentlich vom Ergebnis ganz okay. Wenn man mal die ersten 9900K sieht, die teils keine 5GHz Allcore geschafft haben...

Den Einschätzungen würde ich mich anschließen. Kennt irgendwer ein Coffee-Lakes-ES, dass 5,4 GHz Uncore bei 1,35 V packt? 1,4 V für 5.0 GHz Uncore bei einem Serienmodell gelten schon nicht gerade als katastrophales Ergeniss. Leider kann man aufgrund des mangelhaften Belastungstests die Stabilität des Systemes nicht wirklich einschätzen, weswegen das Ergebnis gegebenenfalls wertlos ist (Worst-Case-Betrachtung). Aber für sich genommen finde ich es ziemlich gut, übertrifft meine Erwartungen sogar noch. Wenn die Skalierung mit der Spannung, der Unterschied zwischen ES und Retail sowie der typische Abstand zwischen Uncore und Allcore gleich geblieben ist, käme man bei noch diskustablen 1,45 V in die Nähe der 6,0 (Best-Case-Betrachtung).
Die Wahrheit wird zwar sicherlich nicht in der Nähe des Optimisten-Szenarios liegen, aber schlecht sind die hier veröffentlichten Werte wirklich nicht.


Ein sehr wichtiger Punkt fehlt hier, wurden 5,4 Ghz AllCore mit oder ohne AVX Offset erreicht? Mein 9900K schafft problemlos 5,1 Ghz AllCore, aber mit AVX nur 4,8 Ghz. (mit LLC Spitzen bis 1,35 Vcore)
Und wie ist die Spannung angesetzt - Vcore 1,3 V und LLC bis 1,35? oder VCore 1,35 und die LLC treibt dann Spannungspitzen über ungesunde 1,4 VCore?
Und ein weiterer Punkt, wurden die Werte auch stabil erreicht? z.B. Primestable? Cinebench sehe ich da eher kritisch.

Es wurde scheinbar nur mit CB15 getestet, also ohne AVX und ohne Dauer-Stabilitätstest. Das entwertet das ganze Ergebnis ziemlich, genauso wie die Ausreizung des Uncore wenn man eigentlich das Limit der Kerne ermitteln möchte. Insgesamt ist man mit dem Ergebniss deswegen kaum schlauer als ohne das, aber es unterbietet zumindest keine Erfahrungen.


Naja AMD und Intel rein am Takt zu vergleichen ist so auch nicht richtig, da zwei völlig unterschiedliche Architekturen. AMD packt seine Chips viel dichter als Intel, dadurch spart man teuere Fläche auf dem Wafer, im Gegenzug kann man den Takt aber nicht so hoch ansetzen. Würde AMD sein Design breiter auslegen würden die Chips auch höher takten.
Intels protzen mit Takt kommt eher einer Verzweiflungstat gleich weil man sonst nix zu bieten hat bevor die neue Gen in 10nm erscheint :ka:

AMD und Intel erzielen in Spielen, und die interessieren hier die meisten, mittlerweile recht ähnliche Leistungen pro Takt, auch wenn sie unterschiedliche Herangehensweisen haben. Daher ist eine derartige Betrachtung tatsächlich mal wieder interessant und zulässig, wenn man über die Leistungsfähigkeit der Prozessoren redet. Möchte man über die Gewinnspanne von AMD reden, wären Waferfläche und Yield-Raten dagegen die interessanteren Punkte – ist hier aber gerade nicht das Thema.
 
Immerhin sind es ~28% mehr Punkte in dem Test von stock zu oc. Nicht 2%.

CB20 (non AVX) @5.1GHz allcore 347W.
MSI discusses Intel Comet Lake-S processors binning and overclockability - VideoCardz.com
Und wie sieht es da außerhalb von synthetischen Benchmark, quasi im Real Life aus?

Aus dem von dir verlinkten Artikel:
On the other hand Core i9-10900(K/F) quality appears to be better for overclocking. Up to 27% of the samples tested by MSI were offering more overclocking headroom.
Für 28% muss aber ziemliches binning betrieben worden sein. Den meisten Nutzer dürften von also von 28% träumen dürfen....


greetz
hrIntelNvidia
 
Die Frage ist was versteht man unter Real Life Anwendung?
Für den einen ist Real Life Anwendung Office, für andere Spiele, Foto / Video Bearbeitung und für wieder andere Wissenschaftliche Berechnungen.

Ich z.B. gehöre zu den wenigen verrückten die Boinc z.B. täglich für mehrere Stunden laufen lassen, das heißt 100% Last zum Teil auch mit AVX. Da wären mir über 300W definitiv zuviel, für den Alltag.
 
@DaHell63: darum packt man seine Signatur in die CPU oder so ähnlich :ugly:
In meiner Sig ist doch ne CPU und ich bin mir sicher da steht kein i7 7700 :D.

Nur wenn man selber noch eine kleine Intel CPU fährt, laut eines früheren Post von Ihm, sollte man andere nicht als Kinder und Evolutionsbremse betiteln.
 
Powerlimit schadet nicht:D
Obwohl, eigentlich schon; aber ohne Powerlimit nehmen sich die Hardwarehersteller alle nicht viel. Der 3950x als Gegenbeispiel könnte sicher auch die 300W knacken, wenn man ihn lässt und er nicht direkt überhitzt. Limits weg und ab die Post.
Ich bekomme die 24 Kerne des 3960x problemlos auf 280W, und da ist er ziemlich nahe am Basistakt. Wenn ich will, wären da locker 400-500W drin; bei einem 16c mit 2/3 der Kerne sind da auch locker 300W drin.
In der Praxis betreibt aber (fast) niemand seinen Prozessor mit offenen Limits, der 3950x macht ja normalerweise auch bei ~140W zu, lass den 10900k doch auch bei meinetwegen 180W zumachen oder bleib bei den vorgegebenen Powerlimits. In Spielen verlierst du genau nichts, weil die Cpu deutlich drunter bleibt, in Anwendungen, die Multicore entsprechend nutzen, hast du bei beiden Herstellern das Problem. Als ob Ineffizienz ein einseitiges Problem von Intel wäre und Amd Cpus mit Luft und Liebe laufen.
Derzeit hat Intel in Anwendungen bei gleichem Takt aber meist den Nachteil, wenn man sich nicht durch hohe Singlecoretaktraten retten kann (was hin und wieder dennoch vorkommt), ist Amd wirklich meist die bessere Wahl. In Spielen sieht die Sache aber anders aus, Intels weit höherer Spielraum beim Core-, Cache- und RAMtakt sorgt bei Optimierung sogar für noch größere Unterschiede als @stock.
 
Nichts neues, ist doch schon länger so.

So langsam werden die CPUs eben am Ende des machbaren verkauft, da ist nicht mehr viel Luft nach oben.

Zeiten wo man eine kleine CPU locker auf das Niveau einer großen bekommen hat, sind schon lange vorbei.

Ist auch ok, dann hat OC zwar keinen Sinn mehr, aber msn bekommt dafür auch gleich den maximslen Nutzen ohne Rumfummeln
 
Powerlimit schadet nicht:D
Obwohl, eigentlich schon; aber ohne Powerlimit nehmen sich die Hardwarehersteller alle nicht viel. Der 3950x als Gegenbeispiel könnte sicher auch die 300W knacken, wenn man ihn lässt und er nicht direkt überhitzt. Limits weg und ab die Post.
Ich bekomme die 24 Kerne des 3960x problemlos auf 280W, und da ist er ziemlich nahe am Basistakt. Wenn ich will, wären da locker 400-500W drin; bei einem 16c mit 2/3 der Kerne sind da auch locker 300W drin.
In der Praxis betreibt aber (fast) niemand seinen Prozessor mit offenen Limits, der 3950x macht ja normalerweise auch bei ~140W zu, lass den 10900k doch auch bei meinetwegen 180W zumachen oder bleib bei den vorgegebenen Powerlimits. In Spielen verlierst du genau nichts, weil die Cpu deutlich drunter bleibt, in Anwendungen, die Multicore entsprechend nutzen, hast du bei beiden Herstellern das Problem. Als ob Ineffizienz ein einseitiges Problem von Intel wäre und Amd Cpus mit Luft und Liebe laufen.
Derzeit hat Intel in Anwendungen bei gleichem Takt aber meist den Nachteil, wenn man sich nicht durch hohe Singlecoretaktraten retten kann (was hin und wieder dennoch vorkommt), ist Amd wirklich meist die bessere Wahl. In Spielen sieht die Sache aber anders aus, Intels weit höherer Spielraum beim Core-, Cache- und RAMtakt sorgt bei Optimierung sogar für noch größere Unterschiede als @stock.

Man bekommt die CPUs quasi alle ans Saufen, das ist klar. Aber ich glaube nicht, dass das hier irgendwo Thema des Threads war. Kernaspekt ist der neue 10900K und das dieser @Stock schon ziemlich an der Belastungsgrenze performt. Dies ist bei AMD aktuell genau so, die CPUs laufen bereits ab Werk weit außerhalb ihrer SweetSpots wo sie die höchste Effizienz haben. Nimm deinem 3960X die 280W PL und setze es mal auf 180W fest, du wirst sehen, dass die Leistung kaum wegbrechen wird, @Stock werden die Kerne alle immer noch laufen, nur eben mit 40% weniger Verbrauch. Gab hier doch mal den kurzen Test, 40% weniger Verbrauch und keine 10% Verlust, da hatte man dann ziemlich den SweetSpot der Architektur gesehen.

@Pu: Deine These mit dem Mehrverbrauch in allen Ehren, aber ich glaube so einfach ist das nicht. Vor allem da Spannung und und Leistung in der Elektronik nicht so ganz über einen Kamm zu scheren sind. Wenn die Leistung quadratisch zur Spannung steigen sollte, wüsste ich nicht einmal wie man das rechnerisch darstellen sollte. Ausgangsspannung 1 V, Erhöhung um 0,1V, dann würde die Leistung quadratisch hierzu anwachsen? Was dann 0,01 wäre, nur die Einheit würde mir fehlen, Watt? Ampere?

Lass lieber die Aussage so stehen, dass der Verbrauch exponentiell ansteigt (mathematisch auch nicht ganz korrekt, da hier eine unbegrenzte Wachstumskurve definiert wird, die vor allem in ihrer ersten Ableitung wieder linear wäre, also ein lineares Wachstum der Steigung (Bspw. 1V = 100%, 2V = 200%, 3V = 400%, 4V = 800%, 5V = 1600%), ein Beschränktes logistisches Wachstum würde dem ganzen noch am nächsten kommen, aber ich denke mathematisch werden wir diesem Problem nicht wirklich Herr.
:D:ugly::D:ugly::D:ugly::D:ugly::D:ugly::D
 
Ich weiß, ich kenne den 180W-Test. Das war aber auch nicht das Ziel, sondern gegen das ewige Intelgehate wegen dem Stromverbrauch meinen Senf dazuzugeben. Zum oberen Ende wird es eben ineffizient.
Aktuelle Cpus laufen ja nahe am Limit; Fakt ist aber, dass im richtigen Workload (Spiele) die Intelcpu mit moderatem Verbrauch Leistung erreicht, die eine Amdcpu gar nicht erreicht. Dass Intel jetzt den selben Weg geht, den Amd mit Ryzen gegangen ist, und den Boost nahe ans Limit bringt, ist doch kein Problem.
 
Die Frage ist was versteht man unter Real Life Anwendung?
Für den einen ist Real Life Anwendung Office, für andere Spiele, Foto / Video Bearbeitung und für wieder andere Wissenschaftliche Berechnungen.

Ich z.B. gehöre zu den wenigen verrückten die Boinc z.B. täglich für mehrere Stunden laufen lassen, das heißt 100% Last zum Teil auch mit AVX. Da wären mir über 300W definitiv zuviel, für den Alltag.

BOINC sollte eine sehr konstante Last erzeugen. Das heißt wenn du das long term Power Limit im UEFI auf zum Beisiel 150 W stellst, dann verbraucht die CPU in diesem Szenario 150 W. Trotzdem hast du in Spielen für kurze Boost-Phasen auch deutlich mehr Leistung zur Verfügung.


Man bekommt die CPUs quasi alle ans Saufen, das ist klar. Aber ich glaube nicht, dass das hier irgendwo Thema des Threads war. Kernaspekt ist der neue 10900K und das dieser @Stock schon ziemlich an der Belastungsgrenze performt. Dies ist bei AMD aktuell genau so, die CPUs laufen bereits ab Werk weit außerhalb ihrer SweetSpots wo sie die höchste Effizienz haben. Nimm deinem 3960X die 280W PL und setze es mal auf 180W fest, du wirst sehen, dass die Leistung kaum wegbrechen wird, @Stock werden die Kerne alle immer noch laufen, nur eben mit 40% weniger Verbrauch. Gab hier doch mal den kurzen Test, 40% weniger Verbrauch und keine 10% Verlust, da hatte man dann ziemlich den SweetSpot der Architektur gesehen.

@Pu: Deine These mit dem Mehrverbrauch in allen Ehren, aber ich glaube so einfach ist das nicht. Vor allem da Spannung und und Leistung in der Elektronik nicht so ganz über einen Kamm zu scheren sind. Wenn die Leistung quadratisch zur Spannung steigen sollte, wüsste ich nicht einmal wie man das rechnerisch darstellen sollte. Ausgangsspannung 1 V, Erhöhung um 0,1V, dann würde die Leistung quadratisch hierzu anwachsen? Was dann 0,01 wäre, nur die Einheit würde mir fehlen, Watt? Ampere?

Quadratwurzel aus (1,1² V² - 1,0² V²) und das ganze Multipliziert mit der Stromstärke ist gleich dem (Faustformel-)Energie-Mehrumsatz durch die Erhöhung der Spannung; als Einheit ergibt sich ganz normal V * A = W.
In der Praxis ändert sich aber auch die Stromstärke deutlich durch die Spannungsänderung, weswegen man sich ein Ausrechnen des Absolutwertes gleich sparen und nur den Faktor betrachten kann: Spannung * Faktor 1,1 (z.B. 1,0 V * 1,1 = 1,1 V) => Leistung * 1,1² = Leistung * 1,21. Entspricht +21 Prozent.
 
Ich bin heiß auf den 10 Kerner! Aber jenseits der 600 Eier und wenn er wegglühen sollte dann bringts nichts.
 
Mein 3900X@Stock ist bei CB 15 trotzdem noch schneller als der 10900K@OC. Wenn Mein Gigabyte-Board mehr als die 140W zulassen würde, dann könnte ich mich auch mal ans OC wagen.
 

Anhänge

  • HWinfo.jpg
    HWinfo.jpg
    163,8 KB · Aufrufe: 30
BOINC sollte eine sehr konstante Last erzeugen. Das heißt wenn du das long term Power Limit im UEFI auf zum Beisiel 150 W stellst, dann verbraucht die CPU in diesem Szenario 150 W. Trotzdem hast du in Spielen für kurze Boost-Phasen auch deutlich mehr Leistung zur Verfügung.




Quadratwurzel aus (1,1² V² - 1,0² V²) und das ganze Multipliziert mit der Stromstärke ist gleich dem (Faustformel-)Energie-Mehrumsatz durch die Erhöhung der Spannung; als Einheit ergibt sich ganz normal V * A = W.
In der Praxis ändert sich aber auch die Stromstärke deutlich durch die Spannungsänderung, weswegen man sich ein Ausrechnen des Absolutwertes gleich sparen und nur den Faktor betrachten kann: Spannung * Faktor 1,1 (z.B. 1,0 V * 1,1 = 1,1 V) => Leistung * 1,1² = Leistung * 1,21. Entspricht +21 Prozent.

Ich denke die ganze Zeit, was rechnen die da. Ihr meint die Leistungsaufnahme, nicht die Leistung.

Bei meinen praktischen Versuchen hat sich im großen und ganzen als Faustformel behauptet. 10% mehr Spannung (also Ausgangswert x 1,1)entspricht 1 (Ausgangswert) x 1,1 x 1,1 x 1,1, also ging das bei meinen Versuchen oft kubisch ein.
Natürlich plus / minus, halt ne Faustformel.


Mein 3900X@Stock ist bei CB 15 trotzdem noch schneller als der 10900K@OC. Wenn Mein Gigabyte-Board mehr als die 140W zulassen würde, dann könnte ich mich auch mal ans OC wagen.

Absolut betrachtet, hat der 3900X eben noch zwei Kerne mehr und alle Zwölf sind auch starke Kerne. Beide Architekturen haben ihre Stärken und Schwächen.

Bin gespannt, wenn man mit einer starken Wakü, oder Chiller den Hitzkopf auf 5,5GHz bekommen kann, oder gar noch mehr, dann wäre das schon fast ein Grund... Zen 3 soll bitte nicht mehr zu lange dauern und bitte direkt zum Start einen 8 Kerner, der die Kerne alle in einem CCX hat, so wie der 3300X die 4 Kerne. Vielleicht könnte AMD so mal in den Games Intel überholen, wenn man sich ansieht, wie gut der 3300X sich schlägt, im Vergleich zum 7700K.
 
Zuletzt bearbeitet:
Absolut betrachtet, hat der 3900X eben noch zwei Kerne mehr und alle Zwölf sind auch starke Kerne. Beide Architekturen haben ihre Stärken und Schwächen.
Ja wenn Cinebench der Performance Indicator wär, dann würde ich den i9 10900K @5.4GHz auch mit meinem alten i9 7920X versenken. Mit dem R9 3900X sowieso. Aber irgendwie hat das schon beim i9 9900K mit dem versenken nicht ganz so geklappt und ich habe den leisen Verdacht, daß das mit dem i9 10900K erst recht nicht hinhaut :ugly:. Ich meine jetzt schon Games.
 
Zuletzt bearbeitet:
Ja wenn Cinebench der Performance Indicator wär, dann würde ich den i9 10900K @5.4GHz auch mit meinem alten i9 7920X versenken.

Der i9 7920X war deine alte und der i7 3930K ist deine neue CPU?

Da hat man dich aber ganz schön beschissen :ugly:

Wobei, willst du deine CPU und Board gegen meines tauschen? Du wärst die moderne Version von Hans im Glück und nachdem ist ja immerhin eine Burgerkette benannt.
 
Es reicht doch wenn ein PC in der SIG steht und mit dem i7 3930K bin ich seit Anfang 2012 sehr zufrieden ;). In Verbindung mit einer GTX 1080 läuft in 1080p noch alles top.
Ein R9 3900X/RTX 2070 super muß die Arbeit in 2560x1440p erledigen und der I9 7920X/GTX 1080Ti darf sich in 3440x1440p versuchen.
 
Ja wenn Cinebench der Performance Indicator wär, dann würde ich den i9 10900K @5.4GHz auch mit meinem alten i9 7920X versenken. Mit dem R9 3900X sowieso. Aber irgendwie hat das schon beim i9 9900K mit dem versenken nicht ganz so geklappt und ich habe den leisen Verdacht, daß das mit dem i9 10900K erst recht nicht hinhaut :ugly:. Ich meine jetzt schon Games.

Genau so ist es halt.

Wenn ein theoretischer R3 4300X, mit theoretischen 8 Kernen in einem CCX, im Vergleich zu einem 4+4 Design, auch so wie schneller wäre, wie der 3300X gegenüber einem 2 + 2 Design (3100X), dazu die gesteigerte IPC Leistung und etwas mehr Takt. Dann wäre diese CPU für Spiele der Reißer und das bei vermutlich sehr niedrigem Preis.


Drei PC´s ;) Ich werd verrückt...
 
Ich denke die ganze Zeit, was rechnen die da. Ihr meint die Leistungsaufnahme, nicht die Leistung.

Leistungsaufnahme, Verlustleistung – da gibt es keinen erwähenswerten Unterschied. Die praktische Rechenleistung können wir natürlich nicht vorhersagen. :-)

Bin gespannt, wenn man mit einer starken Wakü, oder Chiller den Hitzkopf auf 5,5GHz bekommen kann, oder gar noch mehr, dann wäre das schon fast ein Grund... Zen 3 soll bitte nicht mehr zu lange dauern und bitte direkt zum Start einen 8 Kerner, der die Kerne alle in einem CCX hat, so wie der 3300X die 4 Kerne. Vielleicht könnte AMD so mal in den Games Intel überholen, wenn man sich ansieht, wie gut der 3300X sich schlägt, im Vergleich zum 7700K.

Die Ewartungen an Zen3 sind ein Achtkern CCX je CCD. Ein sauberer Achtender ist also in Nachfolge des 3800X zu erwarten, denn zwei CCDs kämen AMD in der Regel teurer, wenn die Yield-Raten weiterhin hoch liegen.


Genau so ist es halt.

Wenn ein theoretischer R3 4300X, mit theoretischen 8 Kernen in einem CCX, im Vergleich zu einem 4+4 Design, auch so wie schneller wäre, wie der 3300X gegenüber einem 2 + 2 Design (3100X), dazu die gesteigerte IPC Leistung und etwas mehr Takt. Dann wäre diese CPU für Spiele der Reißer und das bei vermutlich sehr niedrigem Preis.


Drei PC´s ;) Ich werd verrückt...

Es darf bezweifelt werden, dass Achtkerner nächstes Jahr als Ryzen 3 verramscht werden. Bestenfalls wäre eine Deklassierung auf Ryzen 5 denkbar, wenn 12- und 16-Kerner auf Ryzen 7 und Ryzen 9 aufgeteilt werden. Aber da von Intel kein zusätzlicher Druck erwartet wird, tippe ich für Ryzen 4000 auf die gleichen Kerne je Preis-/Produktklasse wie bei Ryzen 3000. Nur die Leistung pro Kern steigt dank der schnelleren internen Kommunikation hoffentlich ebenso, wie die die Single-Thread-Performance dank des größeren homogenen Caches.
 
Zurück