Intel Core i9-11900K: CPU-Z-Score geleakt, im Singlecore schneller als Ryzen 9 5950X

Was mir immer negativ auffällt ist, dass die meisten Reviews immer mit "offiziellen" Ramtaktraten testen die allerdings kaum ein Mensch nutzt. Schon seit X Generationen macht jede Intel Plattform mindestens 4000MHz Ramtakt mit. Aktuell sind mit Comet Lake selbst mit 2x16GB Dual Rank Kits 4400MHz drin und Speicher und Cachelatenzen haben ne nicht zu unterschätzende Auswirkung auf die Gaming Performance. Und genau da hat Intel nach wie vor die Nase vorn.

Halbwegs optimiert hält so selbst ein 9900K noch locker mit einer ebenfalls optimierten Zen 3 Plattform mit, übertrifft ihn in den meisten Fällen sogar minimal.

Sollte man bei Rocketlake ähnlich starke IMC haben und die IPC im zweistelligen Bereich steigern dürfte das Rennen schon wieder zu Gunsten von Intel ausfallen. Das bezieht sich ausschließlich auf die Spiele Leistung. Hinsichtlich Last Effizienz sowie in Multicore Anwendungen wird Intel natürlich kein Land sehen, außer sie sind stark Intel optimiert. Und der Glaubenskrieg wegen 5% mehr Leistung hin oder her sei auch mal dahingestellt.

Für mich persönlich reicht bis Zen 4 auch noch locker ein ordentlicher Octacore. Ob ich Rocket Lake in Betracht ziehe hängt eher davon ab ob man genug Lanes bietet, um mehr als zwei M2 SSDs vernünftig anbinden zu können, ohne der GPU Lanes zu klauen. Und natürlich wie es mit dem Preis aussieht. Über 400€ kann ein Rocket Lake Octa von mir aus im Regal verstauben. Ähnlich sieht es aus, wenn man erneut über 350€ für ein ordentliches Z590 Board ausgeben soll.
 
Moin,

ich finde das immer total interessant... Wenn ich jetzt meine neun Jahre alte CPU nehme, einen i7-3930k den ich auf 4.2 GHz im allCoreTurbo angezogen habe dann habe ich in etwa die hälfte der Leistung der modernen CPU hier. Egal ob Intel oder AMD.

Im Alltag bemerke ich das aber nicht wirklich. Ich daddel Anno1800, Cyberpunk und Satisfactory. Alles in WQHD und im Bereich um die 75 fps. Natürlich mit angepassten Einstellungen, was aber mehr an der GPU liegen dürfte.

Gibt es hier jemanden im Forum der mir erklären kann warum der "gefühlte" Unterschied so gering ist ? Würde mich wirklich interessieren. Bei meinem Siliziumknecht ist noch Luft. 4.5 GHz sind stable unter Luft möglich, vielleicht sogar 4.7 GHz. Müsste ich mal testen.

Gruß und danke !

CPU-Z.JPG
 
Ist es nicht auch so, dass die Single core Leistung immer mehr in den Hintergrund rückt?
Mag bei 100% Gameren so sein, sonst muss mna halt seine Anwendungen kennen und/oder Spaß daran haben, seine eigenen Progrmame mit mehr oder weniger Aufwand zu optimieren. Es gibt genügend Anwendungsszenarien, die sich auch in 30 Jahren nicht parallelisieren lassen.

Das dumm Argument mit 12 Kernen und 16 Kernen wer braucht sowas, ich behauptet nicht mal hier kann einer sagen
diese CPU wird gebraucht.
Klar, warten kann man immer. Egal, ob einem im Heimbereich dann die Freizeit nichts wert ist oder im Business der Kunde einfach die unnütz zu wartende Rechenzeit zahlen muss (oder zur Konkurenz wechselt).

Mir ist meine Freizeit auch etwas Wert, obwohl es mit keiner zahlt. Indirekt ist es sogar für die Allgemeinheit billiger, weil ich mich weniger über unnütze Warterei aufrege, damit potentiell mein Blutdruck sinkt und ich weniger zum Arzt muss oder Medikamente benötigt.

Die Frage ist dann allenfalls, ob es mir NOCH mehr bringt, anstatt einem 5950X direkt einen Threadripper zu kaufen.

Den gebraucht heißt in der Wirtschaft es bringt mir einen Vorteil vom Finanziellen.
Das ist kein Argument weil das es eines wäre, steckt so eine CPU in keinem Multimedia PC. Und die Zahl der Anwendungen
die wirklich überhaupt davon profitieren ist sehr gering. Selbst dann da hast mit mehr Shadern dann deutlich bessere Ergebnisse.
Wie kann ich meine VMs auf den Shadern laufen lassen, oder schon nur den h.265 Encoder (mit der identischen Bildqualität) oder meinen Raw-Konverter oder, oder oder..... Es gibt bis heute noch nicht einmal einen performanten GPU JPG Decoder, der "falsch" gespeicherte JPGs schneller dekodiert wie die optimierte libjpeg-turbo auf der CPU (die wenigstens AVX2 nutzt).

Kaufst dir auch keinen Sprinter weil du den vielleicht mal brauchst.
Ich kaufe aber auch keinen Smart, obwohl das Auto zu 90% der Zeit in der Garage steht oder in der Stadt gefahren wird (=90% der Zeit idlet mein PC mit Videos oder Surfen rum). Die 10% übrige Nutzung sind mir ein größeres Auto (oder eine größere CPU) wert. Die paar Euro Aufpreis für die 16-Kern CPU sind für mich bei der nächtsen CPU besser angelegt wie mir alle 2 Jahre eine neue Mittelklasse-CPU zu kaufen (was für mich heute (m)eine 8-Kern CPU ist).

und ob man 21 Sekunden oder 17 Sekunden braucht ist völlig egal.
Stimmt, ob meine Videos in 30 oder 45 Minuten fertig sind (sind halt derzeit max. 4K, aber 8K wird hoffentloich scheller kommen wie ich die nächste CPU verschrotte), ist mittlerweile egal und mir sogar unwichtiger wie die Frage, ob ich bei jedem Klick auf den Regler der Raw-Entwicklung 0,5 oder 0,4 Sekunde warten muss (=Single Thread Leistung). Und wehe, ich muss mal wieder (nach Corona) ein paar tausend Bilder am Stück in die Bildverwaltung importieren. Das dürfte sie in Zukunft gerne mit 32 Bildern parallel machen anstatt jetzt nur mit 16.

Ja genau das wäre ja wirtschaftlicher suicide für den Spieleentwickler :D
Schau dir mal an was die Mehrzahl an Spielern verbaut hat, dann reden wir vllt in 10 Jahren nochmal über AVX
Also ist es kein Wunder, dass Spieleentwickler immer nur nach schnellerer HW schreien anbstatt die vorhandene auszunutzen. Schade, dass die Zeiten des C64 vorbei sind.
 
Mit 5.2GHz geht der 11900k schon ab mit 706 Punkten und +10% besserem Multi als der alte Score:
Die 60°C max werfen aber Fragen auf^^

Die 60C° sind ja im idle, wenn ich das richtig lese. Da steht 0% load und als vcore 0,8V. Es ist ja nicht ersichtlich wann genau die temp gemessen wurde.

Auf die Temperatur würde ich so nichts geben. :)
 
Macht nichts, die XT-CPUs kommen ja noch und eigentlich waren die Zen3-Prozessoren eine Antwort auf Comet-Lake-S. Das heißt Zen4 wird die Antwort auf Rocket-Lake-S sein. Eigentlich sollte Intel die Rocket-Lake-X nennen, dann könnte man eine Abwandlung eines berühmten Satzes bringen: Rocket-Lake-X, war wohl nix :D
 
Moin,

ich finde das immer total interessant... Wenn ich jetzt meine neun Jahre alte CPU nehme, einen i7-3930k den ich auf 4.2 GHz im allCoreTurbo angezogen habe dann habe ich in etwa die hälfte der Leistung der modernen CPU hier. Egal ob Intel oder AMD.

Im Alltag bemerke ich das aber nicht wirklich. Ich daddel Anno1800, Cyberpunk und Satisfactory. Alles in WQHD und im Bereich um die 75 fps. Natürlich mit angepassten Einstellungen, was aber mehr an der GPU liegen dürfte.

Gibt es hier jemanden im Forum der mir erklären kann warum der "gefühlte" Unterschied so gering ist ? Würde mich wirklich interessieren. Bei meinem Siliziumknecht ist noch Luft. 4.5 GHz sind stable unter Luft möglich, vielleicht sogar 4.7 GHz. Müsste ich mal testen.

Gruß und danke !

Anhang anzeigen 1348786
Weil der Unterschied zwar im Benchmark messbar ist, aber ein Spiel eben kein Benchmark ist. Ich hatte bis vor kurzem eine ryzen 3100 im Rechner, den Unterschied in spielen merkst du nur wenn du suchst. Zumeist bist du in Games sowieso im GPU Limit unterwegs. :)

Was mir immer negativ auffällt ist, dass die meisten Reviews immer mit "offiziellen" Ramtaktraten testen die allerdings kaum ein Mensch nutzt.

Weil es eben die Offiziellen Angaben sind und alles darüber Overlocking und ein Betrieb außerhalb der Spezifikation darstellt.
 
Was mir immer negativ auffällt ist, dass die meisten Reviews immer mit "offiziellen" Ramtaktraten testen die allerdings kaum ein Mensch nutzt. Schon seit X Generationen macht jede Intel Plattform mindestens 4000MHz Ramtakt mit. Aktuell sind mit Comet Lake selbst mit 2x16GB Dual Rank Kits 4400MHz drin und Speicher und Cachelatenzen haben ne nicht zu unterschätzende Auswirkung auf die Gaming Performance. Und genau da hat Intel nach wie vor die Nase vorn.
Nur weil es die CPUs mitmachen heißt es nicht das jeder diese darauf betreibt.
Man will die CPUs im offiziellen Zustand testen. Nicht jeder Übertaktet oder gibt das Geld für die teuren Kits aus.
OC ist aber auch eine Frage des Glücks und es Aufwandes. Wie gut war das Ramkit, was schafft die CPU, wie viel Zeit und Geld wurde reingesteckt für etwaige Optimierungen. Das sind alles Faktoren die sich nicht gut auf einen allgemeingültigen Test ummünzen lassen.
OC Builds kann man zusätzlich testen und wird bspw. von der Community fleißig gemacht. Da haben einige Intel Besitzer mit Zen 2 den Boden aufgewischt und können auch mit den aktuellen Zen3 mit hohen Ramtakt mithalten.

Früher oder später wird es Probleme geben. Mein i7 3770 war am Anfang auch nicht sonderlich ausgelastet, das kaum ein Spiel 4 oder gar 8 Threads vernünftig unterstützt hat. Heute sieht das etwas anders aus und so wird es wohl auch bei den neuen CPUs laufen.
Dann reden wir davon dass sowas in Jahren erst relevant wird wenn man vorher nicht schon was neues hat.
Zumal auch dann erstmal PL1 überschritten werden muss damit das zu Problemen führt was auch in Zukunft nicht gegeben sein muss.
 
Moin,

ich finde das immer total interessant... Wenn ich jetzt meine neun Jahre alte CPU nehme, einen i7-3930k den ich auf 4.2 GHz im allCoreTurbo angezogen habe dann habe ich in etwa die hälfte der Leistung der modernen CPU hier. Egal ob Intel oder AMD.

Im Alltag bemerke ich das aber nicht wirklich. Ich daddel Anno1800, Cyberpunk und Satisfactory. Alles in WQHD und im Bereich um die 75 fps. Natürlich mit angepassten Einstellungen, was aber mehr an der GPU liegen dürfte.

Gibt es hier jemanden im Forum der mir erklären kann warum der "gefühlte" Unterschied so gering ist ? Würde mich wirklich interessieren. Bei meinem Siliziumknecht ist noch Luft. 4.5 GHz sind stable unter Luft möglich, vielleicht sogar 4.7 GHz. Müsste ich mal testen.

Gruß und danke !

Anhang anzeigen 1348786
Eigentlich ist es recht schnell erklärt, wieso der gefühlte Unterschied so gering ist:
  1. Doppelte Leistung nach neun Jahren sind nicht viel. Vergleich das mal mit dem gigantischen Abstand zwischen einer GTX 570 und einer 3070, die sich obendrein in etwa in der gleichen Wattklasse befinden. Da befindet man sich bei über der sechsfacher Performance im gleichen PowerBudget. Und das, obwohl von Kepler, Maxwell, Pascal, Turing und Ampere nur Maxwell und Kepler wirklich große Effizienzfortschritte darstellten, Pascal enttäuschte, Turing diese Scharte nicht auswetzen konnte und Ampere noch eine größere Enttäuschung darstellte.
  2. Viele Titel sind in der Praxis nicht CPU-limitiert. Es könnte also auch tausendfache Performance sein, man würde nichts davon merken. Naja, bei den Ladezeiten schon, aber nicht bei den FPS,
  3. In Spielen, die völlig CPU-limitiert sind, schlagen die Unterschiede vollkommen durch. Ich habe ja vorhin schon Drakensang: Am Fluss der Zeit angesprochen. Da könntest auch du von einer Performanceverdoppelung ausgehen. Aber wer kein derartiges Spiel auf der Liste hat, der braucht auch nicht aufzurüsten.
Alle diese Punkte sorgen für die merkwürdige Situation, dass viele User nach jeder neuen CPU-Generation lechzen und das Gefühl haben sie zu brauchen, weil man ja eh immer zu wenig CPU-Leistung habe; obwohl der Unterschied prozentual so gering ist, dass dafür im GPU-Bereich kaum jemand bereit wäre aufzurüsten. Gleichzeitig können andere ihre CPUs jahrelang nutzen, ohne irgendeinen Aufrüstdruck zu empfinden und das aus gutem Grund: Denn je nach persönlichem Softwareportfolio besteht nun einmal wirklich kein Aufrüstdruck.

Das bezieht sich jetzt nur auf Spiele: In komplett multicoreoptimierten Anwendungen zieht ein 5950X mit seinem 12000er-CPU-Z-Multicore-Score Kreise um deinen 3930X und der Abstand befindet sich dann zumindest eher in der Nähe des Abstandes bei den GPUs...
 
Macht nichts, die XT-CPUs kommen ja noch und eigentlich waren die Zen3-Prozessoren eine Antwort auf Comet-Lake-S. Das heißt Zen4 wird die Antwort auf Rocket-Lake-S sein. Eigentlich sollte Intel die Rocket-Lake-X nennen, dann könnte man eine Abwandlung eines berühmten Satzes bringen: Rocket-Lake-X, war wohl nix :D
Die XT-Modelle haben schon bei Zen2 nur wenig gebracht und vorrangig den Preis erhöht. Da man weiterhin im N7 fertigt, würde da auch bei Zen3 nicht allzu viel rauszuholen sein, d. h. der kann vielleicht einen einstelligen Prozentwert drauflegen und damit bzgl. RKL etwas gegensteuern, das wird jedoch für ADL absehbar nicht reichen. Hier wird AMD schon einen nennenswerte Überarbeitung benötigen (ggf. auch im N6?), also bspw. etwas wie einen "Zen3+". Insofern dürfte die Luft für einen einfachen XT auch reichlich dünn werden, sprich das Zeitfenster wird voraussichtlich zu knapp sein, d. h. es wird entweder einfache XTs oder (wahrscheinlicher) Zen3+ geben. Vielleicht verkauft man letztere auch als "XT"-Modelle, wer weiß, aber da muss AMD schon etwas mehr abliefern um in 2021 im Mainstream zu bestehen. RKL wird den Abstand zu Zen3 deutlich verringern und gegen ADL wird man ohne ein Zen3+ nicht bestehen können, insbesondere nicht plattformtechnisch, d. h. ich würde auch damit rechnen, dass AMD schon im 2HJ21, noch vor der Einführung von Zen4, DDR5 einführen wird, weil man ansosnten das Nachsehen haben wird. Am wahrscheinlichsten erscheint mir, dass man die AM5-Plattform schon im 2HJ21 einführt und möglicherweise wird es Zen3+ für AM4 und AM5 geben oder aber AMD macht direkt einen harten Cut, was auch dem Revenue entgegen käme (wie sie es ja schon öfters gemacht oder zumindest versucht haben), und die Zen3+-Desktop-CPUs werden nur noch auf AM5 laufen? Hier wird man abwarten müssen.
Vermutlich wird es bei einem Neukauf im 1HJ21 keine große Rolle spielen zu welcher Plattform man greift (im Mainstream) und da man aktuell noch nichts Konkretes zu AMD weiß, hat vorerst augenscheinlich Intel mit ADL auf LGA1700 die Nase vorn (zumindest für Mainstream-Workloads, bevor jetzt wieder wer mit einem Cinebench R23-Score ums Eck kommt ;-)).
 
Zuletzt bearbeitet:
Warum AMD verlangt doch gerade fast 500 Euro für 8 Kerne, auch hab ja vergessen da sind Wucherpreise ja ganz toll.
Was interessiert mich was AMD verlangt, die derzeitigen Preise sind doch alle völlig überzogen, weil nichts ausreichend Lieferbar ist und natürlich sind das Wucherpreise, wer es dennoch kauft soll es tun!
Bei Intel natürlich nicht ihr dreht euch alles hin wie es euch passt und das ständig. Egal was Intel macht 330 Euro aktuell für 8 Kerne und kaum langsamer plus noch OC Potenzial ist keine Konkurrenz.
Na da liege ich doch für die 8 Kerne bei den Rocket Lake doch absolut im Soll, ebenfalls nur 8 Kerne und nur ein bisschen mehr Performance im Single Core, was mir im Spiel nachher vielleicht in FHD oder WQHD Auflösung 2 FPS mehr bringt. Im Multicore langsamer als der 10 Kerner von Sky Lake-S der 429,00 Euro kostet. Für dieses wahnsinnige Innovative Produkt, welches eigentlich ein Rückschritt ist, zur Vorgängergeneration sind die 350,00 Euro doch schon mehr als ausreichend gut bezahlt für ein solches Produkt!

Und Du legst Dir nichts zurecht, nur, weil es Deiner Meinung nach ausreichend ist, 4 bis 8 Kerne zu haben und alles andere obsolet ist, ja so kann man auch argumentieren!
Das dumm Argument mit 12 Kernen und 16 Kernen wer braucht sowas, ich behauptet nicht mal hier kann einer sagen
diese CPU wird gebraucht.
Ich könnte das sehr gut gebrauchen, vor allem, weil ich meinen PC Multimedial benutze und eigentlich auch alles über den PC mache, da können es gar nicht genug Kerne sein. Beim Rendern kann ich meinen i5 8600K noch mit der Grafikkarte sehr gut unterstützen und diesem Arbeit abnehmen, aber Gamen und gleichzeitig gescheit Streamen, da bin ich mit meinen 6 Kernen doch etwas limitiert.

Nur im Moment macht es wenig Sinn zu upgraden, solange die neuen Produkte nicht in ausreichender Menge auf dem Markt sind. So kosten die neuen Produkte ob AMD oder Intel weit über dem UVP und so lange das der Fall ist, werden auch die Produkte der Vorgänger Generation nicht günstiger. Da warte ich dann doch noch ein bisschen bevor ich auf mehr Kerne upgrade, kann dann aber in ein paar Monaten hunderte von Euros sparen!

Und in der Wirtschaft schafft man einmal so eine CPU an und dann muss sie erstmal Profit machen.
Hier geht es um ein Hobby und nicht um ein wirtschafliches Unternehmen, kann es sein das Du im falschen Forum unterwegs bist?
Die meisten werden überhaupt nichts haben wo 24 Threads ausgelastet sind, selbst in Blender arbeiten heißt Cuda
und ob man 21 Sekunden oder 17 Sekunden braucht ist völlig egal.
Wenn man nur einen beschränkten Blick auf die Anwendungsgebiete bei Multicore hat und meint dabei geht es nur um Rendern, magst Du recht haben. Aber Multicore ist im Alltag eben nicht nur Rendern!
Den Workloads geht es um Zeit und der Unterschied wird erst groß wenn man Stundenlang sowas macht. In Games ist der Unterschied wesentlich wichtiger weil es da um FPS geht die man auch ohne Stopuhr war nimmt.
Spielt man wie ich in einer UHD Auflösung, ist der Unterschied zwischen den CPUs eher gering, da übernimmt das meiste sowieso die Grafikkarte, kann man nicht nur in den diversen Benchmarks sehen, sondern spiegelt sich auch beim eigenen Gaming zu Hause wieder!
Man konnte schon immer 16 Kern Systeme bauen nur da war jedem klar das es keinen großen nutzen hat.
Da würde ich wiedersprechen, weil ein 16 Kern System vor ein paar Jahren noch überproportional teuer war, konnte es sich halt der Mainstream gar nicht leisten und war eigentlich nur den deutlich besserverdienenden vorbehalten, das hat sich zum Glück geändert. Da lag die Priorität doch nicht allein nur auf dem Nutzen, sondern vor allem auch was es kostet.
Kaum kann man so eine CPU in Mainstream Boardsstecken ist es nützlich? Nein es hat sich nichts geändert nur das
dass Produkt anderes Präsentiert wird.
Natürlich ist es nützlich, vorausgesetzt man benötigt auch die entsprechenden Kerne und bei vielen hat sich dadurch alles geändert. Ich finde Deine Sichtweise schon sehr Engstirnig und provinzial, nur, weil Dir 2 Kerne ausreichen und alles andere für Dich überflüssig ist, muss das doch bei anderen nicht auch so sein!
 
Er wird die Mainstream-Krone holen, High End wird unerreichbar für Intel bleiben. Und sobald Zen 3 TR kommt ist ohnehin vorbei mit Gequatsche.
 
Hallo Allerseits,

'Hab euch mal nen 5900Xer zum Vergleich angelegt. Alles noch ohne OC im Standard-Betrieb, außer bitdefender (passiv im Hintergrund) lief nichts während des benchs. Im Cinebench R23 komm ich damit auf 20600 bis 20900 Punkte, je nachdem, welch' idiotischem Prozess Win10 gerade nachjagt.

Bei Fragen immer her damit.

System: https://valid.x86.fr/b7cqy6 (CPU-Z Eintrag)

CPU-Z bench.JPG


Edit: @Olstyle hier der V 17.01.64, entsprechend geringere Werte.

CPU-Z bench V17.01.64.JPG


Edit: und noch der V19.01.64, falls den jemand braucht:

CPU-Z bench V19.01.64.JPG


PS: Wie gesagt: das ist ein fertiges Standard-Win System, aktuelles Win10, Treiber, Logitech Software usw., leider schon mit nem laufenden bitdefender, was die Werte im Multicore etwas (aber nicht wesentlich) runterzieht. Also in etwa das, was am Ende (zumindest für mich) auch die normale Netto-Leistung ist.
 
Zuletzt bearbeitet:
Du hast einen anderen Benchmark durchgeführt. Musst in dem Drop-down schon auf 17.0.1.64 gehen damit das vergleichbar ist.
 
Die XT-Modelle haben schon bei Zen2 nur wenig gebracht und vorrangig den Preis erhöht. Da man weiterhin im N7 fertigt, würde da auch bei Zen3 nicht allzu viel rauszuholen sein, d. h. der kann vielleicht einen einstelligen Prozentwert drauflegen und damit bzgl. RKL etwas gegensteuern, das wird jedoch für ADL absehbar nicht reichen. Hier wird AMD schon einen nennenswerte Überarbeitung benötigen (ggf. auch im N6?), also bspw. etwas wie einen "Zen3+". Insofern dürfte die Luft für einen einfachen XT auch reichlich dünn werden, sprich das Zeitfenster wird voraussichtlich zu knapp sein, d. h. es wird entweder einfache XTs oder (wahrscheinlicher) Zen3+ geben. Vielleicht verkauft man letztere auch als "XT"-Modelle, wer weiß, aber da muss AMD schon etwas mehr abliefern um in 2021 im Mainstream zu bestehen. RKL wird den Abstand zu Zen3 deutlich verringern und gegen ADL wird man ohne ein Zen3+ nicht bestehen können, insbesondere nicht plattformtechnisch, d. h. ich würde auch damit rechnen, dass AMD schon im 2HJ21, noch vor der Einführung von Zen4, DDR5 einführen wird, weil man ansosnten das Nachsehen haben wird. Am wahrscheinlichsten erscheint mir, dass man die AM5-Plattform schon im 2HJ21 einführt und möglicherweise wird es Zen3+ für AM4 und AM5 geben oder aber AMD macht direkt einen harten Cut, was auch dem Revenue entgegen käme (wie sie es ja schon öfters gemacht oder zumindest versucht haben), und die Zen3+-Desktop-CPUs werden nur noch auf AM5 laufen? Hier wird man abwarten müssen.
Vermutlich wird es bei einem Neukauf im 1HJ21 keine große Rolle spielen zu welcher Plattform man greift (im Mainstream) und da man aktuell noch nichts Konkretes zu AMD weiß, hat vorerst augenscheinlich Intel mit ADL auf LGA1700 die Nase vorn (zumindest für Mainstream-Workloads, bevor jetzt wieder wer mit einem Cinebench R23-Score ums Eck kommt ;-)).
Die 2,7% Vorsprung im Singlecore wird eine XT-Variante locker schaffen einzuholen. Ich meine hier wird so getan, als ob Rocket-Lake-S Zen3 den Rang massiv abläuft. Mitnichten. Schon jetzt kann ein 3900XT mit einem i9 10900K mithalten, zumindest in einigen Benchmarks. War natürlich von meiner Seite aus sehr provokativ formuliert. Aber Intel muss endlich mal umdenken und vor allem wieder kundenfreundlicher werden. Es ist gut, dass AMD gerade im Aufwind ist.
 
CPU-Z hatte schon immer einen Benchmark. Wenn Leaker Scores veröffentlichen, steckt natürlich Intel selbst dahinter :schief:
OK, Gedankenspiel:

Ich habe Zugriff auf eine CPU, die erst in 3 Monaten auf den Markt kommt und es gibt im ganzen Internet keinen Benchmark zur CPU... Dann teste ich ausgerechnet den CPU-Z Benchmark !? Nicht etwa Cinebench? Was der Standard bei AMD ist.

Das läßt nur eine Vermutung zu. Die CPU kann AMD nicht paroli bieten! Der Benchmark wurde von Intel initiiert um positive Schlagzeilen zu generieren.



Hallo Allerseits,

'Hab euch mal nen 5900Xer zum Vergleich angelegt. Alles noch ohne OC im Standard-Betrieb, außer bitdefender (passiv im Hintergrund) lief nichts während des benchs. Im Cinebench R23 komm ich damit auf 20600 bis 20900 Punkte, je nachdem, welch' idiotischem Prozess Win10 gerade nachjagt.

Welches Mainboard benutzt Du ?
 
Zuletzt bearbeitet von einem Moderator:
Wirklich interessant wird Alder Lake, vor allem was die Effizienz unter diversen Teillast-Szenarien betrifft. Unter Vollast wird die Zen 3+/Zen 4 Effizienz ohnehin nicht einholbar sein (alleine schon aufgrund der Kernanzahl).
 
Oft gehörter Unsinn, aber das macht es nicht zu weniger Unsinn:
Damit der Kunde Schuld an den Preisen tragen kann, muss richtig schön viel passieren. Miserable Bietstrategie in einem Auktionshaus, auf einem Flohmarkt oder ähnlichem wäre ein Beispiel für so etwas.
Sogar damit die Kunden Schuld an den Preisen sein können, muss immer noch ganz schön viel passieren. Zum Beispiel müssten sie jahrelang eigentlich unterlegene Produkte gekauft haben und das obwohl sie nicht unter Informationsknappheit o.ä. gelitten haben.
Du warst wohl noch nie bei einer Auktion. Wenn es keine Bieter gibt, bleibt der Preis im Keller, wenn es viele Bieter gibt, geht der Preis hoch!

So ist es auch im Handel! Viele Käufer = hoher Preis !
 
@CD LABS: Radon Project

Danke für deine ausführliche Erklärung. Ich arbeite auch an meinem Knecht aber das beschränkt sich auf cloudbasierte Dienste und der andere Teil ist Zockerei. Da werde ich dann wohl noch einige Zeit Ruhe haben und lieber ein dickes GPU Upgrade durchführen bzw. noch auf die 8 Kern Lösung für X79 springen. Das sollte mir dann weiterhin ein ausreichendes Polster verschaffen.

So sollten die nächsten Jahre noch auf X79 möglich sein.

Danke
Toasten
 
Wirklich interessant wird Alder Lake, vor allem was die Effizienz unter diversen Teillast-Szenarien betrifft. Unter Vollast wird die Zen 3+/Zen 4 Effizienz ohnehin nicht einholbar sein (alleine schon aufgrund der Kernanzahl).
Intel hat die Kernschlacht aufgegeben. Man will nur noch im Gamingbereich der Schnellste sein. Und das schaffen die auch. Der Witz ist, ihre 8+8 CPU ist in Wirklichkeit nur eine 8 Kern CPU. Die anderen 8 Kerne sind so billig produziert, das man die nur in die CPU gepackt hat, damit auf der Verpackung 16 steht!
Mit 8 schnellen Kernen, kann die CPU in jedem Spiel die schnellste sein. Bei Anwendungen wird die CPU niemals 12/16 echte Kerne schlagen können.

Aber es geht nur um eins: Intel hat die schnellste (Gaming) CPU !

AMD hat nun das Problem, das ihre 16 Kern CPU viel zu teuer ist! Da man 16 echt schnelle Kerne verbaut hat. Und der Kunde ist nunmal DAU! Der sieht 16 Kerne bei AMD für 1000 Euro und 16 Kerne bei Intel für 500 Euro. Naaa, was wird der 0815 Saturn Kunde nun kaufen !?




Das B550er Gigabyte Aorus Master. Auf welche Werte kommst du denn bei deinem System? ;-)
Bei 105W (normal Betrieb) komme ich auf :
1609539296077.png
 
Zurück