Core i9-10900K: Benchmarks zeigen neue Intel-CPU teils vor Ryzen 9 3950X

Der Gedanke kam mir gestern auch. Also nicht, dass das taugen würde um den (zu hohen) Verbrauch von Comet Lake unter Last zu relativieren.
Aber ist das eigentlich bei Ryzen noch ein Thema, dass die im Idle einiges mehr ziehen oder ist das eher eine Sache der Boards und wurde mittlerweile etwas verbessert? Bin jetzt nicht ganz so im Thema, was AMD angeht, aber glaube auch Igor meinte heute in seinem Video, dass AMD da sicher auch bei Ryzen 4k noch etwas tweaken wird, was das Voltage-Feintuning angeht. Womit Intel bei seiner 10. Generation ja auch wirbt, dass da etwas mehr Feintuning, wenn auch nur per Tool per Kurve gegeben sein wird.
Die AM4 Ryzens sind hauptsächlich durch den IO-Die limitiert, der scheint relativ viel Strom zu ziehen. Deswegen haben auch alle Zen 2 AM4 CPUs, vom kleinsten Vierkerner bis zum 3950X ungefähr den gleichen Idle Verbrauch.

Ich hoffe mal AMD bessert hier mit Zen 3 nach.
 
8xxxx Reihe nutzt Treiber und Technologie von 2015 die 9xxxx von 2016/2017
Die neue Generation dann von 2018 ??

Die lange Treiberunterstützung von Intel in allen Ehren aber Intel Mainboards und Prozessoeren nutzen selbst im mittleren Preissegment ab 200€ veraltete Technik.....
Weis ja nicht wie es euch geht aber ich komme mir dabei etwas verarscht vor, sollte man einen Film mit dem Titel "Neue Verpackung alte Teile" zu drehen.


Kann den Kunden und meinen Freunden & Bekannten auch kein Intel mehr empfehlen.
Meistens sag ich wenn mich jemand fragt: "Komplettes AMD System oder AMD Prozessor + NVIDIA Grafikkarte und bist gut dabei und sparst auch noch Geld"
 

Hier, bitteschön :)

Edit: Siehe zweiten Screenshot, bei 100% Auslastung laufen die Kerne bei den dort stehenden Taktraten zu 100% stabil und Takten sich nicht herunter. Also Ja, die Kerne 1-3 laufen bei 100% Auslastung bei 4.5GHz, die Kerne 4-6 bei 4.475GHz und die Kerne 7-12 bei 4.375GHz. Und Nein, bei 100% Belastung laufen alle 12 Kerne NICHT auf 4.375GHz, sondern auf den eben davor genannten Taktraten (1-3 4.5, 4-6 4.475, ...). PBO aus. 72°C Maximaltemperatur. Der Screenshot ist aus HWMonitor und von links nach rechts: Value - Min - Max.
 

Anhänge

  • 3900X 7900 Punkte.JPG
    3900X 7900 Punkte.JPG
    1,7 MB · Aufrufe: 130
  • Screenshot (1).png
    Screenshot (1).png
    16,6 KB · Aufrufe: 46
Zuletzt bearbeitet:
Also dafür das die Intel CPU mehr GHz hat (wenn man mal vom maximalen ausgeht), dann ist das Ergebnis beim Intel eher peinlich 115 zu 118 pfffft. Das ist ja mal echt garnix..

Hätte da jetzt gestanden 115 zu 180 oder so, okay, aber das... lächerlich ^^

Das ganez ist im GPU Limit 1440p

Ist jetzt aber auch kein sinnvoller Vergleich. Die Paarung ist in beiden Fällen übrigens Quatsch, 3900x+5700xt und 4770k+1660s, mal sehen was dann rauskommt.


Also in Far Cry 5 hat man im GPU Limit Vorteile und man wird hauptsächlich GPU limitiert. In den seltenen Fällen ist die CPU wirklich Schuld. Wenn ihr eine GPU limitierte Szene im worst case auswählt was ist denn bei euch anders? 720p Benchmarks braucht kein Mensch!

So ein Schmarrn.

Einen CPU Tests in höheren Auflösungen braucht kein Mensch. Weil 720p Tests und GPU Tests schon alles wissenswertes aufzeigen.
Jetzt schreibe ich auch noch dazu, das ist nur meine Meinung.

Interessant wären für mich nur die min und p99 fps im GPU Limit.

Dann schau dir dazu auch mal für jeden Sockel Mainboardtests an, die auch diese Werte messen.

Der Gedanke kam mir gestern auch. Also nicht, dass das taugen würde um den (zu hohen) Verbrauch von Comet Lake unter Last zu relativieren.
Aber ist das eigentlich bei Ryzen noch ein Thema, dass die im Idle einiges mehr ziehen oder ist das eher eine Sache der Boards und wurde mittlerweile etwas verbessert? Bin jetzt nicht ganz so im Thema, was AMD angeht, aber glaube auch Igor meinte heute in seinem Video, dass AMD da sicher auch bei Ryzen 4k noch etwas tweaken wird, was das Voltage-Feintuning angeht. Womit Intel bei seiner 10. Generation ja auch wirbt, dass da etwas mehr Feintuning, wenn auch nur per Tool per Kurve gegeben sein wird.

Letztlich sitze ich auch die überwiegende Zeit im Desktop und wenn ich da 30 Watt weniger hätte permanent im Vergl. zu Ryzen, sind mir 30 Watt beim Zocken jetzt auch relativ egal.

Jedenfalls zieht mein 8700k @ 5 Ghz bei Warzone glaub ich im Schnitt 90 Watt, aber im Desktop geht er bis 0,5 Watt runter. Wenn jetzt ein 10900k im Schnitt 120 Watt ziehen würde ingame, wäre das nicht so dramatisch. 150 Watt vielleicht schon eher.

Bei AM4 ist es halt eine Frage des Chipsatzes. Wer PCIe4.0 will und damit ein 570iger Brett, hatte den Mehrverbrauch.

Was sich da jetzt mit den B550 Boards ändert müssen Tests zeigen.
Ich hoffe das man das entsprechend ändern konnte.

Für einen reinen Zocker, macht es sehr wohl den Lastverbrauch eines Intels wieder gut. Wenn ich mir in den PCGH Tests anschaue, das der Mehrverbrauch knapp um 20W liegt.

Intel muss wirklich langsam mal was neues bringen, auch wegen der Effizienz, aber so drastisch wie es gerne hier verbreitet wird, ist es nicht. Zumindest nicht für die, bei denen Spiele die höchsten Anforderungen an die CPU stellen.

Ich hoffe weiter auf meinen ZEN3 8 Kerner der bitte Intel in Spielen schlägt ;)
 
Ich ahne da schon eine Tendenz. Intel holt sich mit der Brechstange in den meisten Fällen die Gamingkrone wieder ;). Ich bin auf jeden Fall auf Eure Testergebnisse gespannt.



Ich habe bis heut nicht verstanden wie ein Stück Silizium Reinigungsarbeiten durchführen kann :huh:. Wie wischt ein CPU den Boden?
Zum CB Test, ist gut aufgebaut und war bestimmt Zeitintensiv. War das Intel System sein privates System? Tendenz erkennbar ;).

Intel hat doch die Gaming Krone nie verloren. Guck dir auf CB den ,,Test‘‘ an dann siehst du wie viel schneller ein 9900k schon ist. Fürs reine Gaming ist Intel noch immer erste Wahl.
 
7350 CB20 aber nur mit OC oder du schaffst es die CPU extreme zu kühlen. Die 7009 sind standart solang die CPU kalt ist ;).

Mein 3900X@Stock (UEFI alles auf Auto, Nur XMP 3200MHz CL16) macht schon 7100 im CB20, mit etwas Feintuning auch 7300. Und da ist immer noch der Boost der CPU ausschlaggebend. Wenn man alle Kerne auf 4,35 - 4,4GHz (oder noch höher) setzt, dann kratzt das gute Stück schon an der 8000er Marke.
 
Stellst du dich absichtlich, mir fällt kein besseres Wort ein, dumm, oder ist dein Tellerrand echt so hoch?
100€ im Budget machen bspw. den Unterschied zwischen 5600XT und 5700XT aus. Oder 1660 und 2060 Super, wenn ich 30€ noch drauflegen kann komm ich von einer 2060 Super auf eine 2070 Super.

Als wenn das vom 3700x zum R5 3600 nicht auch gelten würde. ;)

Aber auf der einen Seite rühmt man sich, weil man hat man ja 100€ gespart zum Intel, auf der anderen Seite vom 3600 wäre das aber wieder was ganz anderes. ;)

Sicher, sicher.
Man biegt sich schon alles, wie man's haben will.

Macht mal schön weiter damit.
 
Also zum Spielen allein taugt der Ryzen nicht und ist dann eine Luftpumpe. Die ganzen Cores nutzen dann rein gar nichts. Selbst der 3900x reißt dann nichts. Wir sprechen da auch nicht von ein zwei Bilder pro Sekunde sondern von 20 und bis zu 40 unter FC. Mit OC RAM lässt der 9900k den 3900 alt aussehen. Kann man auf Computerbase seit heute lesen. An den Grafikkarten liegt es nicht die sind gleich auf.

Core i9-9900K vs. Ryzen 9 3900X mit RAM-OC in Spielen: Testergebnisse und Fazit - ComputerBase

Was soll da ein 10900k anders machen? Unter Spielen wischt der den Boden mit jedem Ryzen auf. Schwarz auf weiss belegt. Selbst mit langsamen RAM Modulen ist Intel schneller.

Unter Spielen ist AVX und jeder andere CPU Benchmark einfach Käse, weil der zu oft alle Kerne auslastet, denn da wird er weit unter seiner TDP bleiben. Allein zum Spielen taugt AMD nicht. Daher werde ich mir auch den 10700k holen. Ich spiele mit meinem PC hauptsächlich.

Dann schau dir mal die Systeme genau an.
Dort wird ein geköpfter 9900K mit einer WaKü-2080Ti in einem Custom-Loop gegen einen 3900X mit ner AiO und ner luftgekühlten 2080Ti verglichen.
Entweder ist in beiden Systemen die Hardware (bis auf CPU und Mainboard) identisch, oder ich lass es ganz. Und das der 3900x des Testers keine 1900MHz IF packt zeigt eigentlich schon, wie schlecht sein Exemplar ist.
 
Klar steht er in den kurzen Benchmarks gut da, wo er 250W verbrauchen darf.

Wenn er in der Realität mal mehr als 56s Dauerlast bekommt, sieht das schon ganz anders aus.
 
Klar steht er in den kurzen Benchmarks gut da, wo er 250W verbrauchen darf.

Wenn er in der Realität mal mehr als 56s Dauerlast bekommt, sieht das schon ganz anders aus.

Wie bereits in der Vergangenheit werden die Mainboardhersteller einfach höhere Werte eintragen.
Schaut in den Testberichten ja gleich viel besser aus wenn bei meinem eigenen Mainboard viel mehr Benchmarkpunkte rauskommen als bei der Konkurrenz.
AsRock wirbt sogar mit einem höheren Powerlimit: YouTube
 
Zuletzt bearbeitet:
Hier, bitteschön :)

Edit: Siehe zweiten Screenshot, bei 100% Auslastung laufen die Kerne bei den dort stehenden Taktraten zu 100% stabil und Takten sich nicht herunter. Also Ja, die Kerne 1-3 laufen bei 100% Auslastung bei 4.5GHz, die Kerne 4-6 bei 4.475GHz und die Kerne 7-12 bei 4.375GHz. Und Nein, bei 100% Belastung laufen alle 12 Kerne NICHT auf 4.375GHz, sondern auf den eben davor genannten Taktraten (1-3 4.5, 4-6 4.475, ...). PBO aus. 72°C Maximaltemperatur. Der Screenshot ist aus HWMonitor und von links nach rechts: Value - Min - Max.

Gutes Ergebnis und schöne runde Zahl :daumen:.
Was mich eigentlich verwundert, warum bei Dir @4.38GHz angezeigt werden. Das wird eigentlich nur bei allcore oc so ausgelesen. Bei CCX oc sollte da normalerweise der Grundtakt von @3.8GHz stehen.
 
2-7 FPS in WQHD, yay dafür verzichtet man gerne auf 6 Cores, respektive 12 Threads, vor allem da die CPUS ja die Zielgruppe Durchschnittsgamer haben ;)
 
Gutes Ergebnis und schöne runde Zahl :daumen:.
Was mich eigentlich verwundert, warum bei Dir @4.38GHz angezeigt werden. Das wird eigentlich nur bei allcore oc so ausgelesen. Bei CCX oc sollte da normalerweise der Grundtakt von @3.8GHz stehen.

Das habe ich tatsächlich auch nicht Verstanden wieso dort 4.38GHz angezeigt/ausgelesen werden, da ich ja CCX OC gemacht habe.. Vielleicht hat sich CB20 den niedrigsten Takt genommen und dann da rein gehauen? O.O
 
Also dafür das die Intel CPU mehr GHz hat (wenn man mal vom maximalen ausgeht), dann ist das Ergebnis beim Intel eher peinlich 115 zu 118 pfffft. Das ist ja mal echt garnix..

Hätte da jetzt gestanden 115 zu 180 oder so, okay, aber das... lächerlich ^^


Ja furchbar Peinlich wenn sogar im GPU limit Messbare Unterschiede zu sehen sind.
Eigentlich dürfte das nämlich eben kein Unterschied sein, weil die GPU das limit sein sollte.

Das aber sogar in 1440p ein Unterschied zu sehen ist, liegt einfach an der Latenz von Ryzen.
In 720p im CPU limit wird das schon deutlich für Intel ausfallen.
 
Braucht man ein oder zwei AKWs, um mit der Performance der Ryzen mithalten, resp. die bald ersetzte Gen teilweise minimal hinter sich lassen zu können?
 
Das eigentlicheb Drama ist ja der Kühlaufwand, nicht der Steckdosenverbrauch.

Auch der 9900KS lief schon normal gekühlt. Der Verbrauch hängt auch gut mit der Kühlung zusammen.

Sofern der Spaß zum Zocken eingesetzt wird, wird sich das auch kühlen lassen.

In Prime glüht meine CPU bei 90°C, aber beim Zocken sind es trotz 100% auf den ersten Kernen, max nur 72°C auf dem wärmsten Kern.

Davon hat man im GPU-Limit aber nicht viel.
Aber ja für eSports sollte man einen Intel kaufen.

Ja ja, die meiste Zeit.

Aber in den wenigen Fällen schon, auch wenn die aktuell selten geworden sind. Welche CPU sollte sich jemand kaufen, der ein High end Gaming System haben will? Also deiner Meinung nach.

Klar steht er in den kurzen Benchmarks gut da, wo er 250W verbrauchen darf.

Wenn er in der Realität mal mehr als 56s Dauerlast bekommt, sieht das schon ganz anders aus.

Welche Dauerlast denn? Du meinst keine Spiele, oder? Da ist es ja nicht so.

Wie bereits in der Vergangenheit werden die Mainboardhersteller einfach höhere Werte eintragen.
Schaut in den Testberichten ja gleich viel besser aus wenn bei meinem eigenen Mainboard viel mehr Benchmarkpunkte rauskommen als bei der Konkurrenz.
AsRock wirbt sogar mit einem höheren Powerlimit: YouTube

Puh, bei PCGH kann jeder sehen, was ein 9900k leistet, mit hartem TDP Lock, da ist nichts mit Takt nicht halten, in Spielen.

2-7 FPS in WQHD, yay dafür verzichtet man gerne auf 6 Cores, respektive 12 Threads, vor allem da die CPUS ja die Zielgruppe Durchschnittsgamer haben ;)

GPU LImit und wer hat dir gesagt, das die Zeilgruppe der Durchschnittsgamer ist?

Was halten wir davon, wenn wir einfach die Leistung beurteilen, als etwas zu unterstellen, das wir nicht wissen. Ach ja, geht ja nicht, weil es im GPU Limit ist.

Klar reicht aktuell in den meisten Fällen, für die meisten ein 3300x, oder ein 3600. Aber mit der Zeit und neueren GPUs, werden diese CPUs eben deutlicher zurück fallen. Ich glaube übrigens auch nicht, das Intel die Käufer einer 3300X, oder 3600 damit im Ziel hat und auch nicht, das Intel plant, die gleichen Stückzahlen wie diese CPUs zu vertreiben.
 
Zurück