Comet Lake: Core i9-10900K vs. Ryzen 9 3900X im 3D Mark

Yeah! FullHD-Gaming mit einer 500-600 Euro CPU.

Kewl. Leet. Roxor!
Gerade das ist doch die Paradedisziplin einer starken CPU. Manche Leute wollen hohe FPS erreichen und das geht nur mit Full HD. Genau dann zeigt sich welche CPU am stärksten Ist. Gibt schon gute Gründe warum man CPUs in 720p testet. Von der Performance im Gaming ist Intel halt noch führend. Das scheint einigen nicht zu schmecken. Wenn AMD die schnellste CPU für Gaming rausbringt dann bin ich auch wieder auf der roten Seite.
 
Solange du nicht im GPU-Limit bist gebe ich dir Recht. Sobald du aber dad GPU-Limit erreich hast, was ca 90% der Nutzer tun, dann wirst du keinen Nennenswerten Unterschied bemerken, evtl. 2 bis 5 fps, wenn überhaupt.

Aber man muss eh selber wissen, was man haben und ausgeben möchte.

Schlechter wird durch den Preis die CPU nicht.
Kleiner Tipp: Nie im vollen GPU-Limit spielen (98% Auslastung). Dabei entsteht ein hoher unangenehmer Input Lag. Wenn man einen Framelimiter benutzt und ne Auslastung bis 90% hinkriegt, dann hat man direkt bis zu 40% Input Lag gespart,
 
Mir erschließt sich der Intel 10 Kerner noch nicht richtig von der Marktpositionierung, zumindestens nicht bei uns Enthusiasten.

Ich glaube kaum das der 10 Kerner bei gleichem Takt und RAM irgendeinen Vorteil in Spielen plus Singlecore Anwendungen bieten wird im Vergleich zu einem Intel 8 Kerner und so wie es aussieht wird er nicht mal Ansatzweise an einen 3900X bei Multicore Anwendungen herankommen oder gar überholen.
Im Moment hat der 3900X bei den Leuten die ein gemischtes Anwendungsfeld haben, die Nase vorn, da der 3900X in Gaming nur sehr wenig Kompromisse eingehen muss, auch beim Verbrauch dürfte der 3900X den Intel 10 Kerner locker schlagen, insoweit was ist der "Zweck" der Intel 10 Kern CPU?
Ich sehe da ein schwieriges Marktumfeld, da die Leute die rein auf Gaming und FPS setzen, wohl mit einem Intel 8 Kener genauso gut oder besser fahren.
 
Man versuch hier scheinbar wieder um jeden Preis Intel zu pushen. ):
Nicht wirklich, dass Intel abseits von Gaming bei hoher Cpulast keine Vorteile bietet, weiß hier jeder.
Mir erschließt sich der Intel 10 Kerner noch nicht richtig von der Marktpositionierung, zumindestens nicht bei uns Enthusiasten.

Ich glaube kaum das der 10 Kerner bei gleichem Takt und RAM irgendeinen Vorteil in Spielen plus Singlecore Anwendungen bieten wird im Vergleich zu einem Intel 8 Kerner und so wie es aussieht wird er nicht mal Ansatzweise an einen 3900X bei Multicore Anwendungen herankommen oder gar überholen.
Im Moment hat der 3900X bei den Leuten die ein gemischtes Anwendungsfeld haben, die Nase vorn, da der 3900X in Gaming nur sehr wenig Kompromisse eingehen muss, auch beim Verbrauch dürfte der 3900X den Intel 10 Kerner locker schlagen, insoweit was ist der "Zweck" der Intel 10 Kern CPU?
Ich sehe da ein schwieriges Marktumfeld, da die Leute die rein auf Gaming und FPS setzen, wohl mit einem Intel 8 Kener genauso gut oder besser fahren.

Schon richtig, es gibt aber auch Spiele, die mit mehr Kernen noch skalieren, je nach Titel hat man dann Vorteile gegenüber dem 8c. Da man aber gleichzeitig noch die Vorteile des hohen Takts und der Architektur hat, kann man auch in Titeln, die nur wenige Kerne ansprechen, die beste Cpu bieten. Für die breite Masse der bekloppten wäre der 8c sicher die bessere Wahl, für die nicht bekloppten ist Ryzen die beste Wahl. Aber dann gibt es noch die völlig bekloppten (hier schreibt einer :D), die nicht genug bekommen.
 
Also, wenn der 10900K zum Launch wirklich 500$/€ kostet, dann geht es Intel schlechter als gedacht! ;)

Im Ernst, kann mir nicht vorstellen, das diese CPU in den Preisrahmen fällt.
Der 9900KS kostet über 600€, der 9900K über 500€.
Da müsste Intel die Preise um 2 Stufen weiter nach unten senken, und der 9900K bei 300€ landen...aber "träumen" darf man ja immer...;)
 
Gerade das ist doch die Paradedisziplin einer starken CPU. Manche Leute wollen hohe FPS erreichen und das geht nur mit Full HD. Genau dann zeigt sich welche CPU am stärksten Ist. Gibt schon gute Gründe warum man CPUs in 720p testet. Von der Performance im Gaming ist Intel halt noch führend. Das scheint einigen nicht zu schmecken. Wenn AMD die schnellste CPU für Gaming rausbringt dann bin ich auch wieder auf der roten Seite.

Aktuelle PCGH lesen, dann weiß man, wie "wichtig" die CPU, spätestens ab WQHD-Auflösung ist... ;)
 
Kommt drauf an, wie viel die Gpu(s) schaffen. Nur weil viele in höheren Auflösungen so ihre Probleme mit der Gpuleistung haben, ist die Cpu da recht egal.
 
Schon interessant.

Immer noch langsamer, wie erwartet, immer noch höherer Verbrauch als der AMD, wie erwartet, aber immerhin sind es mal 10 Kerne für Sockel 1200.

Wirklich Konkurrenz stellt das Teil nicht da, denn die Leistung kannte man schon vorher, einfach 9900X auf den Takt bringen und fertig.

Auf jeden Fall versucht Intel zumindest noch Boden gut zu machen. Ist keine Überraschung das Teil, aber auch keine Enttäuschung, nur der Preis muss auch passen. Mehr als 400€ wäre unverschämt. Denn dafür bekommt man schon fast den 3900X.
 
insoweit was ist der "Zweck" der Intel 10 Kern CPU?
Ich sehe da ein schwieriges Marktumfeld, da die Leute die rein auf Gaming und FPS setzen, wohl mit einem Intel 8 Kener genauso gut oder besser fahren.

Das frag ich mich auch, die ganze Zeit.

Aktuelle PCGH lesen, dann weiß man, wie "wichtig" die CPU, spätestens ab WQHD-Auflösung ist... ;)

Haben sie wieder mit Spezifikations Ram(unter 3000MHz ?) und Spezifikations Watt(95 ?) getestet ?

WQHD is auch mein Ding. Da sollte man mit kommenden GPUs der nächsten Gen(z.B. 3080) dann schon einen Unterschied bei den Minimum FPS bemerken, denk' ich.
Wurde auch RDR2 in WQHD gecheckt, vielleicht mit 3600er Ram und 130 Watt ?
Dann würd' ich mir die glatt mal kaufen.


edit: Ansonsten bringt mir so ein Test(mit angezogener Handbremse) leider wenig.


edit2: Mal eben den "Aufmacher" checken gehen, der neuen Ausgabe ...

edit3:

Thema "was harmoniert gut miteinander ?" ?
Weiß ich: 9900k mit relativ fixem Ram und ordentlich Watt, mit einer RTX 3080. :D
Das Ganze dann bei WQHD VA 144Hz Panel G-sync(Monitor siehe Sig ;) ), mit nicht Ultra Details, sondern "nur hohen" und dem geschmeidigen Spielerlebnis, mit relativ hohen Minimum FPS steht nix im Wege. :D

Das wäre jedenfalls so mein Ding, für ne gute Kombi. :)


edit4:

Oh sh1t ... sie haben ja wirklich auch RDR2 auch in WQHD getestet ...
Jetzt muss ich nur noch rausfinden, welcher Ram und wie viel Watt im System steckt, und ob dementsprechend die Handbremse gelöst wurde ...
Dann isses n Kauf.


edit5:

Mit maximalem Takt laut Hersteller. :(

3.jpg

Was is das ? 2666 MHz ? :D Mal suchen gehen ...


edit6:

lol ! Yep !

1.jpg

Albern. Aber ich kann's auch von PCGH Seite voll nachvollziehen. Nix für ungut, denn man kann ja nicht unendlich viele Versionen des OC checken.
Nur wie soll man als normaler Zocker, der einen 9900k kauft, dann diese Werte für einen Vergleich ranziehen, denn man koppelt die CPU sicherlich nicht mit 2666MHz Ram.

Oder wer kauft ein neues Gaming System, mit 9900k, mit solchem Speicher hier :

2.jpg

Is ok ...
Muss ja irgendwo eine Grenze geben, für was man testet.
Nur realistisch is das wirklich nicht mehr.

Ich verstehe aber das Dilemma der Werksvorgaben und ob man sich dran hält, oder nicht.


edit7:

Auf der anderen Seite, hält man sich selber nicht dran:
4.jpg

3000er is zwar auch noch recht lahm, für das System, aber auch nicht mehr 2666 MHz.
 
Zuletzt bearbeitet:
Wenn der Preis stimmt wird das eine sehr gute CPU die man empfehlen kann. Sie ist zumindest besser als 9900k (s) und bei AMD besser als up to 3800X. Beim 3900X Vergleich kommt es drauf an, welche Prioritäten man hat. Heisst also, wenn ich persönlich diese CPU einem up to 9900ks und up to 3800X vorziehen würde, muss es eine sehr gute CPU sein, nur es steht und fällt mit dem Preis. Hoffe Intel setzt den Preis niedrig an.
 
Kleiner Tipp: Nie im vollen GPU-Limit spielen (98% Auslastung). Dabei entsteht ein hoher unangenehmer Input Lag. Wenn man einen Framelimiter benutzt und ne Auslastung bis 90% hinkriegt, dann hat man direkt bis zu 40% Input Lag gespart,

Bitte was? Das hab ich ja noch nie gehört.

Gibts da auch eine Quelle? Sonst kann man ja viel behaupten...
 
Zurück