Intel Core i9-10900K im Video-Test: Gaming-Leistung, Overclocking und Vergleich zu AMD

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Intel Core i9-10900K im Video-Test: Gaming-Leistung, Overclocking und Vergleich zu AMD gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Core i9-10900K im Video-Test: Gaming-Leistung, Overclocking und Vergleich zu AMD
 
Wieder mal ein tolles Video von Willi, weiter so! Wenns keine Umstände macht, wäre es schön bei den Balkenvergleichen mit den Turboboost Taktraten auch eine gemessene maximale Stromaufnahme angeben könntet, da sich der Stromhunger immer mehr von der Werksangaben angegebenen TDP entfernt (und mit meinen 9900T/35Watt vergleichen kann). Was OC bringt mit erkaufter höher Stromaufnahme fände ich auch mal interessant, nicht nur was die CPU mit Glück schaffen kann.
 
Gutes Video und alles auf den Punkt gebracht.

Jeder muss halt schauen was er damit machen möchte. Es gibt keine pauschale Empfehlung. Das gilt für den I5, wie für den I9.

Für mich wäre nur noch interessant, ob der I5 beim OC die gleichen Taktraten erreicht, wie der I9. Dann wäre das schon ein Brett. 6 Kerne mit 12 Threads bei 5,3, oder gar 5,4GHz.

Jetzt muss nur noch AMD zeigen, das Sie mit ZEN3 und steigender IPC und Takt da mit gehen kann. Wobei ich da technisch keine bedenken habe. Wenn man 10-12% mehr IPC drauf legen kann und noch 200MHz mehr Takt. Dann ist man schon wieder gut dran. Ich hoffe auf die dicke Überraschung, das AMD Intel im Gaming durch die Bank schlägt.

Wobei, wenn der Intel jetzt gut schneller ist, als der 9900k, dann dürfte das knapp werden.
 
Wenn man denn jetzt entgegen aller Meinung, dass SLI tot ist, doch ein SLi System bauen möchte, auch in der Hoffnung, dass Nvidia den versteckten CFR Mode offiziell rausbringt und damit AFR begräbt, würde dann nicht eher für den absoluten Gaming Enthusiasten AMD der beste Gaming Prozessor sein (3900x oder 3950x)? Da wohl schon die RTX 2080 TI im PCI 3.0 8x im SLI ins PCI 3.0 Limit läuft, dürfte dies doch bei ampere noch mehr auffallen, sodass dann für SLI entweder PCIE4.0 oder halt die HEDT Plattform in Frage kommt. Aber der I9 10900x auf Sockel 2066 soll wohl wegen dem Mesh nicht so dolle sein wie der I9 10900K oder? Daher wäre für den absoluten Gaming Enthusiasten ja dann PCIE 4.0 Pflicht da hier 8x so schnell ist wie PCIE 3.0 16x was für Ampere im SLI ja dann notwendig wäre. Ich bastel halt gerne und selbst Metro Exodus ist mit dem neuen CFR Mode in DX12 plus Raytracing Ultra wohl im SLI gut machbar, wohingegen im AFR Mode ja DX12 oder auch die TAA Kantenglättung nicht funktioniert(oder nicht so gut)!
 
Letztendlich merkt man im Gaming Alltag den Unterschied vom zum Beispiel R7 3700X und i7 10700 eh in keinster weise, zumindest nicht wenn man in anständigen Auflösungen zockt. Gleiches gilt bei den R9 vs. i9.
 
Also Prime Small FFTs und dann die Watt bei den Temps is schon echt nice.
Und die Taktrate dabei find ich gut.

Mann ...

Blöd, dass ich schon n 9900k habe. ;)


btw: Schönes Video ! Da macht das Supporten Spaß. :daumen:

PS: Finde aber auch die Preis-/Leistungshinweise sehr gut, denn abseits von den Freaks, die sich da oben einfach was kaufen, just for fun, haben die Leute, die genauer auf den Preis gucken(is ja eigentlich nicht verkehrt ;) ) supertolle Auswahl auch, oder gerade bei AMD.
Also alles gut und für alle was dabei.

Und @ 10600k ... klar ... immer her damit ! :daumen:
Aber dann vielleicht die Preis-/Leistungshinweise gern auch etwas kürzer halten und nicht gleich das halbe Video voll damit. ;)
 
Zuletzt bearbeitet:
Tolles Video, gute CPU von Intel. Allerdings im Verhältnis zu teuer und die paar Prozent im Gamingbereich - geschenkt. Nächste CPU wird für mich also ein 3900x für Games und Handbrake/Videorendering.
 
Wenn man denn jetzt entgegen aller Meinung, dass SLI tot ist, doch ein SLi System bauen möchte, auch in der Hoffnung, dass Nvidia den versteckten CFR Mode offiziell rausbringt und damit AFR begräbt, würde dann nicht eher für den absoluten Gaming Enthusiasten AMD der beste Gaming Prozessor sein (3900x oder 3950x)? Da wohl schon die RTX 2080 TI im PCI 3.0 8x im SLI ins PCI 3.0 Limit läuft, dürfte dies doch bei ampere noch mehr auffallen, sodass dann für SLI entweder PCIE4.0 oder halt die HEDT Plattform in Frage kommt. Aber der I9 10900x auf Sockel 2066 soll wohl wegen dem Mesh nicht so dolle sein wie der I9 10900K oder? Daher wäre für den absoluten Gaming Enthusiasten ja dann PCIE 4.0 Pflicht da hier 8x so schnell ist wie PCIE 3.0 16x was für Ampere im SLI ja dann notwendig wäre. Ich bastel halt gerne und selbst Metro Exodus ist mit dem neuen CFR Mode in DX12 plus Raytracing Ultra wohl im SLI gut machbar, wohingegen im AFR Mode ja DX12 oder auch die TAA Kantenglättung nicht funktioniert(oder nicht so gut)!

Das wäre interessant wie das ausgehen würde.
Aber als Fan der Technik würde ich dann lieber noch die paar Monate warten und mit ZEN3 in die vollen gehen.
 
Sehr schönes Video.

Letztendlich merkt man im Gaming Alltag den Unterschied vom zum Beispiel R7 3700X und i7 10700 eh in keinster weise, zumindest nicht wenn man in anständigen Auflösungen zockt. Gleiches gilt bei den R9 vs. i9.
Ich denke schon das man Unterschiede merkt, auch wenn jeden AMD Fanboy der 720p Bench triggert.

Von Engine zu Engine, Spiel zu Spiel, Api zu Api, gibt es auch auf höheren Auflösungen teils noch deutliche Unterschiede, sprich dein Kommentar würde ich pauschal als Quark bezeichnen.
Es geht bei den 720p Tests meistens auf High auch nicht darum ein realistischen Szenario abzubilden sondern maximal mögliche CPU Leistung beim Rastern zu simulieren, das wurde hier schon in einem Extra Artikel erklärt:wall:.
 
Im Gamingalltag wirrd man ziehmlich sicher keine starken Auswirkungen spürren. Ob ich jetzt mit 90 der 110 FPS zocke ist scheiß egal
 
Ja stimmt aber sie ersetzen dann doch keinen Skill. Ich kann iin Warzone mit den 45 FPS aufm Laptop meine 2.45er KD genausogut halten wie mit den 160 FPS aufm PC
 
Die Tests mit Chinebench oder ähnlich langen 1 Minuten Tests zählen nicht da der 10900k sich dann 250watt nehmen darf.

Alle müssten wiederholt werden da die Tdp drastisch überschritten wird.

Dann eher auf 150watt begrenzen dann sieht das wieder anders aus.

Erst 6300 Punkte beim ersten Run.

Direkt zwei hintereinander dann hat der erste 6300 Punkte und der zweite nur noch 5600 Punkte.


Das sollten alle bedenken die das nicht wissen.

Schön geschummelt Intel.
 
Gutes Video.
Habt Ihr mal versucht ne alte Gen auf n neues MB oder die neuen CPUs auf n altes MB zu packen?
Das ist aktuell das, was mich bei Intel am meisten nervt. Ich kann mir einfach nicht vorstellen, dass die guten Boards aus der last gen nicht auch 200-250W mit der Stromversorgung packen könnten.
 
"Im Single-Core dagegen ist der 10900K dann deutlich schneller"

CB 10900K.jpg


Also ich sehe da 516 Punkte für den 3900X, und 534 Punkte für den 10900K, was nach Adam Ries eine Differenz von 18 Punkten ergibt. Ergo ist der 10900K (im Single-Core) lumpige 3,48% schneller. Ganz ehrlich, für mich persönlich ist das noch sehr weit von "deutlich schneller" entfernt. Gerade wenn man den eher so zu bezeichneten deutlich höheren Takt des 10900K berücksichtigt.

Zumal du direkt danach sagst, dass der Ryzen 3000 bei 4,7GHz die gleiche Leistung [Single-Core/pro Kern] wie der 10900K bei 5,2-5,3GHz hat.
 
"Im Single-Core dagegen ist der 10900K dann deutlich schneller"

Anhang anzeigen 1089771

Also ich sehe da 516 Punkte für den 3900X, und 534 Punkte für den 10900K, was nach Adam Ries eine Differenz von 18 Punkten ergibt. Ergo ist der 10900K (im Single-Core) lumpige 3,48% schneller. Ganz ehrlich, für mich persönlich ist das noch sehr weit von "deutlich schneller" entfernt. Gerade wenn man den eher so zu bezeichneten deutlich höheren Takt des 10900K berücksichtigt.

Zumal du direkt danach sagst, dass der Ryzen 3000 bei 4,7GHz die gleiche Leistung [Single-Core/pro Kern] wie der 10900K bei 5,2-5,3GHz hat.

Wobei der Singlecore Wert von Cinebench überhaupt nichts aussagt. Was soll man daraus ableiten? Für Spiele gewiss nicht relevant. Ist eben der Wert von Cinebench.
 
drosselt die cpu nicht nach gewisser zeit? also sollte man gaming tests nicht erst nach 10 minuten machen? ansonnsten schon sehr schnell aber für mich zu wenig an mehrgewinnn auch wenn ich mir eine 3080ti hole
 
Wobei der Singlecore Wert von Cinebench überhaupt nichts aussagt. Was soll man daraus ableiten? Für Spiele gewiss nicht relevant. Ist eben der Wert von Cinebench.
Chinebench ist geschönt von Intel.

Die 10000 Serie darf 1 Minute lang 250 Watt nehmen und nicht 125 Watt.

Das bedeutet die 6300 Punkte sind geschönt.

Macht mal schnell zwei Chinebench runs hintereinander dann hat der zweite Run nur noch 5600 Punkte.

Intel will euch für dumm verkaufen.

Nehmt mal das Tdp Limit weg und versucht ihn mal zu kühlen.

Viel Spaß damit der wird noch heißer als die 9000 Serie.

Gesendet von meinem D6603 mit Tapatalk
 
Wie AMD Fanboys hier mal wieder das Haar in der Suppe suchen....Interessant. Popcorn steht bereit. War beim Test "Intel Core i9-9900K vs. AMD Ryzen 9 3900X mit RAM-OC" bei einer Konkurrenz Seite schon so...wo
Intel bei Spielen besser weg kam...Passend zur Geschichte:Ein BMW und ein Mercedes Fahrer liefern sich ein Rennen mit ihren hochgezüchteten Autos....der Mercedes Fahrer gewinnt leicht und der BMW Fahrer nur so trotzig "Aber deiner verbraucht ja mehr" Wayne
 
das gleiche habe ich bereits auf GS geschrieben:

intel muss dringend ihr neues fertigungsverfahren auf die reihe kriegen... denn mal hand aufs herz: das ist eine reine fanboy-CPU, die man auch als heizkraftwerk hernehmen kann + wenn man action im stromzähler möchte. für leute mit vernunft ist diese CPU nicht zu empfehlen m.M.n.
Ryzen 4 kommt ja auch - und man kann davon ausgehen, dass die Ryzen dann nicht nur im multicore- und IPC-bereich besser sind, sondern dann auch intel in der single-core leistung überholt haben. natürlich freut man sich für AMD, aber wir brauchen konkurrenz, sonst macht AMD früher oder später vielleicht den gleichen mist wie intel damals... und so eine CPU ist keine konkurrenz in meinen augen.
 
Zurück