• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Core i9-10900K im Video-Test: Gaming-Leistung, Overclocking und Vergleich zu AMD

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu Intel Core i9-10900K im Video-Test: Gaming-Leistung, Overclocking und Vergleich zu AMD gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Core i9-10900K im Video-Test: Gaming-Leistung, Overclocking und Vergleich zu AMD
 

kleinemann

Komplett-PC-Aufrüster(in)
Wieder mal ein tolles Video von Willi, weiter so! Wenns keine Umstände macht, wäre es schön bei den Balkenvergleichen mit den Turboboost Taktraten auch eine gemessene maximale Stromaufnahme angeben könntet, da sich der Stromhunger immer mehr von der Werksangaben angegebenen TDP entfernt (und mit meinen 9900T/35Watt vergleichen kann). Was OC bringt mit erkaufter höher Stromaufnahme fände ich auch mal interessant, nicht nur was die CPU mit Glück schaffen kann.
 

derneuemann

BIOS-Overclocker(in)
Gutes Video und alles auf den Punkt gebracht.

Jeder muss halt schauen was er damit machen möchte. Es gibt keine pauschale Empfehlung. Das gilt für den I5, wie für den I9.

Für mich wäre nur noch interessant, ob der I5 beim OC die gleichen Taktraten erreicht, wie der I9. Dann wäre das schon ein Brett. 6 Kerne mit 12 Threads bei 5,3, oder gar 5,4GHz.

Jetzt muss nur noch AMD zeigen, das Sie mit ZEN3 und steigender IPC und Takt da mit gehen kann. Wobei ich da technisch keine bedenken habe. Wenn man 10-12% mehr IPC drauf legen kann und noch 200MHz mehr Takt. Dann ist man schon wieder gut dran. Ich hoffe auf die dicke Überraschung, das AMD Intel im Gaming durch die Bank schlägt.

Wobei, wenn der Intel jetzt gut schneller ist, als der 9900k, dann dürfte das knapp werden.
 

Alex2150

Komplett-PC-Aufrüster(in)
Wenn man denn jetzt entgegen aller Meinung, dass SLI tot ist, doch ein SLi System bauen möchte, auch in der Hoffnung, dass Nvidia den versteckten CFR Mode offiziell rausbringt und damit AFR begräbt, würde dann nicht eher für den absoluten Gaming Enthusiasten AMD der beste Gaming Prozessor sein (3900x oder 3950x)? Da wohl schon die RTX 2080 TI im PCI 3.0 8x im SLI ins PCI 3.0 Limit läuft, dürfte dies doch bei ampere noch mehr auffallen, sodass dann für SLI entweder PCIE4.0 oder halt die HEDT Plattform in Frage kommt. Aber der I9 10900x auf Sockel 2066 soll wohl wegen dem Mesh nicht so dolle sein wie der I9 10900K oder? Daher wäre für den absoluten Gaming Enthusiasten ja dann PCIE 4.0 Pflicht da hier 8x so schnell ist wie PCIE 3.0 16x was für Ampere im SLI ja dann notwendig wäre. Ich bastel halt gerne und selbst Metro Exodus ist mit dem neuen CFR Mode in DX12 plus Raytracing Ultra wohl im SLI gut machbar, wohingegen im AFR Mode ja DX12 oder auch die TAA Kantenglättung nicht funktioniert(oder nicht so gut)!
 

XXTREME

Lötkolbengott/-göttin
Letztendlich merkt man im Gaming Alltag den Unterschied vom zum Beispiel R7 3700X und i7 10700 eh in keinster weise, zumindest nicht wenn man in anständigen Auflösungen zockt. Gleiches gilt bei den R9 vs. i9.
 

ChrisMK72

PCGH-Community-Veteran(in)
Also Prime Small FFTs und dann die Watt bei den Temps is schon echt nice.
Und die Taktrate dabei find ich gut.

Mann ...

Blöd, dass ich schon n 9900k habe. ;)


btw: Schönes Video ! Da macht das Supporten Spaß. :daumen:

PS: Finde aber auch die Preis-/Leistungshinweise sehr gut, denn abseits von den Freaks, die sich da oben einfach was kaufen, just for fun, haben die Leute, die genauer auf den Preis gucken(is ja eigentlich nicht verkehrt ;) ) supertolle Auswahl auch, oder gerade bei AMD.
Also alles gut und für alle was dabei.

Und @ 10600k ... klar ... immer her damit ! :daumen:
Aber dann vielleicht die Preis-/Leistungshinweise gern auch etwas kürzer halten und nicht gleich das halbe Video voll damit. ;)
 
Zuletzt bearbeitet:

Mia-Grace-Miller

PC-Selbstbauer(in)
Tolles Video, gute CPU von Intel. Allerdings im Verhältnis zu teuer und die paar Prozent im Gamingbereich - geschenkt. Nächste CPU wird für mich also ein 3900x für Games und Handbrake/Videorendering.
 

derneuemann

BIOS-Overclocker(in)
Wenn man denn jetzt entgegen aller Meinung, dass SLI tot ist, doch ein SLi System bauen möchte, auch in der Hoffnung, dass Nvidia den versteckten CFR Mode offiziell rausbringt und damit AFR begräbt, würde dann nicht eher für den absoluten Gaming Enthusiasten AMD der beste Gaming Prozessor sein (3900x oder 3950x)? Da wohl schon die RTX 2080 TI im PCI 3.0 8x im SLI ins PCI 3.0 Limit läuft, dürfte dies doch bei ampere noch mehr auffallen, sodass dann für SLI entweder PCIE4.0 oder halt die HEDT Plattform in Frage kommt. Aber der I9 10900x auf Sockel 2066 soll wohl wegen dem Mesh nicht so dolle sein wie der I9 10900K oder? Daher wäre für den absoluten Gaming Enthusiasten ja dann PCIE 4.0 Pflicht da hier 8x so schnell ist wie PCIE 3.0 16x was für Ampere im SLI ja dann notwendig wäre. Ich bastel halt gerne und selbst Metro Exodus ist mit dem neuen CFR Mode in DX12 plus Raytracing Ultra wohl im SLI gut machbar, wohingegen im AFR Mode ja DX12 oder auch die TAA Kantenglättung nicht funktioniert(oder nicht so gut)!

Das wäre interessant wie das ausgehen würde.
Aber als Fan der Technik würde ich dann lieber noch die paar Monate warten und mit ZEN3 in die vollen gehen.
 

Infi1337

Freizeitschrauber(in)
Sehr schönes Video.

Letztendlich merkt man im Gaming Alltag den Unterschied vom zum Beispiel R7 3700X und i7 10700 eh in keinster weise, zumindest nicht wenn man in anständigen Auflösungen zockt. Gleiches gilt bei den R9 vs. i9.
Ich denke schon das man Unterschiede merkt, auch wenn jeden AMD Fanboy der 720p Bench triggert.

Von Engine zu Engine, Spiel zu Spiel, Api zu Api, gibt es auch auf höheren Auflösungen teils noch deutliche Unterschiede, sprich dein Kommentar würde ich pauschal als Quark bezeichnen.
Es geht bei den 720p Tests meistens auf High auch nicht darum ein realistischen Szenario abzubilden sondern maximal mögliche CPU Leistung beim Rastern zu simulieren, das wurde hier schon in einem Extra Artikel erklärt:wall:.
 

SalzigeKarotte

Freizeitschrauber(in)
Im Gamingalltag wirrd man ziehmlich sicher keine starken Auswirkungen spürren. Ob ich jetzt mit 90 der 110 FPS zocke ist scheiß egal
 

SalzigeKarotte

Freizeitschrauber(in)
Ja stimmt aber sie ersetzen dann doch keinen Skill. Ich kann iin Warzone mit den 45 FPS aufm Laptop meine 2.45er KD genausogut halten wie mit den 160 FPS aufm PC
 

Dragon AMD

Volt-Modder(in)
Die Tests mit Chinebench oder ähnlich langen 1 Minuten Tests zählen nicht da der 10900k sich dann 250watt nehmen darf.

Alle müssten wiederholt werden da die Tdp drastisch überschritten wird.

Dann eher auf 150watt begrenzen dann sieht das wieder anders aus.

Erst 6300 Punkte beim ersten Run.

Direkt zwei hintereinander dann hat der erste 6300 Punkte und der zweite nur noch 5600 Punkte.


Das sollten alle bedenken die das nicht wissen.

Schön geschummelt Intel.
 

rum

Software-Overclocker(in)
Gutes Video.
Habt Ihr mal versucht ne alte Gen auf n neues MB oder die neuen CPUs auf n altes MB zu packen?
Das ist aktuell das, was mich bei Intel am meisten nervt. Ich kann mir einfach nicht vorstellen, dass die guten Boards aus der last gen nicht auch 200-250W mit der Stromversorgung packen könnten.
 

INU.ID

Moderator
Teammitglied
"Im Single-Core dagegen ist der 10900K dann deutlich schneller"

CB 10900K.jpg


Also ich sehe da 516 Punkte für den 3900X, und 534 Punkte für den 10900K, was nach Adam Ries eine Differenz von 18 Punkten ergibt. Ergo ist der 10900K (im Single-Core) lumpige 3,48% schneller. Ganz ehrlich, für mich persönlich ist das noch sehr weit von "deutlich schneller" entfernt. Gerade wenn man den eher so zu bezeichneten deutlich höheren Takt des 10900K berücksichtigt.

Zumal du direkt danach sagst, dass der Ryzen 3000 bei 4,7GHz die gleiche Leistung [Single-Core/pro Kern] wie der 10900K bei 5,2-5,3GHz hat.
 

DaHell63

BIOS-Overclocker(in)
"Im Single-Core dagegen ist der 10900K dann deutlich schneller"

Anhang anzeigen 1089771

Also ich sehe da 516 Punkte für den 3900X, und 534 Punkte für den 10900K, was nach Adam Ries eine Differenz von 18 Punkten ergibt. Ergo ist der 10900K (im Single-Core) lumpige 3,48% schneller. Ganz ehrlich, für mich persönlich ist das noch sehr weit von "deutlich schneller" entfernt. Gerade wenn man den eher so zu bezeichneten deutlich höheren Takt des 10900K berücksichtigt.

Zumal du direkt danach sagst, dass der Ryzen 3000 bei 4,7GHz die gleiche Leistung [Single-Core/pro Kern] wie der 10900K bei 5,2-5,3GHz hat.

Wobei der Singlecore Wert von Cinebench überhaupt nichts aussagt. Was soll man daraus ableiten? Für Spiele gewiss nicht relevant. Ist eben der Wert von Cinebench.
 

manimani89

BIOS-Overclocker(in)
drosselt die cpu nicht nach gewisser zeit? also sollte man gaming tests nicht erst nach 10 minuten machen? ansonnsten schon sehr schnell aber für mich zu wenig an mehrgewinnn auch wenn ich mir eine 3080ti hole
 

Dragon AMD

Volt-Modder(in)
Wobei der Singlecore Wert von Cinebench überhaupt nichts aussagt. Was soll man daraus ableiten? Für Spiele gewiss nicht relevant. Ist eben der Wert von Cinebench.
Chinebench ist geschönt von Intel.

Die 10000 Serie darf 1 Minute lang 250 Watt nehmen und nicht 125 Watt.

Das bedeutet die 6300 Punkte sind geschönt.

Macht mal schnell zwei Chinebench runs hintereinander dann hat der zweite Run nur noch 5600 Punkte.

Intel will euch für dumm verkaufen.

Nehmt mal das Tdp Limit weg und versucht ihn mal zu kühlen.

Viel Spaß damit der wird noch heißer als die 9000 Serie.

Gesendet von meinem D6603 mit Tapatalk
 

TalebAn76-GER-

Komplett-PC-Aufrüster(in)
Wie AMD Fanboys hier mal wieder das Haar in der Suppe suchen....Interessant. Popcorn steht bereit. War beim Test "Intel Core i9-9900K vs. AMD Ryzen 9 3900X mit RAM-OC" bei einer Konkurrenz Seite schon so...wo
Intel bei Spielen besser weg kam...Passend zur Geschichte:Ein BMW und ein Mercedes Fahrer liefern sich ein Rennen mit ihren hochgezüchteten Autos....der Mercedes Fahrer gewinnt leicht und der BMW Fahrer nur so trotzig "Aber deiner verbraucht ja mehr" Wayne
 

MechUnit

Komplett-PC-Käufer(in)
das gleiche habe ich bereits auf GS geschrieben:

intel muss dringend ihr neues fertigungsverfahren auf die reihe kriegen... denn mal hand aufs herz: das ist eine reine fanboy-CPU, die man auch als heizkraftwerk hernehmen kann + wenn man action im stromzähler möchte. für leute mit vernunft ist diese CPU nicht zu empfehlen m.M.n.
Ryzen 4 kommt ja auch - und man kann davon ausgehen, dass die Ryzen dann nicht nur im multicore- und IPC-bereich besser sind, sondern dann auch intel in der single-core leistung überholt haben. natürlich freut man sich für AMD, aber wir brauchen konkurrenz, sonst macht AMD früher oder später vielleicht den gleichen mist wie intel damals... und so eine CPU ist keine konkurrenz in meinen augen.
 

4thVariety

Software-Overclocker(in)
Hier ist ein anderer Vorschlag für einen Benchmark. Man nehme ein Spiel und stellt die Grafik mal auf Einstellungen von normalen Leuten. Meinetwegen 1440p und alles auf hoch. Dazu nimmt man eine 2070 oder 5700XT. Dann sieht man zu wie der Unterschied zwischen CPUs für 150€ und CPUs für 750€ mal eben verdampft. Dann hat man eine realistische Perspektive und keine die verzerrt damit es besser ins PR Konzept passt. Erschwerend wird hinzukommen, dass man bei den meisten Spielen dann immer noch 60-90fps hat und bei dem ganzen E-Sport Gedöns über 200 egal mit welcher CPU aus dem Jahr 2020.

Das ist das enttäuschende an allen CPU Tests die zur Zeit da draußen rumschwirren. Damit man den Unterschied in Prozent in einem für die Zielgruppe relevantem Produkt (Videospiel) sichtbar machen kann, muss man das Produkt mit für die Zielgruppe irrelevanten Einstellungen betreiben. Ich hab gern die dicke Grafikkarte, damit ich hohe Einstellungen fahren kann. Aus meiner Perspektive sind die meisten CPU Tests irreführend wenn es darum geht exakt zu beschreiben wie die Auswirkungen auf für mich typische Einstellungen sind.

Dann kommt hinzu, dass im Bios schon manipuliert wird, dass die CPU sich für 60 Sekunden an eine Grenze bringen kann, die im Dauerbetrieb nicht aufrecht zu erhalten ist. Frontal beim Cinebench betrügen nenne ich das.
 

Dragon AMD

Volt-Modder(in)
Wie AMD Fanboys hier mal wieder das Haar in der Suppe suchen....Interessant. Popcorn steht bereit. War beim Test "Intel Core i9-9900K vs. AMD Ryzen 9 3900X mit RAM-OC" bei einer Konkurrenz Seite schon so...wo
Intel bei Spielen besser weg kam...Passend zur Geschichte:Ein BMW und ein Mercedes Fahrer liefern sich ein Rennen mit ihren hochgezüchteten Autos....der Mercedes Fahrer gewinnt leicht und der BMW Fahrer nur so trotzig "Aber deiner verbraucht ja mehr" Wayne
Und ich bin kein Fanboy von AMD oder Intel.

Ich suche kein Haar in der Suppe.

Es ist nunmal Fakt das der neue Sockel für die 10000 Serie überflüssig ist.

Dann schlägt ein 9700k einen 10600k in spielen.

Wozu dann der ganze Aufwand nur um ein paar Fps schneller zu sein.

Das rechtfertigt nicht das neue Mainboard und auch nicht den neuen Sockel.

Locker wäre der 10900k auf Z390 gelaufen wenn sie nicht den Sockel geändert hätten.

Es ist und bleibt abzocke.

Zudem in höheren Auflösungen bringt dir der 10900k vielleicht 5 Fps mehr was völlig zu vernachlässigen ist.

Oh die schnellste Gaming Cpu ja und wenn jukt der Marketing Schrott.

Dann würde mit Total War seitens Intel geworben komisch nur das AMD Ryzen da vor Intel 10900k ist.

Gesendet von meinem D6603 mit Tapatalk
 

DaHell63

BIOS-Overclocker(in)
Locker wäre der 10900k auf Z390 gelaufen wenn sie nicht den Sockel geändert hätten.
Es ist und bleibt abzocke.
Wieviele, von einem i9 9900K, meinst Du wollen aufrüsten? Die meisten kommen doch von kleineren CPUs bei denen gar kein Z390 Board vorhanden ist. Also völlig wayne wie das Board heist, neu kaufen muß man sowieso.
Stell Dir vor für meinen R9 3900X mußte ich auch ein neues Board kaufen :ugly:.

Chinebench ist geschönt von Intel.
Und wen interessiert Cinebench?
Aber ja, ich spiele auch gerne Cinebench, da kann ich auch mal mit meinem 3900X einen mit LN2 auf @6.7GHz getakteten i9 10990K schlagen. Bekomme ich jetzt nen Keks :schief: ?

Hier ist ein anderer Vorschlag für einen Benchmark. Man nehme ein Spiel und stellt die Grafik mal auf Einstellungen von normalen Leuten. Meinetwegen 1440p und alles auf hoch. Dazu nimmt man eine 2070 oder 5700XT. Dann sieht man zu wie der Unterschied zwischen CPUs für 150€ und CPUs für 750€ mal eben verdampft. Dann hat man eine realistische Perspektive und keine die verzerrt damit es besser ins PR Konzept passt.
Du meinst so wie beim R5 3600 und dem R9 3950X?

Euer ganzes gehate kann man ebenso auf AMD anwenden. Wenn ihr die CPU nicht kaufenswert findet ist es ja gut. Aber eure extra konstruierten Fakten nerven einfach nur noch und sollten einen eventuellen Neukäufer kalt lassen.
 
Zuletzt bearbeitet:

4thVariety

Software-Overclocker(in)
Du meinst so wie beim R5 3600 und dem R9 3950X?

Euer ganzes gehate kann man ebenso auf AMD anwenden. Wenn ihr die CPU nicht kaufenswert findet ist es ja gut. Aber eure extra konstruierten Fakten nerven einfach nur noch und sollten einen eventuellen Neukäufer kalt lassen.

Absolut, weil durch die Flut an Kernen als Verkaufsargument ist der nicht benötigte Overhead bei AMD noch größer.

Ein Test der sich an Gamer richtet darf sich knallhart die Frage stellen warum waren welche CPUs bisher genug und welche CPUs werden in Zukunft genug sein. Dann kommt man unweigerlich auf AMD Jaguar zu sprechen, der mit 1,8GHz getaktet und mit nur vier Floating Point Units in den Konsolen steckte. Jede Engine war darauf ausgerichtet auf dem Ding mal mindestens 30fps auszuspucken und an die GPU zu schieben. Das wiederum hat dazu geführt, dass auf dem PC jeder Vierkerner genug war (vgl. Anzahl Floating Point Units) und Intel dem Ding so weit entlaufen ist, dass ohne Mühe 60-200fps möglich waren. Egal wie schlecht die CPU war, der Konsolenmarkt ist der Milliardenmarkt für den die Grafikbomben entwickelt werden. Das hat diesen extrem langsamen AMD zur Referenz gemacht.


Mit den neuen Konsolen, wird sich diese Referenz ändern. Jetzt steckt in den Konsolen ein AMD 8-Kern der bei 3.5GHz festgepint ist. Da ist nix mit Turbo-Boost einzelner Kerne, die Hitze spart man sich für die GPU auf dem APU Die.

Dann geht die Abzocke schon los. Den 3600 findet man für 170€, also 28€ pro Kern, den 8-Kern lässt sich AMD mit satten 36€ pro Kern bezahlen, das macht dann 290€. Drüben bei Intel ruft man gar 450€ für einen 8 Kerner mit SMT auf. Wenn da wirklich mal ein Konsolenspiel kommt, das die 8-Kerne braucht um 30fps auszuspucken (GTA6, Assissin's Creed, CoD), dann stehen PC Spieler aber vor einer ganz brutalen Realität. Die lautet, dass sowohl Intel als auch AMD jahrelang nur getrickst haben um in veralteten Engines ohne echte Multikernunterstützung gut auszusehen, aber preislich total den Anschluss verpasst haben.

Knallhart gesagt müssten 8/16 Prozessoren in das Preissegment unter 200€ rutschen bevor die neuen Konsolen die PC Spiele abwürgen. Die andere Alternative ist, dass die CPU in den neuen Konsolen selbst dort überdimensioniert ist. Dann kann die CPU aber wirklich gleich mit in die Grafikkarte wandern, so wie T&L Instruktionen, oder PhysX.
 

Dragon AMD

Volt-Modder(in)
Absolut, weil durch die Flut an Kernen als Verkaufsargument ist der nicht benötigte Overhead bei AMD noch größer.

Ein Test der sich an Gamer richtet darf sich knallhart die Frage stellen warum waren welche CPUs bisher genug und welche CPUs werden in Zukunft genug sein. Dann kommt man unweigerlich auf AMD Jaguar zu sprechen, der mit 1,8GHz getaktet und mit nur vier Floating Point Units in den Konsolen steckte. Jede Engine war darauf ausgerichtet auf dem Ding mal mindestens 30fps auszuspucken und an die GPU zu schieben. Das wiederum hat dazu geführt, dass auf dem PC jeder Vierkerner genug war (vgl. Anzahl Floating Point Units) und Intel dem Ding so weit entlaufen ist, dass ohne Mühe 60-200fps möglich waren. Egal wie schlecht die CPU war, der Konsolenmarkt ist der Milliardenmarkt für den die Grafikbomben entwickelt werden. Das hat diesen extrem langsamen AMD zur Referenz gemacht.


Mit den neuen Konsolen, wird sich diese Referenz ändern. Jetzt steckt in den Konsolen ein AMD 8-Kern der bei 3.5GHz festgepint ist. Da ist nix mit Turbo-Boost einzelner Kerne, die Hitze spart man sich für die GPU auf dem APU Die.

Dann geht die Abzocke schon los. Den 3600 findet man für 170€, also 28€ pro Kern, den 8-Kern lässt sich AMD mit satten 36€ pro Kern bezahlen, das macht dann 290€. Drüben bei Intel ruft man gar 450€ für einen 8 Kerner mit SMT auf. Wenn da wirklich mal ein Konsolenspiel kommt, das die 8-Kerne braucht um 30fps auszuspucken (GTA6, Assissin's Creed, CoD), dann stehen PC Spieler aber vor einer ganz brutalen Realität. Die lautet, dass sowohl Intel als auch AMD jahrelang nur getrickst haben um in veralteten Engines ohne echte Multikernunterstützung gut auszusehen, aber preislich total den Anschluss verpasst haben.

Knallhart gesagt müssten 8/16 Prozessoren in das Preissegment unter 200€ rutschen bevor die neuen Konsolen die PC Spiele abwürgen. Die andere Alternative ist, dass die CPU in den neuen Konsolen selbst dort überdimensioniert ist. Dann kann die CPU aber wirklich gleich mit in die Grafikkarte wandern, so wie T&L Instruktionen, oder PhysX.
Und wo ist in diesem Video die große Verbesserung von Intel 10000 Serie?

Der 8700k ist gleichauf mit dem 10600k.

YouTube

Beides 6 cores und 12 Threads also guter Vergleich.

Lächerlich von Intel.

AMD hat es geschafft das es mehr Kerne gibt für Gaming und Anwendungen das hätte Intel nicht einfach so gemacht.
 

derneuemann

BIOS-Overclocker(in)
Die Tests mit Chinebench oder ähnlich langen 1 Minuten Tests zählen nicht da der 10900k sich dann 250watt nehmen darf.

Alle müssten wiederholt werden da die Tdp drastisch überschritten wird.

Dann eher auf 150watt begrenzen dann sieht das wieder anders aus.

Erst 6300 Punkte beim ersten Run.

Direkt zwei hintereinander dann hat der erste 6300 Punkte und der zweite nur noch 5600 Punkte.


Das sollten alle bedenken die das nicht wissen.

Schön geschummelt Intel.

Test gelesen? Oder nur überflogen und dann Details verpasst. Du solltest mal den ganzen Text lesen.

"Im Single-Core dagegen ist der 10900K dann deutlich schneller"

Anhang anzeigen 1089771

Also ich sehe da 516 Punkte für den 3900X, und 534 Punkte für den 10900K, was nach Adam Ries eine Differenz von 18 Punkten ergibt. Ergo ist der 10900K (im Single-Core) lumpige 3,48% schneller. Ganz ehrlich, für mich persönlich ist das noch sehr weit von "deutlich schneller" entfernt. Gerade wenn man den eher so zu bezeichneten deutlich höheren Takt des 10900K berücksichtigt.

Zumal du direkt danach sagst, dass der Ryzen 3000 bei 4,7GHz die gleiche Leistung [Single-Core/pro Kern] wie der 10900K bei 5,2-5,3GHz hat.

Das habe ich auch gedacht, wobei man auch nicht vergessen darf, das Cinebench auch nicht die Spieleleistung wiederspiegelt.


Je nach Anwendungen hat AMD eine sehr hohe Leistung pro Takt und hier im CB von deutlich zu sprechen ist wirklich etwas putzig.

drosselt die cpu nicht nach gewisser zeit? also sollte man gaming tests nicht erst nach 10 minuten machen? ansonnsten schon sehr schnell aber für mich zu wenig an mehrgewinnn auch wenn ich mir eine 3080ti hole

Test lesen, da drosselt nichts, weil im Gaming die TDP ausreicht.
Spiele sind keine synthetische Vollast.

Hier ist ein anderer Vorschlag für einen Benchmark. Man nehme ein Spiel und stellt die Grafik mal auf Einstellungen von normalen Leuten. Meinetwegen 1440p und alles auf hoch. Dazu nimmt man eine 2070 oder 5700XT. Dann sieht man zu wie der Unterschied zwischen CPUs für 150€ und CPUs für 750€ mal eben verdampft. Dann hat man eine realistische Perspektive und keine die verzerrt damit es besser ins PR Konzept passt. Erschwerend wird hinzukommen, dass man bei den meisten Spielen dann immer noch 60-90fps hat und bei dem ganzen E-Sport Gedöns über 200 egal mit welcher CPU aus dem Jahr 2020.

Das ist das enttäuschende an allen CPU Tests die zur Zeit da draußen rumschwirren. Damit man den Unterschied in Prozent in einem für die Zielgruppe relevantem Produkt (Videospiel) sichtbar machen kann, muss man das Produkt mit für die Zielgruppe irrelevanten Einstellungen betreiben. Ich hab gern die dicke Grafikkarte, damit ich hohe Einstellungen fahren kann. Aus meiner Perspektive sind die meisten CPU Tests irreführend wenn es darum geht exakt zu beschreiben wie die Auswirkungen auf für mich typische Einstellungen sind.

Dann kommt hinzu, dass im Bios schon manipuliert wird, dass die CPU sich für 60 Sekunden an eine Grenze bringen kann, die im Dauerbetrieb nicht aufrecht zu erhalten ist. Frontal beim Cinebench betrügen nenne ich das.

Nein, dann sieht man den Unterschied der CPUs nicht.

Und ich bin kein Fanboy von AMD oder Intel.

Ich suche kein Haar in der Suppe.

Es ist nunmal Fakt das der neue Sockel für die 10000 Serie überflüssig ist.

Dann schlägt ein 9700k einen 10600k in spielen.

Wozu dann der ganze Aufwand nur um ein paar Fps schneller zu sein.

Das rechtfertigt nicht das neue Mainboard und auch nicht den neuen Sockel.

Locker wäre der 10900k auf Z390 gelaufen wenn sie nicht den Sockel geändert hätten.

Es ist und bleibt abzocke.

Zudem in höheren Auflösungen bringt dir der 10900k vielleicht 5 Fps mehr was völlig zu vernachlässigen ist.

Oh die schnellste Gaming Cpu ja und wenn jukt der Marketing Schrott.

Dann würde mit Total War seitens Intel geworben komisch nur das AMD Ryzen da vor Intel 10900k ist.

Gesendet von meinem D6603 mit Tapatalk

Von Fakten sprechen, ganz dem Motto, wer am lautesten ruft hat Recht.

Wie immer kommt es doch darauf an, wofür wer auch immer eine CPU kaufen will.

Für mich wäre es die beste CPU die ich kaufen kann.
1. In Games effizienter als AMD ZEN 2
2. Sofern die GPU nicht limitiert meistens deutlich schneller
3. Gerade für das für mich wichtigste Spiel (natürlich sehr eingeschränkte Sichtweise) massiv schneller, als ZEN2, hier kommt kein ZEN2 an einem Skylake vorbei.

Dann noch eine Frage, wer bist du, um anderen vorzuschreiben, wie viele Frames genug sind? Das ist nun mal von der eigenen Wahrnehmung abhängig.
Wobei recht hast du schon, besser wäre für mich ein 10600k mit OC, weil der in meinem Lieblingsspiel genau so schnell wäre, gleicher Takt voraus gesetzt und für die meisten anderen Spiele wird es wohl wahrlich keinen großen Unterschied machen.

Eines bleibt aber, für den Zocker von uns, ist es einfach die schnellste CPU die man kaufen kann.

Ich hoffe noch auf ein ZEN 3 8 Kerner der richtig abräumt, warten wir mal ab. Ich will mal wieder AMD im System.

Und wo ist in diesem Video die große Verbesserung von Intel 10000 Serie?

Der 8700k ist gleichauf mit dem 10600k.

YouTube

Beides 6 cores und 12 Threads also guter Vergleich.

Lächerlich von Intel.

AMD hat es geschafft das es mehr Kerne gibt für Gaming und Anwendungen das hätte Intel nicht einfach so gemacht.

So ist das nun mal , wenn ein Unternehmen zu lange keine Konkurrenz bieten kann. Also danke AMD, das es so lange gedauert hat. Sich zu bedanken, das AMD zu lange schlechte CPUs hatte ist doch total Banane, aber nichts anderes machen die Leute die sich hier bei AMD bedanken.

Wir alle sollten einfach hoffen, das AMD genug stärke dazu gewinnt aktuell, durch ZEN2/3, bevor Intel den nächsten großen Wurf landet, damit wir längerfristig ein Konkurrenzkampf haben. Nicht das sich alles Wiederholt. Wobei es einfach wahrscheinlich ist.

Dann ist AMD aktuell und vielleicht noch zwei Jahre gut dabei und kann vielleicht sogar Intel im Gaming bis dahin ausstechen (ich hoffe es), dann kommt es aber drauf an, das AMD am Ball bleibt. Ich denke, realistisch ist, das Intel vielleicht in 2 Jahren wieder einen großen Schritt macht und wieder davon zieht.

Ehrlich, meine Hoffnung ist, das ZEN3 wie eine Bombe einschlägt und tatsächlich auch im Gaming schneller ist, dann werde ich überall so viel Werbung wie möglich und auch jedem nur noch AMD einbauen.

Der Gedankengang zu den Konsolen ist auch gut, denn es wird so sein, das die in den MEISTEN Spielen, NICHT ALLEN wieder den Ton angeben. Das würde aber auch bedeuten, das bei vernünftiger Optimierung auch weiterhin ein skylake 4 Kerner mit HT reichen müsste, spätestens mit OC, ist der immer auch so stark wie ein ZEN 2 mit 35W (Konsole). Wenn es bei dem zu Problemen kommen würde, wäre das eher eine Designentscheidung der Programmierer und nicht eine Frage der Leistung.

Aber, es kommt auch schon öfter vor, das man absehen kann, das die neuen Konsolen auch wieder mit hohen Details, an den 30Fps kratzen werden.

Ich hoffe auch, das endlich wieder Spiele kommen, die zum Aufrüsten anregen und nicht nur die GPU. Die Spiele sollen ein viel bessere Immersion erzeugen und dazu brauchen wir deutlich mehr Leistung pro Kern. Kerne gibt es ja erstmal genug, jetzt muss wieder die Leistung pro Kern steigen, bzw. beides.

AMD hat nur geschafft das nachzuholen, was man über Jahre versäumt hat.
 

Dragon AMD

Volt-Modder(in)
Der Boost den der 10900k zu Anfang macht ist immer noch eine Mogelpackung da er in Chinebench suggeriert das er die angegebenen Punkte hervorbringt.

Nur um gegen AMD besser da stehen zu wollen.

Es zählt eher der Chinebench Run mit den 125tdp die er zwar überschreitet das machen andere cpu's auch.

Der Boost mit 250watt ist nicht die Realität.

Ohne die 2 Kerne und die 4 Threads mehr wäre er bestimmt gleich schnell wie ein 9900k oder 9900ks.

Alleine der Vergleich zwischen 8700k und 10600k zeigt schon das sich da sehr wenig getan hat.

Da warte ich locker auf die nächste Generationen von Intel oder AMD.

Das gesparte Geld ist dann besser zu verwenden mit neuen Gpu's und cpu's.

Natürlich wäre mehr fps geil aber nicht für ein neues Mainboard on top auf den 10900k oder 10700k.

Zudem gibt es dann ordentlichen Support von pci-e 4.0 auf beiden Seiten hoffe ich.

Auch von Nvidia mit der 3000 Serie.

Die paar weniger fps die man aktuell hat machen den Kohl nicht fett.



Gesendet von meinem D6603 mit Tapatalk
 
E

eclipso

Guest
Das gesparte Geld ist dann besser zu verwenden mit neuen Gpu's und cpu's.
Ich würde das Geld vor allem in eine schnellere GPU investieren, weil das ab einer s´bestimmten Kernanzahl und Anwenderauflösung höher als 720p unter Spielen in der Praxis deutlich mehr bringt. Den 720p Puristen wird das nicht abhalten. Dann ist der 10900k nur marginal schneller als ein 8700k oder 3700x. Im (Anwendungs-) CPU Limit schießt beim 10900k dann der Energieverbrauch in die Höhe und braucht besondere Kühloptionen. Muss man ja auch mit einbeziehen, als Folgekosten.

Ich halte den 10900k für eine Art Machbarkeitsstudie was man aus 14nm noch rausquetschen kann, was für den Großteil der OC hier sicher interessant ist, wenn man einen gemeinsamen Score vergleicht.
 

Dragon AMD

Volt-Modder(in)
Ich würde das Geld vor allem in eine schnellere GPU investieren, weil das ab einer s´bestimmten Kernanzahl und Anwenderauflösung höher als 720p unter Spielen in der Praxis deutlich mehr bringt. Den 720p Puristen wird das nicht abhalten. Dann ist der 10900k nur marginal schneller als ein 8700k oder 3700x. Im (Anwendungs-) CPU Limit schießt beim 10900k dann der Energieverbrauch in die Höhe und braucht besondere Kühloptionen. Muss man ja auch mit einbeziehen, als Folgekosten.
Die Kühllösungen sind eine andere Geschichte wenn man die Cpu's am Limit betreibt.

Mir erschließt sich aber nicht der Grund von Sockel 1200.

Denn 8700k und 10600k sind gleich schnell mit gleich vielen Kernen.

Das einzige was man sehen kann ist reine Geldmacherei von seitens Intel und Mainboard Hersteller.

Dann ist der 9700k schneller als der 10600k.

Es würde sich nur lohnen von Intel 7700k auf Intel 10000 Serie zu gehen.

Oder von Ryzen 2000 Serie auf Intel 10000 Serie.

Aber da würde ich abwägen wer ein b450 oder x470 Mainboard hat der könnte auch Ryzen 4000 nehmen.

Gesendet von meinem D6603 mit Tapatalk
 
E

eclipso

Guest
Knallhart gesagt müssten 8/16 Prozessoren in das Preissegment unter 200€ rutschen....

Bekommst du, in Form vom 2700 (eine Zeitlang sogar als x) . Nur weil der schon 2 Jahre alt ist, mutiert er nicht gleich zu einen lahmen Gurke. Kaufst ein X/B450 MB und kannst (nunmehr) Zen 3 noch betreiben. Ziemlich kostengünstig sogar, weil sie abverkauft werden.

Ab und an zu finden, der kostete vor covid sogar deutlich unter 200: AMD Ryzen 7 2700, 8x 3.20GHz, boxed ab €'*'199,90 (2020) | Preisvergleich Geizhals Deutschland

Mir erschließt sich aber nicht der Grund von Sockel 1200. Das einzige was man sehen kann ist reine Geldmacherei von seitens Intel und Mainboard Hersteller.
Da funktionierte AMD zuletzt nicht anders und hat (lediglich) der Community nachgegeben, vor hatte man was anderes: nämlich Beschränkungen innerhalb des gleiches Sockel.

S1200 ist schon Gen11 kompatibel (natürlich muss man darauf achten, ob schon PCIe4.0 ready oder nicht).
 
Zuletzt bearbeitet von einem Moderator:

simon3004

PC-Selbstbauer(in)
Hier ist ein anderer Vorschlag für einen Benchmark. Man nehme ein Spiel und stellt die Grafik mal auf Einstellungen von normalen Leuten. Meinetwegen 1440p und alles auf hoch. Dazu nimmt man eine 2070 oder 5700XT. Dann sieht man zu wie der Unterschied zwischen CPUs für 150€ und CPUs für 750€ mal eben verdampft. Dann hat man eine realistische Perspektive und keine die verzerrt damit es besser ins PR Konzept passt. Erschwerend wird hinzukommen, dass man bei den meisten Spielen dann immer noch 60-90fps hat und bei dem ganzen E-Sport Gedöns über 200 egal mit welcher CPU aus dem Jahr 2020.

Das ist das enttäuschende an allen CPU Tests die zur Zeit da draußen rumschwirren. Damit man den Unterschied in Prozent in einem für die Zielgruppe relevantem Produkt (Videospiel) sichtbar machen kann, muss man das Produkt mit für die Zielgruppe irrelevanten Einstellungen betreiben. Ich hab gern die dicke Grafikkarte, damit ich hohe Einstellungen fahren kann. Aus meiner Perspektive sind die meisten CPU Tests irreführend wenn es darum geht exakt zu beschreiben wie die Auswirkungen auf für mich typische Einstellungen sind.

Dann kommt hinzu, dass im Bios schon manipuliert wird, dass die CPU sich für 60 Sekunden an eine Grenze bringen kann, die im Dauerbetrieb nicht aufrecht zu erhalten ist. Frontal beim Cinebench betrügen nenne ich das.
Du verstehst anscheinend nicht den Sinn eines CPU Tests. Es soll die Leistung der CPU und nicht der GPU gemessen werden. Selbst 720p Benchmarks zeigen dir alles auf, was du über die CPU wissen musst. Wenn die CPU in 720p erst bei 200fps limitiert, dann weißt du das die CPU auf jeden Fall mehr als schnell genug ist. Wenn der Benchmark bei einer anderen CPU 80fps als CPU Limit aufzeigt, dann weißt du das die CPU zu langsam ist wenn du über 80fps anstrebst. So gesehen zeigt ein CPU Benchmark nur auf wieviel FPS maximal möglich sind. Wenn du 4K spielst wirst du aber eh deutlich drunter liegen. Für Leute die 100+FPS anstreben ist ein CPU Bench jedoch sehr wichtig, um zu sehen, ob der 144hz Monitor auch genug Bilder bekommt und nicht durch die CPU eingebremst wird.
 
E

eclipso

Guest
Du verstehst anscheinend nicht den Sinn eines CPU Tests. Es soll die Leistung der CPU und nicht der GPU gemessen werden. Selbst 720p Benchmarks zeigen dir alles auf, was du über die CPU wissen musst. Wenn die CPU in 720p erst bei 200fps limitiert, dann weißt du das die CPU auf jeden Fall mehr als schnell genug ist. Wenn der Benchmark bei einer anderen CPU 80fps als CPU Limit aufzeigt, dann weißt du das die CPU zu langsam ist wenn du über 80fps anstrebst. So gesehen zeigt ein CPU Benchmark nur auf wieviel FPS maximal möglich sind. Wenn du 4K spielst wirst du aber eh deutlich drunter liegen. Für Leute die 100+FPS anstreben ist ein CPU Bench jedoch sehr wichtig, um zu sehen, ob der 144hz Monitor auch genug Bilder bekommt und nicht durch die CPU eingebremst wird.

Für Leute ist es vor allem wichtig zu wissen, ob ein Spiel überhaupt CPU limitiert ist und der Trend geht immer dazu über, dass die CPU als Host fast zu belanglos wird und sich in den meisten Fällen eher ziemlich langweilt. Da kann sie noch so schnell sein.

Ein Spiel kann auch in 720p schon "grafisch" limitiert sein, dann helfen nur die Regler im Spiel zu bedienen um die Hardware per gewähltem Profil zu entlasten, nicht mehr für schnellere CPUs rauszuschmeißen dessen Leistung ich nie abrufen kann wenn ich auflösungsbedingt zumeist GPU limitiert unterwegs bin. Alltagstauglich bei 1080p und nunmehr 1440p als weit verbreitete Auflösung in Spielen, sind 720p Tests alleine nicht mehr.

Vor allem erweckt es völlig falsche Hoffnungen...wie geschrieben, Geld lieber in die GPU stecken!, bringt ab gewissen Auflösungen mehr.
 

simon3004

PC-Selbstbauer(in)
Für Leute ist es vor allem wichtig zu wissen, ob ein Spiel überhaupt CPU limitiert ist und der Trend geht immer dazu über, dass die CPU als Host fast zu belanglos wird und sich in den meisten Fällen eher ziemlich langweilt. Da kann sie noch so schnell sein.

Ein Spiel kann auch in 720p schon "grafisch" limitiert sein, dann helfen nur die Regler im Spiel zu bedienen um die Hardware per gewähltem Profil zu entlasten, nicht mehr für schnellere CPUs rauszuschmeißen dessen Leistung ich nie abrufen kann wenn ich auflösungsbedingt zumeist GPU limitiert unterwegs bin. Alltagstauglich bei 1080p und nunmehr 1440p als weit verbreitete Auflösung in Spielen, sind 720p Tests alleine nicht mehr.

Vor allem erweckt es völlig falsche Hoffnungen...wie geschrieben, Geld lieber in die GPU stecken!, bringt ab gewissen Auflösungen mehr.
Es gibt haufenweise Spiele, bei denen selbst in 1080p oder 1440p die CPU limitiert. Deine Aussage, das Geld lieber in eine neuere GPU zu stecken ist auch zu verallgemeinert. Wenn ich schon im CPU Limit bin, wozu soll ich dann Geld für ne neue GPU ausgeben. Das Problem ist, dass du die Ergebnisse falsch interpretierst. Der CPU Benchmark zeigt nur an wie hoch dein FPS Bottleneck liegt. Wenn du nur 4K spielst und nie über 60fps kommst, dann brauchst du wahrscheinlich keine CPU die 200fps schafft. Falsche Hoffnungen werden nur bei Leuten erweckt, die wirklich keine Ahnung von der Materie haben.
 

Dragon AMD

Volt-Modder(in)
Es gibt haufenweise Spiele, bei denen selbst in 1080p oder 1440p die CPU limitiert. Deine Aussage, das Geld lieber in eine neuere GPU zu stecken ist auch zu verallgemeinert. Wenn ich schon im CPU Limit bin, wozu soll ich dann Geld für ne neue GPU ausgeben. Das Problem ist, dass du die Ergebnisse falsch interpretierst. Der CPU Benchmark zeigt nur an wie hoch dein FPS Bottleneck liegt. Wenn du nur 4K spielst und nie über 60fps kommst, dann brauchst du wahrscheinlich keine CPU die 200fps schafft. Falsche Hoffnungen werden nur bei Leuten erweckt, die wirklich keine Ahnung von der Materie haben.
Erst sollte man immer heraus finden was limitiert und dann je nach limit gpu oder cpu upgraden.

Das ist die beste faustformel dafür.

Gesendet von meinem SM-A520F mit Tapatalk
 

Manner1a

Freizeitschrauber(in)
Vielleicht nimmt PCGH den i5-10400 oder i5-10400F in einem eigenen Artikel noch genauer unter die Lupe.

Steve Burke von Gamers Nexus gibt durch die Mehrkosten des Z490 Chipsatzes für die kleinsten 6 Kerner keine Kaufempfehlung. Viel wahrscheinlicher sei die Verwendung eines später folgenden Mainboards mit kleinem Chipsatz und damit einhergend einer Begrenzung der unterstützten Geschwindigkeiten des Arbeitsspeichers. Getestet wurde mit DDR4-2666, also dem was Intel offiziell freigibt für den i5-10400. Ich schätze mal, das ist eine Frage von echten Preisen für RAM und Mainboard.

Das einzige, was er übersehen haben könnte, ist der immer noch recht attraktive Aufrüstpfad später von 10400 auf 10900 (K) oder später Rocket Lake oder wenn bei starker Plattform die letzten "Bucks" für einen 10600K gefehlt haben oder dieses Mehr an Rechenleistung einfach nicht benötigt wird. Ich mag auch den i5-10400. Trotzdem hört sich diese Nicht Kaufempfehlung plausibel an.

YouTube

Zum 10600K, sagt er: "Please overclock it." :D
 
Oben Unten