Intel Core i9-11900K, i7-11700K und i5-11600K im Test: Auf dem Thron ist nur Platz für einen Prozessor

CPUs testet man Grundsätzlich nicht mit Spielen, sondern Anwendungen!

Nein, mach man nicht, da es da immer schwächen gibt. So wäre ein altes 64 Kern Atomsystem durchaus auf dem Niveau eines i9 10900K oder R7 3800X, in Spielen wäre die CPU aber nicht wirklich zu gebrauchen.

Und weil es hier eben eine Spieleseite ist, hätte man auch realistische Auflösungen nehmen können, um zu zeigen, dass die neuen CPUs blödsin sind zu kaufen, die bringen keinen Mehrwert, weil GPUs eh ab 1440p schlapp machen, egal welche CPU verbaut ist.

Ich kann aus eigener Erfahrung sagen, dass das nicht stimmt. Mein i7 3770 hat bei meiner GTX 980Ti einiges an Leistung liegen gelassen, die FPS waren oft wie festbetoniert, egal ob ich Full HD@ niedrig oder WQHD@Ultra genommen habe. Eine neuere Karte hätte wenig Sinn ergeben, da ich mit der CPU die Mehrleistung nicht hätte ausspielen können. Ein CPU Test soll genau das aufzeigen.
Hier mal ein richtiger Benchmark!

Besitzt in Spielen wenig Aussagekraft.
 
Warst du nicht der, der sogar ein Golden Sample des 10900K erworben hat? :gruebel:Einen derart optimierten 10900K, der beim Arbeitsspeicher locker auch >DDR4-4700 mit macht, dürfte einen 11900K locker "an die Wand klatschen" (und wäre dabei sogar noch sparsamer). In Szenarien mit hoher Parallelisierung könntest du sogar Leistung verlieren. Wozu dann das "Upgrade"? :ka:

Golden Sample glaube ich nich/weiß ich nicht. Meiner war ausm Luxx Forum von Cens, angeblich ein 5,3GHZ Modell...
Ram war bei dem von mir erworbenen Modell nur auf 4000 Mhz getestet worden.

Momentan rennt der bei mir auf 5.0 Ghz (Core 1-3 wie Serie) und dem 4000er RAM.
Nachdem ich die VCCIO und VCCSA Spannung auf 1.25 gestellt habe, ist alles gelaufen.
Wie weit der noch hoch geht, weiß ich nicht genau. Bin mir im Moment nicht sicher mit welchen Tools ich das am gescheitesten machen soll.

Was meinst Du mit welcher GHZ / RAM Config könnte man dem 11900K Paroli bieten/gleich ziehen ?

Das PCI-E 4.0 Upgrade dann lieber außer Acht lassen ?

Die Vorbestellung vom 11900K wurde von Proshop verschoben. (550 Euro)....

Dann wäre das Z590-E hier aufm Tisch ja nur noch wegen der guten VRM Versorgung nutzbar....
 
Zuletzt bearbeitet:
Nein, mach man nicht, da es da immer schwächen gibt. So wäre ein altes 64 Kern Atomsystem durchaus auf dem Niveau eines i9 10900K oder R7 3800X, in Spielen wäre die CPU aber nicht wirklich zu gebrauchen.
64 Atomkerne? Sowas gibts nicht !

Ich kann aus eigener Erfahrung sagen, dass das nicht stimmt. Mein i7 3770 hat bei meiner GTX 980Ti einiges an Leistung liegen gelassen, die FPS waren oft wie festbetoniert, egal ob ich Full HD@ niedrig oder WQHD@Ultra genommen habe. Eine neuere Karte hätte wenig Sinn ergeben, da ich mit der CPU die Mehrleistung nicht hätte ausspielen können. Ein CPU Test soll genau das aufzeigen.
Mit solcher Museeumshardware bist Du disqualifiziert. Komm mal im 2021 an!

Besitzt in Spielen wenig Aussagekraft.
Alles abhängig vom Betrachtungswinkel.. Die MISCHUNG macht es !
 
Hier mal ein richtiger Benchmark!
Wie du siehst, gibt es auch zahlreiche andere Medien die sich dem Thema widmen.
Da Intel die neuen CPUs selbst als die non-plus-ultra-gaming-CPU vermarktet ist es doch auch nur recht, dass PC Games Hardware sich hier auf seine ursprüngliche Kernkompetenz besinnt :nicken:

Zur Not guckt man halt schnell mal bei userbenchmark vorbei, da gibts eine Zahl und einen Balken und schon weißte bescheid, dass der 11900K 11% schneller als der 5950X ist.
Krasser shice. Was Intel da für eine Wunder-CPU gebaut hat grenzt schon an Magie :ugly:

1617182838787.png

:stupid::fresse:
 
Als ob sich irgend ein Politiker nach dir richten wird. Das wird natürlich schön niedrig angesetzt. Mit Glück werden es 75W für die GPU und 50W für die CPU. Wobei man da dann das Ziel des unter 100W Gaming PC verfehlen wird.


Das könnte man so machen, allerdings geben sich Politiker selten mit den Sinnvollen zufrieden. Von daher muß man sagen: wehret den Anfängen.

Ich wette übrigens, wenn AMD wieder zurückfallen sollte und sie diese Maßnahme, mit aller Härte trifft, dann wirst du einer der ersten sein, das herummotzt.

Eine gesetzliche Regelung kommt halt meist dann, wenn die Industrie maßlos wird. Und wenn eine 125W CPU 400W schluckt, dann kann man davon schon reden. Ich kann weder bei GPUs noch bei CPUs diesen Verbrauchsmonstern viel abgewinnen. Es vergeudet Energie und der Aufwand die Dinger zu kühlen explodiert.

Selbst wenn man 100W für GPU und CPU festlegen würde, dann käme man immer noch in Leistungsbereiche die vor 5 Jahren noch High-End waren.
 
Wie du siehst, gibt es auch zahlreiche andere Medien die sich dem Thema widmen.
Da Intel die neuen CPUs selbst als die non-plus-ultra-gaming-CPU vermarktet ist es doch auch nur recht, dass PC Games Hardware sich hier auf seine ursprüngliche Kernkompetenz besinnt :nicken:

Zur Not guckt man halt schnell mal bei userbenchmark vorbei, da gibts eine Zahl und einen Balken und schon weißte bescheid, dass der 11900K 11% schneller als der 5950X ist.
Krasser shice. Was Intel da für eine Wunder-CPU gebaut hat grenzt schon an Magie :ugly:

Anhang anzeigen 1359220
:stupid::fresse:

JEDE WEBSEITE hat andere Benchmarks!

1617186634783.png
 
JEDE WEBSEITE hat andere Benchmarks!
Ja, aber was willst du mir damit jetzt sagen?
Ist doch gut, dass es soviele unterschiedliche Tests gibt.
Wer Anwendungs-Tests sehen will der hat ja drölfzig Alternativen zur PCGH.
Ein Cinebench Balken hat auch null Aussagekraft für sich allein, weder für Games noch für Anwendungen :ka:
 
Eben im Livestream mit Roman und einem Intel-Marketing-Ansprechpartner war erst das Argument, dass RL für Gamer gemacht wurde, auch im Zusammenhang mit den stark angestiegenen Ausmaßen und deswegen sogar 2 Kerne geopfert werden mussten. Der Anteil der IGP ist dementsprechend auch stark gewachsen. Gamer, die eine IGP brauchen/nutzen/wollen sind wie oft vorhanden? Es ist so unlogisch argumentiert, was von Intel da kommt... Man merkt, dass RL schon vor Jahren geplant war und bis heute mit der Uraltfertigung gearbeitet werden muss. Einfach mal die IGP weglassen und dafür mehr Kerne unterbringen war nicht mehr drin. Lustig ist nur, dass vom 11900K bis runter zum 11400F eigentlich alles das gleiche ist.

RKL wurde vermutlich sogar erst vor relativ kurzer Zeit konzipiert, besteht aber eben nur aus Copy-&-Paste-Bauteilen. Da es ebensowenig akzeptabel wäre, eine komplett IGP-freie 11th Gen zu machen (Intel verdient nun einmal sehr viel Geld mit Office-PCs, die zweckse Werbung keine "alte" Technik enthalten dürfen) wie im Jahr 2021 eine IGP mit Multimedia-Beschleunigungs(un)fähigkeiten und Display-Anschlüssen komplett auf dem Stand von Anno dazu mal zu verkaufen, haben sie also die kleinste Xe-Ausbaustufe aus dem Tiger-Lake-Baukasten genommen. Für Gamer ist ärgerlich, dass diese alles andere als klein ist, aber jede weitere Reduzierung hätte Ingenieursaufwand bedeutet und der war bei diesem Lückenfüller nicht vorgesehen.

Davon abgesehen ist das Argument mit "weniger Kerne weil unsere Kerne sind SOOOO FETT" ganz klar vorgeschoben: Intel hat weitaus größere Chips im Programm und da das physische Layout sowieso neu konzipiert werden musste, hätte man auch im Sockel 1200 mehr Silizium unterbringen können. Wäre beim derzeitigen 14-nm-Kapazitätsüberschuss vielleicht nicht einmal viel teurer gewesen. Aber das größere Problem dürfte der Stromverbrauch sein. Es dürfte für Intel von Anfang an offensichtlich gewesen sein, dass sie gegen einen ?950X in 14 nm kein Land sehen werden. Die einzige Chance war Single-Task-Leistung und zusätzliche Kerne über das derzeit im Zielmarkt sinnvolle hinaus hätten nur das Power-Budget pro Kern geschmälert.


Zudem natürlich die Frage, ob AMD es auch bei AM5 beibehält, dass man das IOD als Chipsatz zweckentfremdet. Da braucht es natürlich keine iGPU, man hätte aber dasselbe wie bei den CPUs (Desktop, EPYC hat ein eigenes). Der Vorteil ist gerade aktuell, mit dem einem IOD sowohl den Desktop, als auch den Chipsatz für X570 abdecken zu können. Dann bräuchte man also ein drittes IOD, weil eine iGPU beim Chipsatz Quatsch ist. Was wiederum unnötig den Aufwand erhöht.

Den IOD-Bauplan zusätzlich als I/O-Hub aufzulegen gilt allgemein als Notlösung, weil ASMedia nicht rechtzeitig fertig wurde/den Auftrag zu spät bekommen hat. Der X570 verbraucht zu viel, im fehlen wichtige Schutzschaltungen und vor allem sind rund ein Drittel seiner Siliziumfläche inaktiv. Jedes X570-Mainboard schleppt zwei IF-Links und einen Dual-Channel-DDR4-3200-Controller mit sich herum, dazu mindestens 28, mutmaßlich 32 PCI-Express-4.0-Lanes. Und weil das Ganze in 14 nm gefertigt wird, die Matisse-/Vermeer-IODs aber in 12 nm, kann AMD nicht einmal teildefekte Exemplare in die eine oder andere Richtugn recyclen. Bei den Stückzahlen, die AMD mittlerweile verkauft, ist fest mit einem eigenständigen I/O-Hub-Design als X570-Nachfolger zu rechnen. (Was nicht heißt, dass dieser Nachfolger bereits in der ersten AM5 Generation kommt. Ich rechne als nächstes mit einer Freischaltung der inaktiven Lanes von X570 und B550, um X670 und B650 zu kreieren.)


Ist es nicht so, dass bei Spielen oft Entwicklungsgeld gespart wird und PCs ähnlich angesprochen werden wie Konsolen ?

So wie ich das sehe sind die aktuellen Konsolen 8-Kerner CPUs drin, also ist die Chance hoch, dass im PC Bereich mit nem 8-Kerner auch alles super ist ?

Vereinzelte Spiele werden mehr Kerne nutzen und AMD / Intel bevorzugen....aber die grobe Richtschnur 8-Kern ist optimal reicht doch erstmal ?

Generell gilt: Entwicklungsaufwand, der die Performance auf Konsolen und Low-End-PCs verbessert, vergrößert die Zielgruppe. Entwicklungsaufwand, der irgendwo anders irgendwas bezweckt, dient nur dem Marketing und muss somit möglichst billig und in Screenshots möglichst gut zu erkennen sein. Mehrkernoptimierung im Grenzbereich zählt klar nicht zu letzterem. Die meisten Engines können zwar mittlerweile 16 bis 32 Kerne ansprechen, teilweise mehr. Aber wenn sich daraus nicht automatisch ein Performance-Gewinn ergibt, macht sich kaum jemand die Mühe, einen limitierenden Main-Task in kleinere Einheiten aufzulösen oder den Verwaltungsaufwand für 64 Threads soweit zu reduzieren, dass er die Mehrleistung nicht mehr auffrist. Von spezifischen Flaschenhälsen in Multi-Chip-Designs ganz zu schweigen. Man gucke sich zum Beispiel mal an, wo Threadripper 2000 oder, um zumindest monolithisch zu bleiben, ein Sockel-2066-Vielkerner, gegen einen Ryzen 5 5600X in Spielen stehen.
 
(einfach weil die allermeisten keine Ahnung vom Verbrauch haben und wenns hoch kommt mal auf die TDP kucken die ja fast dieselbe ist bei den CPUs - dass die damit kaum was zu tun hat weiß eh keiner).
Es soll auch Leute mit Ahnung geben, die sich sogar bewusst für sowas entscheiden, so lange es noch vertretbar zu kühlen ist.

Ob das hier der Fall sein wird, muss ein Anwendungstest der Anwedungen zeigen, welche für den jeweiligen Anwender relevant sind.

Wenn ich schon nur die gut 6% Vorsprung des i9-11900K vs. 5900X beim Cinebench R23 SC (ja Single Thread) bei Gamestar sehe, dann bringt mir sowas in der täglichen Nutzung mienes PCs u.U. mehr wie die 31% Rückstand bei MC.

CPUs testet man Grundsätzlich nicht mit Spielen, sondern Anwendungen!
Was soll das fürs Forum (oder auch schon für eine Zeitschrift, die PCGamesHardware heißt) bringen? Anwendungen interessieren hier niemanden. Chrome und Notepad merken in der hier üblichen Heimanwendung nichts von der neuen CPU.

Hier mal ein richtiger Benchmark!
Der Benchmark sagt auch nichts aus, ich arbeite nicht unter Linux. Meine Anwendungen gibt es nunmal nur für Windows und Mac OS. Damit ist für mich die Performance viel eher aus den Cinebench-Werten abzuleiten wie aus irgendwelchen Linux-Benchmarks.

JEDE WEBSEITE hat andere Benchmarks!
Klar, jeder testet auch anders. Egal, ob beim Ram oder bei irgendwelchen Powerlimits. Cinebench-Werte auf PCGH werden auch schlechter aussehen wie auf anderen Seiten, weil PCGH die CPU erst mal einbrennen lässt bevor sie die Werte ablesen. Was für Dauerlast sinnvoll ist, ist es für viele interaktive Anwendungen Schwachsinn.
 
:lol:
Scherz, oder? Weil du den Unterschied zwischen HT on und off in Spielen so stark spürst?

Und hier mit dem 5950 X
Ja spürt man und zwar deutlich je Anwendung.
 
Was meinst Du mit welcher GHZ / RAM Config könnte man dem 11900K Paroli bieten/gleich ziehen ?
Das PCI-E 4.0 Upgrade dann lieber außer Acht lassen ?
Die Vorbestellung vom 11900K wurde von Proshop verschoben. (550 Euro)....
Dann wäre das Z590-E hier aufm Tisch ja nur noch wegen der guten VRM Versorgung nutzbar....
Es lohnt sich in meinen Augen ebenso wenig von Z490 auf Z590 aufzurüsten, zumal so manches Z490-Mainboard PCI-E 4.0 liefern kann. Letzteres bringt im absoluten GPU-Limit etwas mehr Performance, das tut aber auch eine Skylake-CPU, Cypress Cove dagegen nicht mehr. Die Frage ist dann nur, was schwerer wiegt, zwei fehlende Kerne, weniger Leistung im GPU-Limit oder das Plus an Leistung durch PCI-E 4.0?

Wie gesagt, wer einen 10900K und ein gutes Z490-Mainboard besitzt, kann sich entspannt zurücklehnen und auf Alder Lake warten, Rocket Lake ist keine fühlbare Verbesserung, außer man benötigt die neuen USB-Anschlüsse von Z590 :ugly:
 
Wie du siehst, gibt es auch zahlreiche andere Medien die sich dem Thema widmen.
Da Intel die neuen CPUs selbst als die non-plus-ultra-gaming-CPU vermarktet ist es doch auch nur recht, dass PC Games Hardware sich hier auf seine ursprüngliche Kernkompetenz besinnt :nicken:

Zur Not guckt man halt schnell mal bei userbenchmark vorbei, da gibts eine Zahl und einen Balken und schon weißte bescheid, dass der 11900K 11% schneller als der 5950X ist.
Krasser shice. Was Intel da für eine Wunder-CPU gebaut hat grenzt schon an Magie :ugly:

Anhang anzeigen 1359220
:stupid::fresse:
11% schneller für 5 sekunden bei einer TDP von 200W :ugly: (bis es dann runtergedrosselt wird , damit die cpu nicht durchbrennt :ugly:)
 
Wenn ich micht Recht entsinne, war Bulldozers größter Kritikpunkt die richtig miese Effizienz gegenüber Intel.

Der Hauptkritikpunkt war einfach die unglaublich miese Leistung. Die Stromaufnahme interessiert die meisten nicht. Wenn der FX 8150 damals mit den Sandy Bridge E den Boden aufgewischt hätte oder mit den 8 Kernern zumindest noch irgendwie mitgehalten hätte (wie es ursprünglich mal geplant war), dann hätte er sich auch 250W genehmingen können. Das wäre zwar nicht schön gewesen, aber dafür hätte man auch ordentlich Leistung erhalten und AMD wohl mindestens 500€. So kam es aber nicht, in Spielen war es eine einzige Katastrophe und auch in Mehrkernanwendungen hat schon der i7 2600K im Schnitt die Nase vorne gehabt, obwohl er nur halb soviele Kerne hatte, wie der eigentliche Gegner.

Vor allen Dingen: Was soll das? Eine CPU kann nur in Leistung pro Watt objektiv bewertet werden.

Dann würden die Desktop CPUs aber haushoch gegen die Laptop und Energiespar CPUs verlieren. De Rohleistung ist natürlich auch wichtig. Der doppelte Verbrauch für 3% mehr Leistung wäre in der Tat mehr als mies, aber bei 105W zu 125W kann man noch ein Auge zudrücken.

Die einzigen Chips, die man sich ansehen kann, sind die i5. Den Rest kannst in die Tonne treten. Der 11900k wird vom 10900K/10850K durchweg geschlagen. Was soll daran gut sein?

Laut PCGH nicht und die CPUs werden mit schnellem RAM noch schneller. Schlecht sind sie nicht, es kommt nur noch auf den Preis an.

Ansonsten ist die starke IGP und vorallem AVX 512 sehr interessant.

Bulldozer war in Spielen mal vorne, mal hinten gegenüber Phenom, genauso wie Rocket Lake vs Comet Lake.

Der große Unterschied ist, dass heute alles sehr Eng beieinanderliegt. Vorallem kann sich AMD gegenüber Intel, nicht einfach mal um 20-50% in Spielen absetzen, von daher ist der Vergleich nicht richtig.

64 Atomkerne? Sowas gibts nicht !

Meines Wissens gab es Server, die das hatten.

Mit solcher Museeumshardware bist Du disqualifiziert. Komm mal im 2021 an!

Na dann nehmen wir doch den 3500X, den gibt es immerhin auch noch. Bei einem heutigen Hardwarekauf interessiert mich auch eher das Jahr 2024-26.

Alles abhängig vom Betrachtungswinkel.. Die MISCHUNG macht es !

Von einer Mischung war bei dir nicht die Rede:
CPUs testet man Grundsätzlich nicht mit Spielen, sondern Anwendungen!


Eine gesetzliche Regelung kommt halt meist dann, wenn die Industrie maßlos wird. Und wenn eine 125W CPU 400W schluckt, dann kann man davon schon reden. Ich kann weder bei GPUs noch bei CPUs diesen Verbrauchsmonstern viel abgewinnen. Es vergeudet Energie und der Aufwand die Dinger zu kühlen explodiert.

Kauf ihn dir einfach nicht - Fertig!

Was interessiert dich der Verbrauch von Intel, wenn du sowieso AMD nimmst?

Keiner zwingt dich, einen i9 10900K zu nehmen und ihn dann auch noch von der Leise lassen. Das ganze interessiert sich auch nur, weil dein Lieblingskonzern ein Problem damit hat. Wenn der R9 6950X, mit 32 Kernen, dann seine 250W benötigen sollte, dann wird man da nichts mehr hören.

Selbst wenn man 100W für GPU und CPU festlegen würde, dann käme man immer noch in Leistungsbereiche die vor 5 Jahren noch High-End waren.

Die Erfahrung hat gezeigt: wenn reguliert wird, dann richtig übel. Man hört ja auch keine Forderung nach Tempo 200 auf der Autobahn, über 130 geht bei den Verbotsmenschen nichts. So wird es auch bei CPUs sein. Wer glaubt, eine Regulierung würde ihn ungeschoren lassen, der irrt sich.
 
Immerhin ist nun klar, wieso Intel nicht mehr als 8 Kerne bietet -- die Leistungsaufnahme wäre noch höher und Platz gäbe es für mehr als 8 Kerne auch nicht.
Abgesehen von PCIe 4.0, was man auch mit Comet Lake schon hätte machen können, die überflüssigste Erscheinung der letzte Jahre.
 
Ich gehe nicht davon aus ungeschoren zu bleiben. Ist aber nötig, da die Industrie für bescheurte Siege in Benchmarks die Effizienz opfert. Und am Ende reicht mir auch in 7W Atom für die wirklich wichtigen Dinge.
 
Sorry aber wenn jemand userbenchmark angibt dann ist jede weitere Diskussion unnötig.
Gamers Nexus hat die Dinger durch die Hölle und zurück gejagt. Ebenso Hardware unboxed.
Einfach mal anschauen und nochmal gucken.
Sehe da keine 11%, nich einmal im Boost Modus.
Das hier ist mehr an deinen Vorposter gerichtet. :D
 
Zurück