Intel Core i9-11900K, i7-11700K und i5-11600K im Test: Auf dem Thron ist nur Platz für einen Prozessor

Wir halten also fest, die neuen sind schneller (3-11%), brauchen dafür aber auch mehr "Saft".

:stick:Die Gen kannst wieder mal überspringen. Kostet zu viel, bringt fast nix. :rolleyes:
 
Intel hat die schnellste CPU in VGA Auflösung von 640x480 und 1024x720 :)

Wer im 2021 angekommen ist, kauft eher eine CPU die in 4K Leistung hat !



Anhang anzeigen 1359218
Für 4k brauchst gar nix kaufen da sitzt eine CPU aus 2017 genauso im GPU Limit wie eine aus 2021 :-)
Wirklich schnelle CPU ist doch nur interessant wenn leute (competitiv) spielen und in FHD mind. 144 fps haben wollen.
 
Was ein schlechtes Argument gegenüber der Behauptung der Verbrauch komme von PCIe 4.0 ist. Das haben die APUs nämlich nicht mit der offiziellen Begründung Trommelwirbel PCIe 4.0 zieht zu viel Strom.
ich spreche davon, dass die APUs keine so hohen Idle Verbrauchswerte hsben und eine der offiziellen Begründungen war, dass bei den anderen Chips das IF so viel frisst. Daher erübrigt sich auch jegliche Behauptung, dass es an PCIe 4 liegt, der Verlinkte Artikel zeigt nämlich einen Prozessor OHNE PCIe 4, also braucht man gar nicht mehr behaupten es läge an PCIe4, nicht wahr? Es war also schon mal falsch zu behaupten der Mehrverbrauch liegt an PCIe 4. Und als Beispiel warum es eher an was anderes loegthhabe ich bewusst 2 CPUs erwähnt die beide nicht PCIe4 haben. Ich hoffe ich hab mich jetzt verständlicher ausgedrückt ;)

Der höhere Verbrauch mag bei Rocket lake zu einem kleinen Teil an PCIe4 loegen, der größte Teil liegt aber an anderen Dingen. Architektur, AB, Memory Controller etc etc
 
Ich hatte mich gefragt, wie schlecht kann Intel eigentlich noch werden. Antwort zeigt der Test... Sooo schlecht und mMn voll unnötig das zu releasen..
Im Moment lohnt sich eigentlich nur noch Warten, wenn man eine Mühle hat die gerade noch so reicht.
 
Im Gaming haben sie es (knapp) geschafft, zu AMD aufzuschließen und zu überholen. Nur zockt leider kaum jemand auf 720p...

Wenn man dann auch mal über den Tellerrand schaut, und auch Anwendungen betrachtet, dann hat es der 11900K mit seinen 8 Kernen auch gegen den eigenen Vorgänger mit dessen 10 Kernen noch sehr schwer... Mit AMDs 12-16 Kernern (selbst mit Zen 2) schafft er es dann erst Recht nicht mitzuhalten...

Von daher empfinde ich die 10. Core Gen derzeit sogar eher noch attraktiver, vor allem wenn man die Preise berücksichtigt (den 10850K gibt's für 380€). Der ist bei Games vllt etwas früher im CPU Limit, aber ansonsten eher flotter für deutlich weniger Kohle...

Wenn Intel die Architektur wie ursprünglich mal geplant in 10 nm und mit weiterhin 10 oder mehr Kernen geliefert hätte, das wäre wahrscheinlich ziemlich nett gewesen, so bleibt nur, auf Alder Lake warten, wie der sich gegen Zen 4 behauptet...
 
Man sollte übrigens immer noch das aktuelle Thema AMD/NV bei CPU-Reviews (in 720p) im Hinterkopf behalten. Eigentlich sehr schade, dass nur Igor mit einer 6900XT getestet hat. Und das, wie er selbst schreibt, aus gutem Grund:
Ich habe mal eben die Logfiles verglichen, um die Unterschiede zu veranschaulichen. Und jetzt nehme ich nur mal den Ryzen 9 5900X, um nicht wieder in Intel vs. AMD abzugleiten. In WQHD sind die RX 6900XT und die RTX 3090 in etwa gleich schnell, aber...

Eine MSI RTX 3090 SUPRIM schafft in SotTR in 720P mit dem Teil 211,2 FPS, die RX 6900XT satte 222,5. In BL3 sind es sogar brutale 244.7 FPS statt der 201.2 FPS mit der NV-Karte. Kinder, das sind 22 Prozentpunkte mehr, also fast ein Viertel! Je größer die FPS-Unterschiede zwischen den SKUs werden, weil eben die Grafikkarte samt Treiber NICHT so limitiert, um so sicherer kann man auch über die Differenzen zwischen den einzelnen SKUs urteilen. Ich würde einfach darum bitten, mal darüber nachzudenken.
 
Igor meint 6900XT wäre die bessere Karte hinsichtlich eines CPU-Benchmarks (Nvidia-Treiberoverhead) 6900XT soll in 720p immer schneller als 3090 sein!
Lustig auch der Hinweis auf den PCGH Test hier: :D
(17:15)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Kickt die 3090 aus dem Testsystem und nehmt den wahren King 6900XT ?
Wir haben 12 Spiele mit Low-Level-API und acht mit DX11 im Index. Wie sich eine 6900 XT auf das Endergebnis der CPUs auswirkt, haben wir längst getestet, mit dem Ergebnis, dass die RTX 3090 rund zwei Prozent mehr Leistung aus den CPUs quetscht, bezogen auf den Durchschnittswert von 20 Spielen.

Ich kann verstehen, dass ihr den kompletten CPU-Index auch gerne auf Grundlage einer 6900 XT sehen wollt, doch das ist zeitlich einfach nicht drin.
 
Wir haben 12 Spiele mit Low-Level-API und acht mit DX11 im Index. Wie sich eine 6900 XT auf das Endergebnis der CPUs auswirkt, haben wir längst getestet, mit dem Ergebnis, dass die RTX 3090 rund zwei Prozent mehr Leistung aus den CPUs quetscht, bezogen auf den Durchschnittswert von 20 Spielen.

Ich kann verstehen, dass ihr den kompletten CPU-Index auch gerne auf Grundlage einer 6900 XT sehen wollt, doch das ist zeitlich einfach nicht drin.
das sieht Igor komplett anders, wer hat nun recht? :huh:

(siehe Video von Igor, verlinkt in #254)
 
Ich konnte es zumindest in Bezug auf ein MSI Z490I Unify bestätigen. Allenfalls die NVMe-Nutzer, die unbedingt 4.0 wollen, werden wohl zum Z590 greifen müssen.

Nicht einmal die, gerade bei MSI nicht. Die haben auf (praktisch?) allen Z490-Boards 4.0-fähige Splitter verbaut, die die Leiterbahnen des ersten M.2 alternativ aus dem CPU-Sockel ziehen. Das Z490I Unify ist, ebenso wie alle anderen bei denen ich auf die schnelle nachgeguckt habe, bereits für 64-GBit/s-NVME spezifiziert. Einziger Nachteil ist, dass die frei werdenen PCH-Lanes nicht andersweitig genutzt werden können. Da ist die Lösung einiger Z490-Gigabyte-Boards mit komplett getrenntem CPU-M.2 (halt genau das Z590-Layout) besser. Asrock verbaute meist gegenläufige M.2, die zwar getrennte Steckkontakte für CPU-4.0 und PCH-3.0 hatten, sich aber den gleichen Raum auf der Platine teilen. Hier müsste man mit Riser-Kabeln aber auch beides nutzen können, wenn man will. Nur bei Asus und Biostar gibt es meinem Wissen nach kein Z490 mit PCI-Express-4.0-M.2-Steckplatz. Aber wie schon verlinkt wurde: Brauchen tut man den auch nicht zwingend, nur wollen. Nicht ohne Grund führe ich das Maximus XII trotz dieses Defizits immer noch weit vorn im EKF.

 
Im Gaming haben sie es (knapp) geschafft, zu AMD aufzuschließen und zu überholen. Nur zockt leider kaum jemand auf 720p...

Wenn man dann auch mal über den Tellerrand schaut, und auch Anwendungen betrachtet, dann hat es der 11900K mit seinen 8 Kernen auch gegen den eigenen Vorgänger mit dessen 10 Kernen noch sehr schwer... Mit AMDs 12-16 Kernern (selbst mit Zen 2) schafft er es dann erst Recht nicht mitzuhalten...

Von daher empfinde ich die 10. Core Gen derzeit sogar eher noch attraktiver, vor allem wenn man die Preise berücksichtigt (den 10850K gibt's für 380€). Der ist bei Games vllt etwas früher im CPU Limit, aber ansonsten eher flotter für deutlich weniger Kohle...

Wenn Intel die Architektur wie ursprünglich mal geplant in 10 nm und mit weiterhin 10 oder mehr Kernen geliefert hätte, das wäre wahrscheinlich ziemlich nett gewesen, so bleibt nur, auf Alder Lake warten, wie der sich gegen Zen 4 behauptet...
auch ich kann mich hier den testern nicht anschließen und die 10. gen wirklich als AMD-konkurrenz sehen, einfach aufgrund des nach wie vor zu hohen stromverbrauchs bei nur 8c/16t.

ich schließe mich da deiner meinung an: entweder günstiger zum vorgänger greifen (wenn man denn intel möchte) oder warten, bis sie es endlich auf die reihe kriegen. ich persönlich muss sagen, dass ich da erst mal weiterhin lieber bei AMD bleibe.
 
Zurück