Intel Core i9-11900K, i7-11700K und i5-11600K im Test: Auf dem Thron ist nur Platz für einen Prozessor

Wir haben 12 Spiele mit Low-Level-API und acht mit DX11 im Index. Wie sich eine 6900 XT auf das Endergebnis der CPUs auswirkt, haben wir längst getestet, mit dem Ergebnis, dass die RTX 3090 rund zwei Prozent mehr Leistung aus den CPUs quetscht, bezogen auf den Durchschnittswert von 20 Spielen.

Ich kann verstehen, dass ihr den kompletten CPU-Index auch gerne auf Grundlage einer 6900 XT sehen wollt, doch das ist zeitlich einfach nicht drin.
In eurem Test hat die 6900XT aber auch nachweislich deutlich besser in DX12-Titeln im CPU-Limit performt. Warum dann nicht also DX12 mit Radeon und DX11 mit GeForce?

Ja, ich weiß. Zeitaufwand. Aber alles durch die Bank mit GeForce zu testen verfälscht halt nachweislich Resultate, wie ihr für DX12 ja selbst herausgefunden habt. Und es sind ja nun einmal nicht nur zwei Spiele mit DX12, die ihr im Parcours habt. Und in einem CPU-Review will man ja die (maximale/mögliche) Leistungsfähigkeit einer CPU bestimmen. Das ist mit NV und DX12 aber nachweislich schlicht nicht möglich.
 
das sieht Igor komplett anders, wer hat nun recht? :huh:

(siehe Video von Igor, verlinkt in #254)
Man muss das differenziert betrachten. Testet man ausschließlich moderne Low-Level-API-Engines, macht eine RX 6900 XT absolut Sinn, die Karte von AMD ist dort nachweislich schneller als eine RTX 3090 (nicht in allen Titeln, aber in den meisten), wir konnten im Worst Case ein Plus von 48 Prozent für die 6900 XT messen(!). Igor hat also recht. Auf unseren CPU-Index angewandt, ist es allerdings etwas anderes, da darin auch vergleichsweise alte Engines mit Direct X 11 vertreten sind. Hier liegt Nvidia wieder von, ein Zuwachs von 30 bis 40 Prozent ist auch hier möglich. Dann gibt es Spiele, wie Doom (Vulkan) oder Crysis Remastered (DX 11), wo die Wahl der GPU gar keine Rolle spielt (unter ein Prozent Unterschied). Dieser Misch-Masch ergibt ein Ende ein Gesamtbild, in unserem Fall mit leichtem Defizit für die Radeon. Wenn neue Spiele Einzug erhalten, wird auch die Wahl der Grafikkarte überdacht, so viel ist sicher.
 
... die werden ausschließlich in Wärme umgewandelt. Die oberen 200 davon sogar ohne dass die Rechenleistung dabei nennenswert steigen würde.
Dann limitier halt mal die Leistungsaufnahme und schau, was dann noch hinten raus kommt :lol:

...natürlich in einem Anwendungs-Szenario, dass die Leistung überhaupt erstmal abrufen würde ;-)
 
Ansonsten finde ich das Intel und AMD den fallschen Weg gehen. Beide neue CPU Archiktekturen quetschen das letzte MHZ heraus, die energie Effizienz könnte deutlich besser sein.
Naja so ganz stimmt das nicht.
AMD ist durchaus sehr effizient.

Natürlich sieht man Cinebench Stromaufnahmen von einem 5950x oder 11900K und denkt sich "oof die saufen viel zu viel."

Aber Gaming technisch finde ich AMD, aber sogar auch Intel was den Stromdurst angeht völlig in Ordnung.
 
Welcher fail bitte? Ich hab ein Notebook mit einem i5 11xxx in 10nm und das Teil ist richtig geil. Flach, leicht, reichlich Leistung und er Akku hält gefühlt ewig.
Der Fail, das dort eben nicht mehr Lesitung zu finden ist in 10nm (7nm). Weil kleinere Prozesse eben nicht mehr bedeuten, dass es sicher zu höherem Takt kommt. Vor allem nicht wenn der vorherige Prozess schon 7 Jahre auf hohen Takt hin optimiert wurde. Da wird es richtig schwer bei einer neuen Technik, die dichter gepackt ist und somit eine höhere Energiedichte hat, höhere Frequnezen zu fahren.

Oder in einem Satz: 10nm gibt es schon und es hat leider nicht gereicht für Intel.
AMD ist schneller Trotz "gleicher" Fertigung.

Es tut mir einfach in den Ohren weh, immer wieder und immer öfter zu lesen; WENN INTEL das und jenes hat DANN wird AMD sehen wo der Frosch die locken hat oä, obwohl es diesen Vergleich schon lange gibt und der Gedanke -wenn Intel in 14nm so gut ist dann muss Intel in 10nm gewinnen- schon lange falsch ist.
Es kann sich ja vielleicht noch ändern, aber wohl eher vlt. mit 5nm. Wenn die Karten neu gemischt werden.

Es hat schon seinen Grund warum man für hohen takt mehr Platz auf einem Die einplanen muss.
 
Zuletzt bearbeitet:
Wie kommst du darauf, dass das AMDs Verdienst ist? Soweit ich weiß kommt der 7nm Prozess von TSMC und AMD wäre heute nicht dort, wo sie jetzt sind, wenn sie die 7nm nicht hätten.
Intel jongliert hier noch mit ihrem 14nm Prozess und ist performancetechnisch auf Augenhöhe. Das spricht nicht wirklich für AMD.

Stell dir mal vor Intel wäre jetzt bei 7nm. AMD würde kein Land mehr sehen. Deswegen versteh ich auch nicht so ganz, weshalb AMD immer so in den Himmel gelobt und Intel gehatet wird. TSMC ist der Grund, weshalb AMD die Performancekrone hat.

Hi.

Gut, wenn man das so differenziert betrachtet, dann liegst du sicherlich nicht falsch.

Als Endkunde sehe ich 2 Hersteller mit fertigen Produkten.
Z.B. so wie Microsoft und Sony mit xBox und PS.
Ist das für mich entscheidend, wer da wie genau ein Produkt hergestellt hat!?
Wohl nur höchstens dann, wenn z.B. Kinderarbeit oder schlechte Behandlung von Mitarbeitern im Spiel ist.

Hier in dem Fall kann man schon sagen, beachtlich was aus 14nm noch raus zu holen ist.
Oder man fragt sich, warum ist Intel nicht schon weiter!?
Und wirkt es nicht wie eine Brechstange wenn mit OC im schlimmsten Fall fast 300 Watt erreicht werden?
(Letztes Video vom 8auer)
Diese Entwicklung ist mir schon mit Ampere etwas übel aufgestoßen.

Mal total runtergebrochen und auf das wesentliche reduziert:
Ich sehe hier 2 Produkte, beide können "Gaming" richtig gut, aber eines kann "Anwendungen" noch besser.

Aber, das ist es nur Kritik, kein Hate. Es wird alles seinen Grund haben, warum die Dinge so sind wie sie sind.
Wir können nur froh sein, wenn es immer einen Gegenspieler gibt, also mindestens 2 konkurrierende Unternehmen.

Das Thema "Hate" ist so umfangreich und in so vielen Bereichen präsent, vor allem leider auch im Internet.
Ich kann nur plädieren, seid einfach nicht so und seid einfach besser. ❣
 
Mit solcher Museeumshardware bist Du disqualifiziert. Komm mal im 2021 an!
Echt jetzt ?
Leute fronten weil sie etwas ältere Hardware besitzen ? :daumen2:
Du kennst die Leute doch nicht und was sie mit ihren Rechnern machen und wofür sie die gebrauchen.

Was ist denn jetzt dein Auftrag hier ?
Irgend ´ne Firma verteidigen bis auf´s letzte, die ´nen feuchten Furz auf dich geben ?

Geht glaube auch hier nur um Farben und Balken...

Stimmt. Und wenns jetzt so wäre dass der Ryzen mit 0,1 vorne wäre? Ists dann tendentiös mit roter Brille? :ka:

Ist doch in dem Ausmaß egal wer da jetzt oben steht, die Aussage ist in unserem Testparcours sind die CPUs im Mittel gleich schnell. Da gibts nichts zu tendieren, das sind einfach stur ermittelte und in Excel geklöppelte Zahlen.
 
Das ist ein Punkt von vielen. Mir persönlich ist das auch sehr wichtig aber der großen breiten Masse da draußen ist das erfahrungsgemäß völlig egal. Die Leute kaufen die CPU die 3% schneller ist egal ob die dafür doppelt so viel verbraucht. Das ist abseits von Nerdforen einfach die Praxis (einfach weil die allermeisten keine Ahnung vom Verbrauch haben und wenns hoch kommt mal auf die TDP kucken die ja fast dieselbe ist bei den CPUs - dass die damit kaum was zu tun hat weiß eh keiner).
Auch falsch.

Wenn Du schon "der breiten Masse da draußen" etwas unterstellst oder andichtest, dann doch wohl eher, dass nach Preis/Leistungsverhältnis gekauft wird und weniger "stumpf" nach "was ist am schnellsten".
Wenn wir schon verallgemeinern, dann passt genau das wohl doch eher zu den "Nerds"
 
Aber Gaming technisch finde ich AMD, aber sogar auch Intel was den Stromdurst angeht völlig in Ordnung.
Geht so, der Verbrauch gegenüber der Vorgänger Architektur ist schon etwas bis deutlich angestiegen. Je nach Benchmark halt. Dafür liefern sie auch mehr Leistung. Das liegt leider daran das jeder in den Benchmarks ganz oben liegen möchte. Und natürlich liegt AMD dort in der Führung.

Im Zweifel muss man bei AMD den Eco Mode aktivieren, damit die Effizienz deutlich steigt.
 
WOW!
Knapp 100W Mehrverbrauch, um in den 20 Test-Spielen den 5800X in knapp der Hälfte der Titel knapp zuschlagen...bei 720p wohlgemerkt! :lol:
Hauptsache die können auf die Packung schnellste Gaming CPU schreiben. (für die ersten 15 Sekunden bis das Temp und TDP Limit anspringt)
Ist wohl auch kein Zufall das die AMD CPU nur 0,1% langsamer ist. Intel hat seine Schlagzeile "Schnellste Gaming CPU". Was da wohl wieder an Werbezusagen gemacht wurden, damit genau das rauskommt.
Denn 0,1% liegt innerhalb der Meßtoleranz. Es fehlen sowieso die +- Range Angaben bei den Werten!
 
WOW!
Knapp 100W Mehrverbrauch, um in den 20 Test-Spielen den 5800X in knapp der Hälfte der Titel knapp zuschlagen...bei 720p wohlgemerkt! :lol:

100 Watt Mehrverbrauch? Ein 5800X kann dauerhaft 142 Watt ziehen, ein 11900k 125 Watt. Also insofern der 11900k nicht dauerhaft 125 und der 5800X weniger als 25 Watt verbraucht ist deine Aussage ziemlicher Schmarn.
 
Hauptsache die können auf die Packung schnellste Gaming CPU schreiben. (für die ersten 15 Sekunden bis das Temp und TDP Limit anspringt)
Ist wohl auch kein Zufall das die AMD CPU nur 0,1% langsamer ist. Intel hat seine Schlagzeile "Schnellste Gaming CPU". Was da wohl wieder an Werbezusagen gemacht wurden, damit genau das rauskommt.
Denn 0,1% liegt innerhalb der Meßtoleranz. Es fehlen sowieso die +- Range Angaben bei den Werten!
Heute morgen mit dem falschen Fuß aufgestanden? ;)
Wird im Text darunter direkt mit erläutert:

Wir sind uns bewusst, dass die geringste Abweichung die Krone für den jeweils anderen bedeuten kann. Spiele erhalten oft Updates und Erweiterungen und selbstverständlich halten wir den CPU-Index auf dem neuesten Stand. Spätestens nach dem Release einer neuen CPU-Generation müssen die alten Werte neu überprüft werden. Wundern Sie sich daher bitte nicht, wenn mal AMD und mal Intel auf dem Thron sitzt.
 
Geht so, der Verbrauch gegenüber der Vorgänger Architektur ist schon etwas bis deutlich angestiegen. Je nach Benchmark halt. Dafür liefern sie auch mehr Leistung. Das liegt leider daran das jeder in den Benchmarks ganz oben liegen möchte. Und natürlich liegt AMD dort in der Führung.

Im Zweifel muss man bei AMD den Eco Mode aktivieren, damit die Effizienz deutlich steigt.
Klar die 10th Gen war etwas sparsamer.
Ich meine nur, wenn meine CPU in games 60-70 Watt nimmt und selbst ein 10900K nicht soviel mehr nimmt, dann finde ich das in Ordnung.

In Games nimmt sich da AMD wie Intel einfach nicht viel.

Da wird aus möglichen Stromaufnahmen in bestimmten Szenarien (Cinebench, Blender etc.) auch immer mehr draus gemacht von den Leuten, als es tatsächlich ist.
 
1617198889738.png


1617198932784.png


Beide Bilder anschauen, verstehen und dann mal überlegen, was macht Intel da?

Intel verbraucht 72W !!! AMD 32W !!! FÜR den gleichen Workflow !!!!
 
Man muss das differenziert betrachten. Testet man ausschließlich moderne Low-Level-API-Engines, macht eine RX 6900 XT absolut Sinn, die Karte von AMD ist dort nachweislich schneller als eine RTX 3090 (nicht in allen Titeln, aber in den meisten), wir konnten im Worst Case ein Plus von 48 Prozent für die 6900 XT messen(!). Igor hat also recht. Auf unseren CPU-Index angewandt, ist es allerdings etwas anderes, da darin auch vergleichsweise alte Engines mit Direct X 11 vertreten sind. Hier liegt Nvidia wieder von, ein Zuwachs von 30 bis 40 Prozent ist auch hier möglich. Dann gibt es Spiele, wie Doom (Vulkan) oder Crysis Remastered (DX 11), wo die Wahl der GPU gar keine Rolle spielt (unter ein Prozent Unterschied). Dieser Misch-Masch ergibt ein Ende ein Gesamtbild, in unserem Fall mit leichtem Defizit für die Radeon. Wenn neue Spiele Einzug erhalten, wird auch die Wahl der Grafikkarte überdacht, so viel ist sicher.
AC Valhalla als nichts sagender Titel fällt euch jetzt bei dem knappen Ergebnis aber auch ein wenig auf die Füße. Jetzt habt Ihr euch selbst ne Sackgasse gebaut, den Titel jetzt zu tauschen kann nur noch nach hinten losgehen weil die Entscheidung für einen neuen Titel automatisch die Krone bestimmt.

Da habt Ihr euch keinen gefallen mit getan.

Die Problematik mit der 6900 und der 3090 kann ich nachvollziehen. Das wird jetzt auch keinen Sinn mehr machen, aber die 3090 zerschießt euch jetzt den Index dadurch.
 
100 Watt Mehrverbrauch? Ein 5800X kann dauerhaft 142 Watt ziehen, ein 11900k 125 Watt. Also insofern der 11900k nicht dauerhaft 125 und der 5800X weniger als 25 Watt verbraucht ist deine Aussage ziemlicher Schmarn.
Wenn du schon mit Power Limits argumentierst, solltest du evtl. auch berücksichtigen, dass Intel mit Adaptive Boost nun ein Mittel zur Verfügung stellt, dieses vollständig aufzuheben. So kommt es dann in eben tatsächlich zu besagten 100W mehr Verbrauch (sonst sind es "nur" 40W mehr, trotz aktiver Power Limits)

Dass ein 5800X nun mal in der (Game)-Praxis laut allen Tests, durchweg sparsamer arbeitet, sollte dann auch dir nicht entgangen sein.
 
Zurück