• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Core i9-11900K, i7-11700K und i5-11600K im Test: Auf dem Thron ist nur Platz für einen Prozessor

rehacomp

Software-Overclocker(in)
Wir halten also fest, die neuen sind schneller (3-11%), brauchen dafür aber auch mehr "Saft".

:stick:Die Gen kannst wieder mal überspringen. Kostet zu viel, bringt fast nix. :rolleyes:
 

CmdrBambina

Komplett-PC-Aufrüster(in)
Intel hat die schnellste CPU in VGA Auflösung von 640x480 und 1024x720 :)

Wer im 2021 angekommen ist, kauft eher eine CPU die in 4K Leistung hat !



Anhang anzeigen 1359218
Für 4k brauchst gar nix kaufen da sitzt eine CPU aus 2017 genauso im GPU Limit wie eine aus 2021 :-)
Wirklich schnelle CPU ist doch nur interessant wenn leute (competitiv) spielen und in FHD mind. 144 fps haben wollen.
 

Rollora

Kokü-Junkie (m/w)
Was ein schlechtes Argument gegenüber der Behauptung der Verbrauch komme von PCIe 4.0 ist. Das haben die APUs nämlich nicht mit der offiziellen Begründung Trommelwirbel PCIe 4.0 zieht zu viel Strom.
ich spreche davon, dass die APUs keine so hohen Idle Verbrauchswerte hsben und eine der offiziellen Begründungen war, dass bei den anderen Chips das IF so viel frisst. Daher erübrigt sich auch jegliche Behauptung, dass es an PCIe 4 liegt, der Verlinkte Artikel zeigt nämlich einen Prozessor OHNE PCIe 4, also braucht man gar nicht mehr behaupten es läge an PCIe4, nicht wahr? Es war also schon mal falsch zu behaupten der Mehrverbrauch liegt an PCIe 4. Und als Beispiel warum es eher an was anderes loegthhabe ich bewusst 2 CPUs erwähnt die beide nicht PCIe4 haben. Ich hoffe ich hab mich jetzt verständlicher ausgedrückt ;)

Der höhere Verbrauch mag bei Rocket lake zu einem kleinen Teil an PCIe4 loegen, der größte Teil liegt aber an anderen Dingen. Architektur, AB, Memory Controller etc etc
 

Duvar

Kokü-Junkie (m/w)
Ich hatte mich gefragt, wie schlecht kann Intel eigentlich noch werden. Antwort zeigt der Test... Sooo schlecht und mMn voll unnötig das zu releasen..
Im Moment lohnt sich eigentlich nur noch Warten, wenn man eine Mühle hat die gerade noch so reicht.
 

cuthbert

Software-Overclocker(in)
Im Gaming haben sie es (knapp) geschafft, zu AMD aufzuschließen und zu überholen. Nur zockt leider kaum jemand auf 720p...

Wenn man dann auch mal über den Tellerrand schaut, und auch Anwendungen betrachtet, dann hat es der 11900K mit seinen 8 Kernen auch gegen den eigenen Vorgänger mit dessen 10 Kernen noch sehr schwer... Mit AMDs 12-16 Kernern (selbst mit Zen 2) schafft er es dann erst Recht nicht mitzuhalten...

Von daher empfinde ich die 10. Core Gen derzeit sogar eher noch attraktiver, vor allem wenn man die Preise berücksichtigt (den 10850K gibt's für 380€). Der ist bei Games vllt etwas früher im CPU Limit, aber ansonsten eher flotter für deutlich weniger Kohle...

Wenn Intel die Architektur wie ursprünglich mal geplant in 10 nm und mit weiterhin 10 oder mehr Kernen geliefert hätte, das wäre wahrscheinlich ziemlich nett gewesen, so bleibt nur, auf Alder Lake warten, wie der sich gegen Zen 4 behauptet...
 

Linmoum

Freizeitschrauber(in)
Man sollte übrigens immer noch das aktuelle Thema AMD/NV bei CPU-Reviews (in 720p) im Hinterkopf behalten. Eigentlich sehr schade, dass nur Igor mit einer 6900XT getestet hat. Und das, wie er selbst schreibt, aus gutem Grund:
Ich habe mal eben die Logfiles verglichen, um die Unterschiede zu veranschaulichen. Und jetzt nehme ich nur mal den Ryzen 9 5900X, um nicht wieder in Intel vs. AMD abzugleiten. In WQHD sind die RX 6900XT und die RTX 3090 in etwa gleich schnell, aber...

Eine MSI RTX 3090 SUPRIM schafft in SotTR in 720P mit dem Teil 211,2 FPS, die RX 6900XT satte 222,5. In BL3 sind es sogar brutale 244.7 FPS statt der 201.2 FPS mit der NV-Karte. Kinder, das sind 22 Prozentpunkte mehr, also fast ein Viertel! Je größer die FPS-Unterschiede zwischen den SKUs werden, weil eben die Grafikkarte samt Treiber NICHT so limitiert, um so sicherer kann man auch über die Differenzen zwischen den einzelnen SKUs urteilen. Ich würde einfach darum bitten, mal darüber nachzudenken.
 

arthur95

Freizeitschrauber(in)
Igor meint 6900XT wäre die bessere Karte hinsichtlich eines CPU-Benchmarks (Nvidia-Treiberoverhead) 6900XT soll in 720p immer schneller als 3090 sein!
Lustig auch der Hinweis auf den PCGH Test hier: :D
(17:15)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

PCGH_Dave

Redaktion
Teammitglied
Kickt die 3090 aus dem Testsystem und nehmt den wahren King 6900XT 🤩
Wir haben 12 Spiele mit Low-Level-API und acht mit DX11 im Index. Wie sich eine 6900 XT auf das Endergebnis der CPUs auswirkt, haben wir längst getestet, mit dem Ergebnis, dass die RTX 3090 rund zwei Prozent mehr Leistung aus den CPUs quetscht, bezogen auf den Durchschnittswert von 20 Spielen.

Ich kann verstehen, dass ihr den kompletten CPU-Index auch gerne auf Grundlage einer 6900 XT sehen wollt, doch das ist zeitlich einfach nicht drin.
 

arthur95

Freizeitschrauber(in)
Wir haben 12 Spiele mit Low-Level-API und acht mit DX11 im Index. Wie sich eine 6900 XT auf das Endergebnis der CPUs auswirkt, haben wir längst getestet, mit dem Ergebnis, dass die RTX 3090 rund zwei Prozent mehr Leistung aus den CPUs quetscht, bezogen auf den Durchschnittswert von 20 Spielen.

Ich kann verstehen, dass ihr den kompletten CPU-Index auch gerne auf Grundlage einer 6900 XT sehen wollt, doch das ist zeitlich einfach nicht drin.
das sieht Igor komplett anders, wer hat nun recht? :huh:

(siehe Video von Igor, verlinkt in #254)
 

PCGH_Torsten

Redaktion
Teammitglied
Ich konnte es zumindest in Bezug auf ein MSI Z490I Unify bestätigen. Allenfalls die NVMe-Nutzer, die unbedingt 4.0 wollen, werden wohl zum Z590 greifen müssen.

Nicht einmal die, gerade bei MSI nicht. Die haben auf (praktisch?) allen Z490-Boards 4.0-fähige Splitter verbaut, die die Leiterbahnen des ersten M.2 alternativ aus dem CPU-Sockel ziehen. Das Z490I Unify ist, ebenso wie alle anderen bei denen ich auf die schnelle nachgeguckt habe, bereits für 64-GBit/s-NVME spezifiziert. Einziger Nachteil ist, dass die frei werdenen PCH-Lanes nicht andersweitig genutzt werden können. Da ist die Lösung einiger Z490-Gigabyte-Boards mit komplett getrenntem CPU-M.2 (halt genau das Z590-Layout) besser. Asrock verbaute meist gegenläufige M.2, die zwar getrennte Steckkontakte für CPU-4.0 und PCH-3.0 hatten, sich aber den gleichen Raum auf der Platine teilen. Hier müsste man mit Riser-Kabeln aber auch beides nutzen können, wenn man will. Nur bei Asus und Biostar gibt es meinem Wissen nach kein Z490 mit PCI-Express-4.0-M.2-Steckplatz. Aber wie schon verlinkt wurde: Brauchen tut man den auch nicht zwingend, nur wollen. Nicht ohne Grund führe ich das Maximus XII trotz dieses Defizits immer noch weit vorn im EKF.

 

MechUnit

Komplett-PC-Käufer(in)
Im Gaming haben sie es (knapp) geschafft, zu AMD aufzuschließen und zu überholen. Nur zockt leider kaum jemand auf 720p...

Wenn man dann auch mal über den Tellerrand schaut, und auch Anwendungen betrachtet, dann hat es der 11900K mit seinen 8 Kernen auch gegen den eigenen Vorgänger mit dessen 10 Kernen noch sehr schwer... Mit AMDs 12-16 Kernern (selbst mit Zen 2) schafft er es dann erst Recht nicht mitzuhalten...

Von daher empfinde ich die 10. Core Gen derzeit sogar eher noch attraktiver, vor allem wenn man die Preise berücksichtigt (den 10850K gibt's für 380€). Der ist bei Games vllt etwas früher im CPU Limit, aber ansonsten eher flotter für deutlich weniger Kohle...

Wenn Intel die Architektur wie ursprünglich mal geplant in 10 nm und mit weiterhin 10 oder mehr Kernen geliefert hätte, das wäre wahrscheinlich ziemlich nett gewesen, so bleibt nur, auf Alder Lake warten, wie der sich gegen Zen 4 behauptet...
auch ich kann mich hier den testern nicht anschließen und die 10. gen wirklich als AMD-konkurrenz sehen, einfach aufgrund des nach wie vor zu hohen stromverbrauchs bei nur 8c/16t.

ich schließe mich da deiner meinung an: entweder günstiger zum vorgänger greifen (wenn man denn intel möchte) oder warten, bis sie es endlich auf die reihe kriegen. ich persönlich muss sagen, dass ich da erst mal weiterhin lieber bei AMD bleibe.
 

Linmoum

Freizeitschrauber(in)
Wir haben 12 Spiele mit Low-Level-API und acht mit DX11 im Index. Wie sich eine 6900 XT auf das Endergebnis der CPUs auswirkt, haben wir längst getestet, mit dem Ergebnis, dass die RTX 3090 rund zwei Prozent mehr Leistung aus den CPUs quetscht, bezogen auf den Durchschnittswert von 20 Spielen.

Ich kann verstehen, dass ihr den kompletten CPU-Index auch gerne auf Grundlage einer 6900 XT sehen wollt, doch das ist zeitlich einfach nicht drin.
In eurem Test hat die 6900XT aber auch nachweislich deutlich besser in DX12-Titeln im CPU-Limit performt. Warum dann nicht also DX12 mit Radeon und DX11 mit GeForce?

Ja, ich weiß. Zeitaufwand. Aber alles durch die Bank mit GeForce zu testen verfälscht halt nachweislich Resultate, wie ihr für DX12 ja selbst herausgefunden habt. Und es sind ja nun einmal nicht nur zwei Spiele mit DX12, die ihr im Parcours habt. Und in einem CPU-Review will man ja die (maximale/mögliche) Leistungsfähigkeit einer CPU bestimmen. Das ist mit NV und DX12 aber nachweislich schlicht nicht möglich.
 

PCGH_Dave

Redaktion
Teammitglied
das sieht Igor komplett anders, wer hat nun recht? :huh:

(siehe Video von Igor, verlinkt in #254)
Man muss das differenziert betrachten. Testet man ausschließlich moderne Low-Level-API-Engines, macht eine RX 6900 XT absolut Sinn, die Karte von AMD ist dort nachweislich schneller als eine RTX 3090 (nicht in allen Titeln, aber in den meisten), wir konnten im Worst Case ein Plus von 48 Prozent für die 6900 XT messen(!). Igor hat also recht. Auf unseren CPU-Index angewandt, ist es allerdings etwas anderes, da darin auch vergleichsweise alte Engines mit Direct X 11 vertreten sind. Hier liegt Nvidia wieder von, ein Zuwachs von 30 bis 40 Prozent ist auch hier möglich. Dann gibt es Spiele, wie Doom (Vulkan) oder Crysis Remastered (DX 11), wo die Wahl der GPU gar keine Rolle spielt (unter ein Prozent Unterschied). Dieser Misch-Masch ergibt ein Ende ein Gesamtbild, in unserem Fall mit leichtem Defizit für die Radeon. Wenn neue Spiele Einzug erhalten, wird auch die Wahl der Grafikkarte überdacht, so viel ist sicher.
 

KaneTM

Software-Overclocker(in)
... die werden ausschließlich in Wärme umgewandelt. Die oberen 200 davon sogar ohne dass die Rechenleistung dabei nennenswert steigen würde.
Dann limitier halt mal die Leistungsaufnahme und schau, was dann noch hinten raus kommt :lol:

...natürlich in einem Anwendungs-Szenario, dass die Leistung überhaupt erstmal abrufen würde ;-)
 

Markzzman

Software-Overclocker(in)
Ansonsten finde ich das Intel und AMD den fallschen Weg gehen. Beide neue CPU Archiktekturen quetschen das letzte MHZ heraus, die energie Effizienz könnte deutlich besser sein.
Naja so ganz stimmt das nicht.
AMD ist durchaus sehr effizient.

Natürlich sieht man Cinebench Stromaufnahmen von einem 5950x oder 11900K und denkt sich "oof die saufen viel zu viel."

Aber Gaming technisch finde ich AMD, aber sogar auch Intel was den Stromdurst angeht völlig in Ordnung.
 

Lamaan

Freizeitschrauber(in)
Welcher fail bitte? Ich hab ein Notebook mit einem i5 11xxx in 10nm und das Teil ist richtig geil. Flach, leicht, reichlich Leistung und er Akku hält gefühlt ewig.
Der Fail, das dort eben nicht mehr Lesitung zu finden ist in 10nm (7nm). Weil kleinere Prozesse eben nicht mehr bedeuten, dass es sicher zu höherem Takt kommt. Vor allem nicht wenn der vorherige Prozess schon 7 Jahre auf hohen Takt hin optimiert wurde. Da wird es richtig schwer bei einer neuen Technik, die dichter gepackt ist und somit eine höhere Energiedichte hat, höhere Frequnezen zu fahren.

Oder in einem Satz: 10nm gibt es schon und es hat leider nicht gereicht für Intel.
AMD ist schneller Trotz "gleicher" Fertigung.

Es tut mir einfach in den Ohren weh, immer wieder und immer öfter zu lesen; WENN INTEL das und jenes hat DANN wird AMD sehen wo der Frosch die locken hat oä, obwohl es diesen Vergleich schon lange gibt und der Gedanke -wenn Intel in 14nm so gut ist dann muss Intel in 10nm gewinnen- schon lange falsch ist.
Es kann sich ja vielleicht noch ändern, aber wohl eher vlt. mit 5nm. Wenn die Karten neu gemischt werden.

Es hat schon seinen Grund warum man für hohen takt mehr Platz auf einem Die einplanen muss.
 
Zuletzt bearbeitet:

I3uschi

Software-Overclocker(in)
Wie kommst du darauf, dass das AMDs Verdienst ist? Soweit ich weiß kommt der 7nm Prozess von TSMC und AMD wäre heute nicht dort, wo sie jetzt sind, wenn sie die 7nm nicht hätten.
Intel jongliert hier noch mit ihrem 14nm Prozess und ist performancetechnisch auf Augenhöhe. Das spricht nicht wirklich für AMD.

Stell dir mal vor Intel wäre jetzt bei 7nm. AMD würde kein Land mehr sehen. Deswegen versteh ich auch nicht so ganz, weshalb AMD immer so in den Himmel gelobt und Intel gehatet wird. TSMC ist der Grund, weshalb AMD die Performancekrone hat.

Hi.

Gut, wenn man das so differenziert betrachtet, dann liegst du sicherlich nicht falsch.

Als Endkunde sehe ich 2 Hersteller mit fertigen Produkten.
Z.B. so wie Microsoft und Sony mit xBox und PS.
Ist das für mich entscheidend, wer da wie genau ein Produkt hergestellt hat!?
Wohl nur höchstens dann, wenn z.B. Kinderarbeit oder schlechte Behandlung von Mitarbeitern im Spiel ist.

Hier in dem Fall kann man schon sagen, beachtlich was aus 14nm noch raus zu holen ist.
Oder man fragt sich, warum ist Intel nicht schon weiter!?
Und wirkt es nicht wie eine Brechstange wenn mit OC im schlimmsten Fall fast 300 Watt erreicht werden?
(Letztes Video vom 8auer)
Diese Entwicklung ist mir schon mit Ampere etwas übel aufgestoßen.

Mal total runtergebrochen und auf das wesentliche reduziert:
Ich sehe hier 2 Produkte, beide können "Gaming" richtig gut, aber eines kann "Anwendungen" noch besser.

Aber, das ist es nur Kritik, kein Hate. Es wird alles seinen Grund haben, warum die Dinge so sind wie sie sind.
Wir können nur froh sein, wenn es immer einen Gegenspieler gibt, also mindestens 2 konkurrierende Unternehmen.

Das Thema "Hate" ist so umfangreich und in so vielen Bereichen präsent, vor allem leider auch im Internet.
Ich kann nur plädieren, seid einfach nicht so und seid einfach besser. ❣
 

DarkWing13

Software-Overclocker(in)
WOW!
Knapp 100W Mehrverbrauch, um in den 20 Test-Spielen den 5800X in knapp der Hälfte der Titel knapp zuschlagen...bei 720p wohlgemerkt! :lol:
 

Markzzman

Software-Overclocker(in)
Mit solcher Museeumshardware bist Du disqualifiziert. Komm mal im 2021 an!
Echt jetzt ?
Leute fronten weil sie etwas ältere Hardware besitzen ? :daumen2:
Du kennst die Leute doch nicht und was sie mit ihren Rechnern machen und wofür sie die gebrauchen.

Was ist denn jetzt dein Auftrag hier ?
Irgend ´ne Firma verteidigen bis auf´s letzte, die ´nen feuchten Furz auf dich geben ?

Geht glaube auch hier nur um Farben und Balken...

Stimmt. Und wenns jetzt so wäre dass der Ryzen mit 0,1 vorne wäre? Ists dann tendentiös mit roter Brille? :ka:

Ist doch in dem Ausmaß egal wer da jetzt oben steht, die Aussage ist in unserem Testparcours sind die CPUs im Mittel gleich schnell. Da gibts nichts zu tendieren, das sind einfach stur ermittelte und in Excel geklöppelte Zahlen.
 

FKY2000

PCGHX-HWbot-Member (m/w)
Das ist ein Punkt von vielen. Mir persönlich ist das auch sehr wichtig aber der großen breiten Masse da draußen ist das erfahrungsgemäß völlig egal. Die Leute kaufen die CPU die 3% schneller ist egal ob die dafür doppelt so viel verbraucht. Das ist abseits von Nerdforen einfach die Praxis (einfach weil die allermeisten keine Ahnung vom Verbrauch haben und wenns hoch kommt mal auf die TDP kucken die ja fast dieselbe ist bei den CPUs - dass die damit kaum was zu tun hat weiß eh keiner).
Auch falsch.

Wenn Du schon "der breiten Masse da draußen" etwas unterstellst oder andichtest, dann doch wohl eher, dass nach Preis/Leistungsverhältnis gekauft wird und weniger "stumpf" nach "was ist am schnellsten".
Wenn wir schon verallgemeinern, dann passt genau das wohl doch eher zu den "Nerds"
 

IronAngel

BIOS-Overclocker(in)
Aber Gaming technisch finde ich AMD, aber sogar auch Intel was den Stromdurst angeht völlig in Ordnung.
Geht so, der Verbrauch gegenüber der Vorgänger Architektur ist schon etwas bis deutlich angestiegen. Je nach Benchmark halt. Dafür liefern sie auch mehr Leistung. Das liegt leider daran das jeder in den Benchmarks ganz oben liegen möchte. Und natürlich liegt AMD dort in der Führung.

Im Zweifel muss man bei AMD den Eco Mode aktivieren, damit die Effizienz deutlich steigt.
 

Nebulus07

Software-Overclocker(in)
WOW!
Knapp 100W Mehrverbrauch, um in den 20 Test-Spielen den 5800X in knapp der Hälfte der Titel knapp zuschlagen...bei 720p wohlgemerkt! :lol:
Hauptsache die können auf die Packung schnellste Gaming CPU schreiben. (für die ersten 15 Sekunden bis das Temp und TDP Limit anspringt)
Ist wohl auch kein Zufall das die AMD CPU nur 0,1% langsamer ist. Intel hat seine Schlagzeile "Schnellste Gaming CPU". Was da wohl wieder an Werbezusagen gemacht wurden, damit genau das rauskommt.
Denn 0,1% liegt innerhalb der Meßtoleranz. Es fehlen sowieso die +- Range Angaben bei den Werten!
 

RtZk

Lötkolbengott/-göttin
WOW!
Knapp 100W Mehrverbrauch, um in den 20 Test-Spielen den 5800X in knapp der Hälfte der Titel knapp zuschlagen...bei 720p wohlgemerkt! :lol:

100 Watt Mehrverbrauch? Ein 5800X kann dauerhaft 142 Watt ziehen, ein 11900k 125 Watt. Also insofern der 11900k nicht dauerhaft 125 und der 5800X weniger als 25 Watt verbraucht ist deine Aussage ziemlicher Schmarn.
 

PCGH_Dave

Redaktion
Teammitglied
Hauptsache die können auf die Packung schnellste Gaming CPU schreiben. (für die ersten 15 Sekunden bis das Temp und TDP Limit anspringt)
Ist wohl auch kein Zufall das die AMD CPU nur 0,1% langsamer ist. Intel hat seine Schlagzeile "Schnellste Gaming CPU". Was da wohl wieder an Werbezusagen gemacht wurden, damit genau das rauskommt.
Denn 0,1% liegt innerhalb der Meßtoleranz. Es fehlen sowieso die +- Range Angaben bei den Werten!
Heute morgen mit dem falschen Fuß aufgestanden? ;)
Wird im Text darunter direkt mit erläutert:

Wir sind uns bewusst, dass die geringste Abweichung die Krone für den jeweils anderen bedeuten kann. Spiele erhalten oft Updates und Erweiterungen und selbstverständlich halten wir den CPU-Index auf dem neuesten Stand. Spätestens nach dem Release einer neuen CPU-Generation müssen die alten Werte neu überprüft werden. Wundern Sie sich daher bitte nicht, wenn mal AMD und mal Intel auf dem Thron sitzt.
 

Markzzman

Software-Overclocker(in)
Geht so, der Verbrauch gegenüber der Vorgänger Architektur ist schon etwas bis deutlich angestiegen. Je nach Benchmark halt. Dafür liefern sie auch mehr Leistung. Das liegt leider daran das jeder in den Benchmarks ganz oben liegen möchte. Und natürlich liegt AMD dort in der Führung.

Im Zweifel muss man bei AMD den Eco Mode aktivieren, damit die Effizienz deutlich steigt.
Klar die 10th Gen war etwas sparsamer.
Ich meine nur, wenn meine CPU in games 60-70 Watt nimmt und selbst ein 10900K nicht soviel mehr nimmt, dann finde ich das in Ordnung.

In Games nimmt sich da AMD wie Intel einfach nicht viel.

Da wird aus möglichen Stromaufnahmen in bestimmten Szenarien (Cinebench, Blender etc.) auch immer mehr draus gemacht von den Leuten, als es tatsächlich ist.
 

Nebulus07

Software-Overclocker(in)
1617198889738.png


1617198932784.png


Beide Bilder anschauen, verstehen und dann mal überlegen, was macht Intel da?

Intel verbraucht 72W !!! AMD 32W !!! FÜR den gleichen Workflow !!!!
 

Gurdi

Kokü-Junkie (m/w)
Man muss das differenziert betrachten. Testet man ausschließlich moderne Low-Level-API-Engines, macht eine RX 6900 XT absolut Sinn, die Karte von AMD ist dort nachweislich schneller als eine RTX 3090 (nicht in allen Titeln, aber in den meisten), wir konnten im Worst Case ein Plus von 48 Prozent für die 6900 XT messen(!). Igor hat also recht. Auf unseren CPU-Index angewandt, ist es allerdings etwas anderes, da darin auch vergleichsweise alte Engines mit Direct X 11 vertreten sind. Hier liegt Nvidia wieder von, ein Zuwachs von 30 bis 40 Prozent ist auch hier möglich. Dann gibt es Spiele, wie Doom (Vulkan) oder Crysis Remastered (DX 11), wo die Wahl der GPU gar keine Rolle spielt (unter ein Prozent Unterschied). Dieser Misch-Masch ergibt ein Ende ein Gesamtbild, in unserem Fall mit leichtem Defizit für die Radeon. Wenn neue Spiele Einzug erhalten, wird auch die Wahl der Grafikkarte überdacht, so viel ist sicher.
AC Valhalla als nichts sagender Titel fällt euch jetzt bei dem knappen Ergebnis aber auch ein wenig auf die Füße. Jetzt habt Ihr euch selbst ne Sackgasse gebaut, den Titel jetzt zu tauschen kann nur noch nach hinten losgehen weil die Entscheidung für einen neuen Titel automatisch die Krone bestimmt.

Da habt Ihr euch keinen gefallen mit getan.

Die Problematik mit der 6900 und der 3090 kann ich nachvollziehen. Das wird jetzt auch keinen Sinn mehr machen, aber die 3090 zerschießt euch jetzt den Index dadurch.
 

cuthbert

Software-Overclocker(in)
100 Watt Mehrverbrauch? Ein 5800X kann dauerhaft 142 Watt ziehen, ein 11900k 125 Watt. Also insofern der 11900k nicht dauerhaft 125 und der 5800X weniger als 25 Watt verbraucht ist deine Aussage ziemlicher Schmarn.
Wenn du schon mit Power Limits argumentierst, solltest du evtl. auch berücksichtigen, dass Intel mit Adaptive Boost nun ein Mittel zur Verfügung stellt, dieses vollständig aufzuheben. So kommt es dann in eben tatsächlich zu besagten 100W mehr Verbrauch (sonst sind es "nur" 40W mehr, trotz aktiver Power Limits)

Dass ein 5800X nun mal in der (Game)-Praxis laut allen Tests, durchweg sparsamer arbeitet, sollte dann auch dir nicht entgangen sein.
 
Oben Unten