Intel Core i9-11900K, i7-11700K und i5-11600K im Test: Auf dem Thron ist nur Platz für einen Prozessor

Die Problematik mit der 6900 und der 3090 kann ich nachvollziehen. Das wird jetzt auch keinen Sinn mehr machen, aber die 3090 zerschießt euch jetzt den Index dadurch.
Und mit der 6900XT hättest du dank The Witcher 3 genau dieselbe Situation. Es gibt keine perfekte Lösung, man muss immer einen Kompromiss finden ;)
 
100 Watt Mehrverbrauch? Ein 5800X kann dauerhaft 142 Watt ziehen, ein 11900k 125 Watt. Also insofern der 11900k nicht dauerhaft 125 und der 5800X weniger als 25 Watt verbraucht ist deine Aussage ziemlicher Schmarn.
Intel hat vielleicht den längsten aber nicht den dicksten! Und wir alle wissen, was wichtiger ist!
 
Wenn du schon mit Power Limits argumentierst, solltest du evtl. auch berücksichtigen, dass Intel mit Adaptive Boost nun ein Mittel zur Verfügung stellt, dieses vollständig aufzuheben. So kommt es dann in eben tatsächlich zu besagten 100W mehr Verbrauch (sonst sind es "nur" 40W mehr, trotz aktiver Power Limits)

Dass ein 5800X nun mal in der (Game)-Praxis laut allen Tests, durchweg sparsamer arbeitet, sollte dann auch dir nicht entgangen sein.

Ja, es gibt Mittel, du kannst jede CPU freigeben, musst du aber nicht und viel Sinn macht es auch nicht, da der Mehrverbrauch in keinem Verhältnis steht.

Im Normalbetrieb hat man 30-40 Watt Mehrverbrauch bei ein paar % Mehrleistung eines 11900k gegenüber eines 5800X.
Im Endeffekt braucht ein 5900X und ein 5950X auch unverhältnismäßig mehr Saft als ein 5800X bei quasi gleicher Gaming Leistung, hier beschwert sich aber komischerweise keiner drüber.

Also ja, der 11900k braucht klar mehr als ein 5800X nur nicht mal im Ansatz 100 Watt mehr.
 
Für 4k brauchst gar nix kaufen da sitzt eine CPU aus 2017 genauso im GPU Limit wie eine aus 2021 :-)
Wirklich schnelle CPU ist doch nur interessant wenn leute (competitiv) spielen und in FHD mind. 144 fps haben wollen.
Klar, weil ein System im GPU Limit ist performt jede CPU gleich. Stammtisch lässt grüßen... achso und ja Amen!
 
15%-20% mehr IPC ja aber durch köpfen und/oder Wasserkühlungsprozesse und und und. Was hat Otto-normalo Benutzer davon? Aufem Papier 10-20 Sekunden schneller, 5-15 fps mehr in WQHD aber in wirklichkeit dasselbe Prozessor wie vor ein paar Monaten.
 
Und mit der 6900XT hättest du dank The Witcher 3 genau dieselbe Situation. Es gibt keine perfekte Lösung, man muss immer einen Kompromiss finden ;)
Ja das verstehe ich auch, meine Kritik richtet sich ja nach der Auswahl des Titels (AC Valhalla) nachdem man die Ergebnisse gesehen hat. Ich plädiere nicht unbedingt für den Einsatz der Radeon, wobei ich das bezogen auf die CPU durchaus zeitgemäßer gefunden hätte.
 
Anhang anzeigen 1359238

Anhang anzeigen 1359239

Beide Bilder anschauen, verstehen und dann mal überlegen, was macht Intel da?

Intel verbraucht 72W !!! AMD 32W !!! FÜR den gleichen Workflow !!!!
Ja wir haben das schon verstanden, was du uns vermitteln willst... :wall:
Nur die PCGH wird jetzt nicht ihren ganzen Artikel und ihre Messungen neu durchführen, nur weil du mit ihren Ergebnissen nicht einverstanden bist.

Und du brauchst uns auch nicht versuchen wollen die Augen zu öffnen.
Wir haben alle anderen Test und Videos zum Rocket Lake Launch auch gesehen.
Bist net der einzige Nerd hier.

Und stell dir vor: Einige haben hier Intel, sowie AMD CPUs bei sich liegen.
Man hat das mit eigenen Augen getestet und gesehen.
 
Im Normalbetrieb hat man 30-40 Watt Mehrverbrauch bei ein paar % Mehrleistung eines 11900k gegenüber eines 5800X.
Ja je nach Test ca 0-1% Mehrleistung ohne Adaptive Boost und 2-3% mit...
Im Endeffekt braucht ein 5900X und ein 5950X auch unverhältnismäßig mehr Saft als ein 5800X bei quasi gleicher Gaming Leistung, hier beschwert sich aber komischerweise keiner drüber.
Ein Gamer braucht (stand heute) eben auch keine 12 oder 16 Kerne, zumindest nicht, wenn es nur ums Zocken geht. Wer sich nen 5900X/5950X holt, macht wahrscheinlich mehr damit als nur zu Zocken und da bringt das dann im Optimalfall bei guter Multi-Core Skalierung eben entsprechend sehr wohl eine deutliche Mehrleistung. In diesem Fall ist der Mehrverbrauch dann nicht mehr "unverhältnismäßig".

Dazu kommt noch, dass diese CPUs trotz der vielen Kerne in der Regel immer noch etwas genügsamer sind als der 11900K ohne AB.

Also ja, der 11900k braucht klar mehr als ein 5800X nur nicht mal im Ansatz 100 Watt mehr.
Doch wie gesagt, wenn man Adaptive Boost benutzt, womit die CPU ja scheinbar auch offziell vermarktet und beworben wird.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Intel darf etwas schneller sein, solange der Preis des 5800x oder 5900x sinkt. Ihr habt Probleme.

Ich finde die TDP und der tatsächliche Verbrauch muss auf der Packung stehen.

105 Watt TDP bei AMD sind nur ein Wert für die vom Kühler abzuführende Wärme.

Bei Intel sind die 125 Watt der Durchschnittliche Verbrauch, der locker über 225 Watt gehen kann.


Quelle:

Intels aktuelle Definition der TDP​

Intel definiert die TDP aktuell als „die durchschnittliche Leistungsaufnahme (in Watt), die der Prozessor beim Betrieb auf Basisfrequenz ableitet, wenn alle Kerne bei einer von Intel definierten, hochkomplexen Arbeitslast aktiv sind“.

Die TDP garantiert den Basistakt​

Die viel wesentlichere Aussage in Intels Definition ist allerdings „beim Betrieb auf Basisfrequenz“. Die TDP entspricht also dem Verbrauch der CPU bei Basis-Takt in Intels Test. Mit dem Verbrauch bei Turbo-Taktraten und in anderen Anwendungen hat die Definition damit erst einmal nichts zu tun. Wie viel Strom ein Prozessor im Alltag (kurzfristig) maximal aufnimmt, lässt sich über die TDP nicht ableiten und dass CPUs im Turbo das Doppelte oder Dreifache verbrauchen steht nicht im Widerspruch zur Definition.

Also bringt mir Intels TDP erstmal gar nichts, wenn es um den Stromverbrauch geht.

AMDs aktuelle Definition der TDP​

Auch AMDs TDP hat zum Ziel, Herstellern vorzuschreiben, welche Verlustleistung ein Kühlsystem mindestens dauerhaft abführen muss, um den Prozessor nicht auszubremsen. AMD nähert sich der TDP dabei allerdings nicht über eine konkrete Messung des CPU-Verbrauchs, sondern eine theoretische Betrachtung des Kühlsystem an. AMD spricht bei der TDP deshalb auch von „thermischen Watt“ nicht „elektrischen Watt“.

AMD sagt „Die TDP ist ein striktes Maß für die thermische Verlustleistung eines ASIC, die das minimale Kühlsystem definiert, um die spezifizierte Leistung zu erreichen“. Berechnet wird die TDP über eine Formel, die zwei Eigenschaften von CPU und Kühler sowie die Umweltbedingungen berücksichtigt: Die maximal erlaubte CPU-Temperatur, den Wärmewiderstand des Kühlers sowie die Temperatur der kühlenden Luft.

Sagt auch nix über Verbrauch aus.


https://www.computerbase.de/2018-08/cpu-tdp-verbrauch-amd-intel/
 
AC Valhalla als nichts sagender Titel fällt euch jetzt bei dem knappen Ergebnis aber auch ein wenig auf die Füße. Jetzt habt Ihr euch selbst ne Sackgasse gebaut, den Titel jetzt zu tauschen kann nur noch nach hinten losgehen weil die Entscheidung für einen neuen Titel automatisch die Krone bestimmt.

Da habt Ihr euch keinen gefallen mit getan.

Die Problematik mit der 6900 und der 3090 kann ich nachvollziehen. Das wird jetzt auch keinen Sinn mehr machen, aber die 3090 zerschießt euch jetzt den Index dadurch.
Setzt vorraus das sich die Ergebnisse der einzelnen CPUs dann plötzlich drastisch verändern. Also am Ende der prozentuale Unterschied sich verschiebt. Wenn es aber am Ende nur darauf hinausläuft das bei einer GPU Intel 100fps und AMD 99 fps und bei der anderen Intel 125fps und AMD 123,75fps macht, ist dann für das Endergebnis egal.
In den meisten Fällen scheinen die Unterschiede marginal für oder gegen einen Hersteller zu sprechen. (Ausnahmen gibt es wie immer)
Dave kann da einem schon leid tun. Egal was man macht man wird am Ende irgendjemanden bevorzugen, sowas kann man kaum verhindern.

Aber finde es immernoch schade das der CPU Test kaum Spiele beinhaltet bei denen man sehr leicht in die CPU Limits rennt und einem teilweise deutlich unter 60 fps drücken können.
 
Nur ist halt Leistungsaufnahme = Leistungsabgabe.
Das sind alles Wortspiele um die Trägheit der Wärmekapazität auszunutzen.
 
Also halten wir fest das die 11600KF eine Alternative in der Mitte zwischen
dem 3600(X) und dem 5600X ist. Alle anderen sind zu teuer zu beliebig zu
austauschbar.
Ich danke Dave aber trotzdem für die Mühe und recht machen kann man es eh
kaum jemanden hier. Ich bin auch immer der Meinung nur die aller neusten Spiele
zu Testen. Die AMD CPUs & GPUs sind ja auch nicht unspielbar langsam in alten spielen,
das Nvidia unter DX11 fast unschlagbar gut ist weis eigentlich auch jeder.
AMD hat aber die Stärken (z.b. Sam) die von PCGH oft klein geredet werden.
Auf der anderen Seite wird das von Onkel Igor und anderen versierten Testern
gefeiert. Kann ja jeder sein eigenes Fazit erarbeiten.
Das nun der Workflow nicht mehr getestet wird geschenkt...
Ich lese einfach gerne Dave seine Arbeit.
:pcghrockt:
 
Für die AMD / Nvidia vergleiche gibt es ja die Community Benchmarks (die übrigens im Umfang zugenommen haben). Dort kann man dann auch mal vergleichen, was OC von RAM und CPU, sowie GPU in 720p (oder niedriger, also im CPU limit) und in höheren Auflösungen so bringt.

Also kein Grund hier immer weder auf den einen, noch auf den anderen rum zu hauen.

Macht halt bei den Benchmarks mit oder schaut sie euch an, da hat man dann einen Überblick was Optimierungen so bringen (sind wir ehrlich, wer lässt HIER im Forum die CPU oder GPU oder RAM wirklich mit Hersteller speccs laufen? ;) )
 
wenn es deiner Meinung entspricht ist es also reflektiert. lol Selbstüberschätzung

Für Spieler und Co. eindeutig die bessere Option, ja. Für alle anderen liefert Intel die GPU mit, was in der Zeit der völlig gestörten GPU Preise schon Vorteile hat

Ja, da brauche ich aber dann auch keine k-Version. Und für ein Produktivsystem finde ich dann den 10900 non-k am ansprechensten - im oberen Segment.
 
Also halten wir fest das die 11600KF eine Alternative in der Mitte zwischen
dem 3600(X) und dem 5600X ist. Alle anderen sind zu teuer zu beliebig zu
austauschbar.
Gibt viele Alternativen.
Aus der alten Generation, wie zB. den 10400F, 10700KF, 10850K.
Es muss nicht immer das aktuellste sein, um ein gutes Produkt zu haben.

Aber ja du hast Recht zum 5600X ist der 11600KF gerade Preismäßig eine gute Alternative.
Den Rest von Rocket Lake kannste harken und lieber oben genannte nehmen.
 

Anhänge

  • NEUE Games.jpg
    NEUE Games.jpg
    453,6 KB · Aufrufe: 145
Also Respekt Intel.

Wirklich gut, was man aus den 14nm noch herausholen kann und wenn es dann am Markt preislich passt finde ich die Intels zum Gamen wirklich sehr gelungen. Mit sinnlosem OC Modus der zumindest in Benches kurzfristig P1 sichern kann (wobei dies ja unterschiedliche Magazine auch sehr unterschiedlich sehen), aber dennoch auch mit sehr guter Leistung @Stock. Verbrauch stört mich gar nicht, gerade in Games ist das für mich egal (nicht völlig, aber ganz ehrlich, wer 400W in die Graka pumpt, den stören dann auch 100W oder 200W in der CPU nicht mehr | es geht hier um wenige Stunden in der Woche)

ABER

Das aber ist derzeit wirklich sehr sehr groß, denn es scheint mit dem Speichercontroller ja eher ein Rückschritt um Jahrzehnte zu sein, wo man vorher bedenkenlos 4000er oder mehr aufs Board schnallen konnte und sich einen fetten Bonus abholen konnte, scheint dies mit G1 und G2 Thematiken nicht mehr drin zu sein, damit bleibt dann eine einzige CPU die 3200 mit ordentlichem Speed ansetzen kann. Der Rest fällt dann mal eben um 10% zurück, was natürlich Käse ist. Denn damit fällt man schon hinter die eigene 10th Serie zurück was dann wirklich gar keinen Sinn mehr macht, vor allem da man dort bedenkenlos den fetten Speicher reinsetzen kann und 20-30% Leistungsplus (mit OC) holen kann.

Das bedeutet derzeit, dass ich RL nicht wirklich empfehlen kann, derzeit ist der Preis am Markt nicht wirklich attraktiv, 5800X, 11700k und 10850k spielen alle in der gleichen Preisklasse, derzeit würde ich davon den 11700k auf dem letzten Platz sehen, den 10850k auf P1, den 5800X auf P2.
Der 10850 ist preislich am günstigsten (30 EUR) und bietet dazu am meisten Potenzial, mit ordentlichem RAM und klugem OC wird man das meiste an Leistung herauskitzeln können.
 
Für die AMD / Nvidia vergleiche gibt es ja die Community Benchmarks (die übrigens im Umfang zugenommen haben). Dort kann man dann auch mal vergleichen, was OC von RAM und CPU, sowie GPU in 720p (oder niedriger, also im CPU limit) und in höheren Auflösungen so bringt.

Also kein Grund hier immer weder auf den einen, noch auf den anderen rum zu hauen.

Macht halt bei den Benchmarks mit oder schaut sie euch an, da hat man dann einen Überblick was Optimierungen so bringen (sind wir ehrlich, wer lässt HIER im Forum die CPU oder GPU oder RAM wirklich mit Hersteller speccs laufen? ;) )
Hier sind die Benchmarks zu finden:

Und wenn sie einigermaßen Anklang finden kommen da auch noch mehr.
 
Nur ist halt Leistungsaufnahme = Leistungsabgabe.
Das sind alles Wortspiele um die Trägheit der Wärmekapazität auszunutzen.

Im längerfristigen Mittel, dass sowohl bei der Kühlerdimensierung als auch beim Stromverbrauch interessiert, entspricht die elektrische Leistungsaufnahme der thermischen Leistungsabgabe. Nur bei der Netzteildimensionierung muss man darüber hinaus auch kurze Lastspitzen beachten.
 
Zurück