• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Core i9-11900K, i7-11700K und i5-11600K im Test: Auf dem Thron ist nur Platz für einen Prozessor

seriesx

Komplett-PC-Aufrüster(in)
Das Fazit ist viel zu Positiv ist das ein Witz. Intel uahlt prächtig schon klar aber immer noch? User pcgh?
 

Pu244

Lötkolbengott/-göttin
Das Fazit ist viel zu Positiv ist das ein Witz. Intel uahlt prächtig schon klar aber immer noch? User pcgh?

Hast du für deine Bestechungsvorwürfe auch irgendwelche Beweise?

Der Test ist übrigens relativ intelfeindlich, da die TDP begrenzt wird. Mit freigegebener TDP und gutem DDR4 4000er RAM, könnte man das ganze zu Gunsten von Intel verschieben.
 

Der_Unbekannte

Freizeitschrauber(in)
Eigentlich wollte ich diesen Artikel gar nicht kommentieren, denn der Bias ist mittlerweile nur noch zum Kotzen.

Das Fazit zusammengefasst:

Nur Positiv, bis auf einen kleinen Hinweis auf die Effizienz.

Fassen wir kurz Rocket Lake zusammen:
- abartig hoher Stromverbrauch
- wird von der Konkurrenz regelrecht vernichtet
- kann sich von den eigenen Vorgängern kaum absetzen

Kommt irgendwo bekannt vor? Richtig, Bei AMD sah es vor 10 Jahren mit Bulldozer ähnlich aus.

Hier fiel das Fazit anders, deutlich differenzierter aus:

"Jeder, der sich viel mit modernen Multimedia-Programmen beschäftigt und eine technisch interessante AMD-Architektur sein Eigen nennen will, greift zu einem FX-8150. Alle anderen fahren mit einem Phenom II X6 1090T für nur 140 Euro momentan fast genauso gut. Und wer einzig Spiele auf dem Radar hat, der ist mit Intels Core i5-2500K aktuell besser beraten. "

Warum ist das so PCGH?
 

Pu244

Lötkolbengott/-göttin
Fassen wir kurz Rocket Lake zusammen:
- abartig hoher Stromverbrauch
- wird von der Konkurrenz regelrecht vernichtet
- kann sich von den eigenen Vorgängern kaum absetzen

1: Die TDP ist begrenzt worden, also "nur" 125W zu 105W.
2: Vernichtet definitiv nicht, im Gegenteil die CPU kann sogar einen Sieg, im Rahmen der Messunsicherheit, davontragen.
3: Wenigstens hat er sich irgendwie verbessert.
4: Die CPU hat AVX 512 und eine neue IGP.

Der R9 5900X und 5950X sind zwar für Zocker mMn die deutlich bessere Wahl, so mies, wie du ihn darstellst, ist Rocketlake allerdings nicht.

Kommt irgendwo bekannt vor? Richtig, Bei AMD sah es vor 10 Jahren mit Bulldozer ähnlich aus.

Nicht zu vergleichen. Der Bulldozer war in Spielen schwächer als der Phenom II, pro Kern sowieso und gegenüber Intel war der Rückstand gigantisch. Rocketlake ist hingegen gar nicht schlecht, wenn man sich auf 8 Kerne beschränkt.
 

Incredible Alk

Moderator
Teammitglied
Bei AVX 512 würde ich das nicht unterschreiben.
Ja, Ausnahmen bestätigen die Regel - wobei AVX auch wenn die Leistungsaufnahme (künstlich) unten gehalten wird schon die Leistung massiv steigert in passenden Workloads, hier ists genauso dass die letzten 300 MHz extrem viel Leistungsaufnahme verursachen ohne viel Performance zu bringen - nur insgesamt halt auf nem höheren Level als ohne AVX.
 

arthur95

Freizeitschrauber(in)
Finde den Test auch sehr tendenziös und ein wenig mit der "blauen Brille" geschrieben!

Vor allem, dass der wegen 0,1 Vorsprung als führende CPU gelistet wird.
In vielen anderen Test schneidet er schlechter ab als der Vorgänger und meiner Meinung nach sind 0,1% sowas von in der Messtoleranz. Wenn ihr den Test ein paar mal machen würdet käme sicher mal der 5950X als führende CPU
heraus.
Auch unpassend finde ich, dass man Anwendungen komplett ausgespart hat!
 

Incredible Alk

Moderator
Teammitglied
Vor allem, dass der wegen 0,1 Vorsprung als führende CPU gelistet wird.
In vielen anderen Test schneidet er schlechter ab als der Vorgänger und meiner Meinung nach sind 0,1% sowas von in der Messtoleranz.
Stimmt. Und wenns jetzt so wäre dass der Ryzen mit 0,1 vorne wäre? Ists dann tendentiös mit roter Brille? :ka:

Ist doch in dem Ausmaß egal wer da jetzt oben steht, die Aussage ist in unserem Testparcours sind die CPUs im Mittel gleich schnell. Da gibts nichts zu tendieren, das sind einfach stur ermittelte und in Excel geklöppelte Zahlen.
 

Der_Unbekannte

Freizeitschrauber(in)
@Pu244

Kann man sehr wohl vergleichen.

Wenn ich micht Recht entsinne, war Bulldozers größter Kritikpunkt die richtig miese Effizienz gegenüber Intel.
Bulldozer war in Spielen mal vorne, mal hinten gegenüber Phenom, genauso wie Rocket Lake vs Comet Lake.

Ich sehe da keinen Unterschied.

Vor allen Dingen: Was soll das? Eine CPU kann nur in Leistung pro Watt objektiv bewertet werden. Ich kann mich nicht mit ernstem Gesicht hinstellen und behaupten, dass meine CPU 5 Prozent schneller als die Konkurrenz ist, ich aber dafür doppelt so viel Energie benötige und die 100 Grad regelmäßig ankratze.

Gamers Nexus sieht den Vergleich Bulldozer vs Phenom übrigens ebenso angebracht.

Die einzigen Chips, die man sich ansehen kann, sind die i5. Den Rest kannst in die Tonne treten. Der 11900k wird vom 10900K/10850K durchweg geschlagen. Was soll daran gut sein?
 

Incredible Alk

Moderator
Teammitglied
Eine CPU kann nur in Leistung pro Watt objektiv bewertet werden.
Das ist ein Punkt von vielen. Mir persönlich ist das auch sehr wichtig aber der großen breiten Masse da draußen ist das erfahrungsgemäß völlig egal. Die Leute kaufen die CPU die 3% schneller ist egal ob die dafür doppelt so viel verbraucht. Das ist abseits von Nerdforen einfach die Praxis (einfach weil die allermeisten keine Ahnung vom Verbrauch haben und wenns hoch kommt mal auf die TDP kucken die ja fast dieselbe ist bei den CPUs - dass die damit kaum was zu tun hat weiß eh keiner).
 

Lamaan

Freizeitschrauber(in)
Wie kommst du darauf, dass das AMDs Verdienst ist? Soweit ich weiß kommt der 7nm Prozess von TSMC und AMD wäre heute nicht dort, wo sie jetzt sind, wenn sie die 7nm nicht hätten.
Intel jongliert hier noch mit ihrem 14nm Prozess und ist performancetechnisch auf Augenhöhe. Das spricht nicht wirklich für AMD.

Stell dir mal vor Intel wäre jetzt bei 7nm. AMD würde kein Land mehr sehen. Deswegen versteh ich auch nicht so ganz, weshalb AMD immer so in den Himmel gelobt und Intel gehatet wird. TSMC ist der Grund, weshalb AMD die Performancekrone hat.
Ehrlich, ich freue mich wenn Intel endlich auch im Desktop ihre 10nm, soll ja gleich TSMC 7nm sein, launcht.
Dann hört dieser Blödsinn, von wegen Intel wird AMD vernichten und Intel ist unglaublich toll, weil dies und jenes, 14 nm +++, genauso schnell auf wie die Sache mit der Schublade.

Denn der Fail mit ihrem „7“nm im Notebook reicht offensichtlich noch nicht damit die Realität bei allen Einzug hält.

Mit freundlichen Grüßen
 
Zuletzt bearbeitet:

Nebulus07

Software-Overclocker(in)
Intel hat die schnellste CPU in VGA Auflösung von 640x480 und 1024x720 :)

Wer im 2021 angekommen ist, kauft eher eine CPU die in 4K Leistung hat !



1617184499346.png
 

Incredible Alk

Moderator
Teammitglied
Oh bitte nicht schon wieder :wall:

Das bitte hierhin auslagern wos drölfzigmal durchgekaut wurde.
 

Nebulus07

Software-Overclocker(in)
Oh bitte nicht schon wieder :wall:

Das bitte hierhin auslagern wos drölfzigmal durchgekaut wurde.
Ich will damit nur darauf hinweisen, das ein 4K Test auch interessant gewesen wäre! Es wurde aber keiner gemacht! Nicht einer! Und dann hätte man mal gesehen wie UNWICHTIG es ist welche CPU man hat! i9 und i7 und i5 wären alle gleichschnell!! Aber so was will man dem Publikum gerne vorenthalten, damit die die überteuerten Produkte kaufen!
 

Pu244

Lötkolbengott/-göttin
Finde den Test auch sehr tendenziös und ein wenig mit der "blauen Brille" geschrieben!

Vor allem, dass der wegen 0,1 Vorsprung als führende CPU gelistet wird.
In vielen anderen Test schneidet er schlechter ab als der Vorgänger und meiner Meinung nach sind 0,1% sowas von in der Messtoleranz. Wenn ihr den Test ein paar mal machen würdet käme sicher mal der 5950X als führende CPU
heraus.
Auch unpassend finde ich, dass man Anwendungen komplett ausgespart hat!

Es ist eben immer die Frage, wie man so testet. Prinzipiell ist der Test sehr sinnvoll aufgebaut und hat auch einige Dinge enthalten, die Intel benachteiligen. Da wäre zum einen die TDP, wenn keine Begrenzung und der RAM, der immer den Takt hat, den AMD oder Intel freigegeben haben. Natürlich befinden wir uns in der Messtolereanz und wenn man die Benchmarks neu durchlaufen läßt, dann könnte durchaus der R9 3950X gewinnen. Deshalb sollte man auch selbst das Denken anfangen, in der Zukunft wird das ganze zu Gunsten des R9 3950X ausgehen.

Bei den Multicoreanwendungen kann man sich tatsächlich die Frage stellen, ob man sie weglassen kann/sollte. Für den Ottonormalgamer gibt es da wenig interessantes, da es meist entweder nicht verwendet wird (Cinebench, Videokompression, Verschlüsselung) oder schnell genug ist (Datenkompression). Wenn man natürlich Cinebench, h.265 Kompression, Truecrypt und 7zip genommen und z.B. mit 20-40% gewichtet hätte, dann wäre es ein haushoher Sieg für den R9 5900X und 5950X gewesen, aber auch die alen So 2066 CPU hätten ordentlich hinzugewonnen.

Intel hat die schnellste CPU in VGA Auflösung von 640x480 und 1024x720 :)

Wer im 2021 angekommen ist, kauft eher eine CPU die in 4K Leistung hat !

Eine CPU, die in 720p Leistung hat, besitzt diese auch in 4K und 8K, sie wird nur nicht durch die GPU maskiert. Wenn man sich eine CPU kauft, dann interessiert, was die CPU leistet und nicht, dass die RTX 3090 das System beschränkt.

Deshalb testet man CPUs in 720p.
 

Nebulus07

Software-Overclocker(in)
Eine CPU, die in 720p Leistung hat, besitzt diese auch in 4K und 8K, sie wird nur nicht durch die GPU maskiert. Wenn man sich eine CPU kauft, dann interessiert, was die CPU leistet und nicht, dass die RTX 3090 das System beschränkt.

Deshalb testet man CPUs in 720p.
CPUs testet man Grundsätzlich nicht mit Spielen, sondern Anwendungen!
Und weil es hier eben eine Spieleseite ist, hätte man auch realistische Auflösungen nehmen können, um zu zeigen, dass die neuen CPUs blödsin sind zu kaufen, die bringen keinen Mehrwert, weil GPUs eh ab 1440p schlapp machen, egal welche CPU verbaut ist.
 

Pu244

Lötkolbengott/-göttin
CPUs testet man Grundsätzlich nicht mit Spielen, sondern Anwendungen!

Nein, mach man nicht, da es da immer schwächen gibt. So wäre ein altes 64 Kern Atomsystem durchaus auf dem Niveau eines i9 10900K oder R7 3800X, in Spielen wäre die CPU aber nicht wirklich zu gebrauchen.

Und weil es hier eben eine Spieleseite ist, hätte man auch realistische Auflösungen nehmen können, um zu zeigen, dass die neuen CPUs blödsin sind zu kaufen, die bringen keinen Mehrwert, weil GPUs eh ab 1440p schlapp machen, egal welche CPU verbaut ist.

Ich kann aus eigener Erfahrung sagen, dass das nicht stimmt. Mein i7 3770 hat bei meiner GTX 980Ti einiges an Leistung liegen gelassen, die FPS waren oft wie festbetoniert, egal ob ich Full HD@ niedrig oder WQHD@Ultra genommen habe. Eine neuere Karte hätte wenig Sinn ergeben, da ich mit der CPU die Mehrleistung nicht hätte ausspielen können. Ein CPU Test soll genau das aufzeigen.
Hier mal ein richtiger Benchmark!

Besitzt in Spielen wenig Aussagekraft.
 

tigra456

Software-Overclocker(in)
Warst du nicht der, der sogar ein Golden Sample des 10900K erworben hat? :gruebel:Einen derart optimierten 10900K, der beim Arbeitsspeicher locker auch >DDR4-4700 mit macht, dürfte einen 11900K locker "an die Wand klatschen" (und wäre dabei sogar noch sparsamer). In Szenarien mit hoher Parallelisierung könntest du sogar Leistung verlieren. Wozu dann das "Upgrade"? :ka:

Golden Sample glaube ich nich/weiß ich nicht. Meiner war ausm Luxx Forum von Cens, angeblich ein 5,3GHZ Modell...
Ram war bei dem von mir erworbenen Modell nur auf 4000 Mhz getestet worden.

Momentan rennt der bei mir auf 5.0 Ghz (Core 1-3 wie Serie) und dem 4000er RAM.
Nachdem ich die VCCIO und VCCSA Spannung auf 1.25 gestellt habe, ist alles gelaufen.
Wie weit der noch hoch geht, weiß ich nicht genau. Bin mir im Moment nicht sicher mit welchen Tools ich das am gescheitesten machen soll.

Was meinst Du mit welcher GHZ / RAM Config könnte man dem 11900K Paroli bieten/gleich ziehen ?

Das PCI-E 4.0 Upgrade dann lieber außer Acht lassen ?

Die Vorbestellung vom 11900K wurde von Proshop verschoben. (550 Euro)....

Dann wäre das Z590-E hier aufm Tisch ja nur noch wegen der guten VRM Versorgung nutzbar....
 
Zuletzt bearbeitet:

Nebulus07

Software-Overclocker(in)
Nein, mach man nicht, da es da immer schwächen gibt. So wäre ein altes 64 Kern Atomsystem durchaus auf dem Niveau eines i9 10900K oder R7 3800X, in Spielen wäre die CPU aber nicht wirklich zu gebrauchen.
64 Atomkerne? Sowas gibts nicht !

Ich kann aus eigener Erfahrung sagen, dass das nicht stimmt. Mein i7 3770 hat bei meiner GTX 980Ti einiges an Leistung liegen gelassen, die FPS waren oft wie festbetoniert, egal ob ich Full HD@ niedrig oder WQHD@Ultra genommen habe. Eine neuere Karte hätte wenig Sinn ergeben, da ich mit der CPU die Mehrleistung nicht hätte ausspielen können. Ein CPU Test soll genau das aufzeigen.
Mit solcher Museeumshardware bist Du disqualifiziert. Komm mal im 2021 an!

Besitzt in Spielen wenig Aussagekraft.
Alles abhängig vom Betrachtungswinkel.. Die MISCHUNG macht es !
 

chill_eule

Volt-Modder(in)
Hier mal ein richtiger Benchmark!
Wie du siehst, gibt es auch zahlreiche andere Medien die sich dem Thema widmen.
Da Intel die neuen CPUs selbst als die non-plus-ultra-gaming-CPU vermarktet ist es doch auch nur recht, dass PC Games Hardware sich hier auf seine ursprüngliche Kernkompetenz besinnt :nicken:

Zur Not guckt man halt schnell mal bei userbenchmark vorbei, da gibts eine Zahl und einen Balken und schon weißte bescheid, dass der 11900K 11% schneller als der 5950X ist.
Krasser shice. Was Intel da für eine Wunder-CPU gebaut hat grenzt schon an Magie :ugly:

1617182838787.png

:stupid::fresse:
 

seahawk

Volt-Modder(in)
Als ob sich irgend ein Politiker nach dir richten wird. Das wird natürlich schön niedrig angesetzt. Mit Glück werden es 75W für die GPU und 50W für die CPU. Wobei man da dann das Ziel des unter 100W Gaming PC verfehlen wird.


Das könnte man so machen, allerdings geben sich Politiker selten mit den Sinnvollen zufrieden. Von daher muß man sagen: wehret den Anfängen.

Ich wette übrigens, wenn AMD wieder zurückfallen sollte und sie diese Maßnahme, mit aller Härte trifft, dann wirst du einer der ersten sein, das herummotzt.

Eine gesetzliche Regelung kommt halt meist dann, wenn die Industrie maßlos wird. Und wenn eine 125W CPU 400W schluckt, dann kann man davon schon reden. Ich kann weder bei GPUs noch bei CPUs diesen Verbrauchsmonstern viel abgewinnen. Es vergeudet Energie und der Aufwand die Dinger zu kühlen explodiert.

Selbst wenn man 100W für GPU und CPU festlegen würde, dann käme man immer noch in Leistungsbereiche die vor 5 Jahren noch High-End waren.
 

Nebulus07

Software-Overclocker(in)
Wie du siehst, gibt es auch zahlreiche andere Medien die sich dem Thema widmen.
Da Intel die neuen CPUs selbst als die non-plus-ultra-gaming-CPU vermarktet ist es doch auch nur recht, dass PC Games Hardware sich hier auf seine ursprüngliche Kernkompetenz besinnt :nicken:

Zur Not guckt man halt schnell mal bei userbenchmark vorbei, da gibts eine Zahl und einen Balken und schon weißte bescheid, dass der 11900K 11% schneller als der 5950X ist.
Krasser shice. Was Intel da für eine Wunder-CPU gebaut hat grenzt schon an Magie :ugly:

Anhang anzeigen 1359220
:stupid::fresse:

JEDE WEBSEITE hat andere Benchmarks!

1617186634783.png
 

chill_eule

Volt-Modder(in)
JEDE WEBSEITE hat andere Benchmarks!
Ja, aber was willst du mir damit jetzt sagen?
Ist doch gut, dass es soviele unterschiedliche Tests gibt.
Wer Anwendungs-Tests sehen will der hat ja drölfzig Alternativen zur PCGH.
Ein Cinebench Balken hat auch null Aussagekraft für sich allein, weder für Games noch für Anwendungen :ka:
 

PCGH_Torsten

Redaktion
Teammitglied
Eben im Livestream mit Roman und einem Intel-Marketing-Ansprechpartner war erst das Argument, dass RL für Gamer gemacht wurde, auch im Zusammenhang mit den stark angestiegenen Ausmaßen und deswegen sogar 2 Kerne geopfert werden mussten. Der Anteil der IGP ist dementsprechend auch stark gewachsen. Gamer, die eine IGP brauchen/nutzen/wollen sind wie oft vorhanden? Es ist so unlogisch argumentiert, was von Intel da kommt... Man merkt, dass RL schon vor Jahren geplant war und bis heute mit der Uraltfertigung gearbeitet werden muss. Einfach mal die IGP weglassen und dafür mehr Kerne unterbringen war nicht mehr drin. Lustig ist nur, dass vom 11900K bis runter zum 11400F eigentlich alles das gleiche ist.

RKL wurde vermutlich sogar erst vor relativ kurzer Zeit konzipiert, besteht aber eben nur aus Copy-&-Paste-Bauteilen. Da es ebensowenig akzeptabel wäre, eine komplett IGP-freie 11th Gen zu machen (Intel verdient nun einmal sehr viel Geld mit Office-PCs, die zweckse Werbung keine "alte" Technik enthalten dürfen) wie im Jahr 2021 eine IGP mit Multimedia-Beschleunigungs(un)fähigkeiten und Display-Anschlüssen komplett auf dem Stand von Anno dazu mal zu verkaufen, haben sie also die kleinste Xe-Ausbaustufe aus dem Tiger-Lake-Baukasten genommen. Für Gamer ist ärgerlich, dass diese alles andere als klein ist, aber jede weitere Reduzierung hätte Ingenieursaufwand bedeutet und der war bei diesem Lückenfüller nicht vorgesehen.

Davon abgesehen ist das Argument mit "weniger Kerne weil unsere Kerne sind SOOOO FETT" ganz klar vorgeschoben: Intel hat weitaus größere Chips im Programm und da das physische Layout sowieso neu konzipiert werden musste, hätte man auch im Sockel 1200 mehr Silizium unterbringen können. Wäre beim derzeitigen 14-nm-Kapazitätsüberschuss vielleicht nicht einmal viel teurer gewesen. Aber das größere Problem dürfte der Stromverbrauch sein. Es dürfte für Intel von Anfang an offensichtlich gewesen sein, dass sie gegen einen ?950X in 14 nm kein Land sehen werden. Die einzige Chance war Single-Task-Leistung und zusätzliche Kerne über das derzeit im Zielmarkt sinnvolle hinaus hätten nur das Power-Budget pro Kern geschmälert.


Zudem natürlich die Frage, ob AMD es auch bei AM5 beibehält, dass man das IOD als Chipsatz zweckentfremdet. Da braucht es natürlich keine iGPU, man hätte aber dasselbe wie bei den CPUs (Desktop, EPYC hat ein eigenes). Der Vorteil ist gerade aktuell, mit dem einem IOD sowohl den Desktop, als auch den Chipsatz für X570 abdecken zu können. Dann bräuchte man also ein drittes IOD, weil eine iGPU beim Chipsatz Quatsch ist. Was wiederum unnötig den Aufwand erhöht.

Den IOD-Bauplan zusätzlich als I/O-Hub aufzulegen gilt allgemein als Notlösung, weil ASMedia nicht rechtzeitig fertig wurde/den Auftrag zu spät bekommen hat. Der X570 verbraucht zu viel, im fehlen wichtige Schutzschaltungen und vor allem sind rund ein Drittel seiner Siliziumfläche inaktiv. Jedes X570-Mainboard schleppt zwei IF-Links und einen Dual-Channel-DDR4-3200-Controller mit sich herum, dazu mindestens 28, mutmaßlich 32 PCI-Express-4.0-Lanes. Und weil das Ganze in 14 nm gefertigt wird, die Matisse-/Vermeer-IODs aber in 12 nm, kann AMD nicht einmal teildefekte Exemplare in die eine oder andere Richtugn recyclen. Bei den Stückzahlen, die AMD mittlerweile verkauft, ist fest mit einem eigenständigen I/O-Hub-Design als X570-Nachfolger zu rechnen. (Was nicht heißt, dass dieser Nachfolger bereits in der ersten AM5 Generation kommt. Ich rechne als nächstes mit einer Freischaltung der inaktiven Lanes von X570 und B550, um X670 und B650 zu kreieren.)


Ist es nicht so, dass bei Spielen oft Entwicklungsgeld gespart wird und PCs ähnlich angesprochen werden wie Konsolen ?

So wie ich das sehe sind die aktuellen Konsolen 8-Kerner CPUs drin, also ist die Chance hoch, dass im PC Bereich mit nem 8-Kerner auch alles super ist ?

Vereinzelte Spiele werden mehr Kerne nutzen und AMD / Intel bevorzugen....aber die grobe Richtschnur 8-Kern ist optimal reicht doch erstmal ?

Generell gilt: Entwicklungsaufwand, der die Performance auf Konsolen und Low-End-PCs verbessert, vergrößert die Zielgruppe. Entwicklungsaufwand, der irgendwo anders irgendwas bezweckt, dient nur dem Marketing und muss somit möglichst billig und in Screenshots möglichst gut zu erkennen sein. Mehrkernoptimierung im Grenzbereich zählt klar nicht zu letzterem. Die meisten Engines können zwar mittlerweile 16 bis 32 Kerne ansprechen, teilweise mehr. Aber wenn sich daraus nicht automatisch ein Performance-Gewinn ergibt, macht sich kaum jemand die Mühe, einen limitierenden Main-Task in kleinere Einheiten aufzulösen oder den Verwaltungsaufwand für 64 Threads soweit zu reduzieren, dass er die Mehrleistung nicht mehr auffrist. Von spezifischen Flaschenhälsen in Multi-Chip-Designs ganz zu schweigen. Man gucke sich zum Beispiel mal an, wo Threadripper 2000 oder, um zumindest monolithisch zu bleiben, ein Sockel-2066-Vielkerner, gegen einen Ryzen 5 5600X in Spielen stehen.
 

fotoman

Volt-Modder(in)
(einfach weil die allermeisten keine Ahnung vom Verbrauch haben und wenns hoch kommt mal auf die TDP kucken die ja fast dieselbe ist bei den CPUs - dass die damit kaum was zu tun hat weiß eh keiner).
Es soll auch Leute mit Ahnung geben, die sich sogar bewusst für sowas entscheiden, so lange es noch vertretbar zu kühlen ist.

Ob das hier der Fall sein wird, muss ein Anwendungstest der Anwedungen zeigen, welche für den jeweiligen Anwender relevant sind.

Wenn ich schon nur die gut 6% Vorsprung des i9-11900K vs. 5900X beim Cinebench R23 SC (ja Single Thread) bei Gamestar sehe, dann bringt mir sowas in der täglichen Nutzung mienes PCs u.U. mehr wie die 31% Rückstand bei MC.

CPUs testet man Grundsätzlich nicht mit Spielen, sondern Anwendungen!
Was soll das fürs Forum (oder auch schon für eine Zeitschrift, die PCGamesHardware heißt) bringen? Anwendungen interessieren hier niemanden. Chrome und Notepad merken in der hier üblichen Heimanwendung nichts von der neuen CPU.

Hier mal ein richtiger Benchmark!
Der Benchmark sagt auch nichts aus, ich arbeite nicht unter Linux. Meine Anwendungen gibt es nunmal nur für Windows und Mac OS. Damit ist für mich die Performance viel eher aus den Cinebench-Werten abzuleiten wie aus irgendwelchen Linux-Benchmarks.

JEDE WEBSEITE hat andere Benchmarks!
Klar, jeder testet auch anders. Egal, ob beim Ram oder bei irgendwelchen Powerlimits. Cinebench-Werte auf PCGH werden auch schlechter aussehen wie auf anderen Seiten, weil PCGH die CPU erst mal einbrennen lässt bevor sie die Werte ablesen. Was für Dauerlast sinnvoll ist, ist es für viele interaktive Anwendungen Schwachsinn.
 

Gurdi

Kokü-Junkie (m/w)
:lol:
Scherz, oder? Weil du den Unterschied zwischen HT on und off in Spielen so stark spürst?

Und hier mit dem 5950 X
Ja spürt man und zwar deutlich je Anwendung.
 

PCGH_Dave

Redaktion
Teammitglied
Was meinst Du mit welcher GHZ / RAM Config könnte man dem 11900K Paroli bieten/gleich ziehen ?
Das PCI-E 4.0 Upgrade dann lieber außer Acht lassen ?
Die Vorbestellung vom 11900K wurde von Proshop verschoben. (550 Euro)....
Dann wäre das Z590-E hier aufm Tisch ja nur noch wegen der guten VRM Versorgung nutzbar....
Es lohnt sich in meinen Augen ebenso wenig von Z490 auf Z590 aufzurüsten, zumal so manches Z490-Mainboard PCI-E 4.0 liefern kann. Letzteres bringt im absoluten GPU-Limit etwas mehr Performance, das tut aber auch eine Skylake-CPU, Cypress Cove dagegen nicht mehr. Die Frage ist dann nur, was schwerer wiegt, zwei fehlende Kerne, weniger Leistung im GPU-Limit oder das Plus an Leistung durch PCI-E 4.0?

Wie gesagt, wer einen 10900K und ein gutes Z490-Mainboard besitzt, kann sich entspannt zurücklehnen und auf Alder Lake warten, Rocket Lake ist keine fühlbare Verbesserung, außer man benötigt die neuen USB-Anschlüsse von Z590 :ugly:
 

Khemorex

Kabelverknoter(in)
Wie du siehst, gibt es auch zahlreiche andere Medien die sich dem Thema widmen.
Da Intel die neuen CPUs selbst als die non-plus-ultra-gaming-CPU vermarktet ist es doch auch nur recht, dass PC Games Hardware sich hier auf seine ursprüngliche Kernkompetenz besinnt :nicken:

Zur Not guckt man halt schnell mal bei userbenchmark vorbei, da gibts eine Zahl und einen Balken und schon weißte bescheid, dass der 11900K 11% schneller als der 5950X ist.
Krasser shice. Was Intel da für eine Wunder-CPU gebaut hat grenzt schon an Magie :ugly:

Anhang anzeigen 1359220
:stupid::fresse:
11% schneller für 5 sekunden bei einer TDP von 200W :ugly: (bis es dann runtergedrosselt wird , damit die cpu nicht durchbrennt :ugly:)
 

Pu244

Lötkolbengott/-göttin
Wenn ich micht Recht entsinne, war Bulldozers größter Kritikpunkt die richtig miese Effizienz gegenüber Intel.

Der Hauptkritikpunkt war einfach die unglaublich miese Leistung. Die Stromaufnahme interessiert die meisten nicht. Wenn der FX 8150 damals mit den Sandy Bridge E den Boden aufgewischt hätte oder mit den 8 Kernern zumindest noch irgendwie mitgehalten hätte (wie es ursprünglich mal geplant war), dann hätte er sich auch 250W genehmingen können. Das wäre zwar nicht schön gewesen, aber dafür hätte man auch ordentlich Leistung erhalten und AMD wohl mindestens 500€. So kam es aber nicht, in Spielen war es eine einzige Katastrophe und auch in Mehrkernanwendungen hat schon der i7 2600K im Schnitt die Nase vorne gehabt, obwohl er nur halb soviele Kerne hatte, wie der eigentliche Gegner.

Vor allen Dingen: Was soll das? Eine CPU kann nur in Leistung pro Watt objektiv bewertet werden.

Dann würden die Desktop CPUs aber haushoch gegen die Laptop und Energiespar CPUs verlieren. De Rohleistung ist natürlich auch wichtig. Der doppelte Verbrauch für 3% mehr Leistung wäre in der Tat mehr als mies, aber bei 105W zu 125W kann man noch ein Auge zudrücken.

Die einzigen Chips, die man sich ansehen kann, sind die i5. Den Rest kannst in die Tonne treten. Der 11900k wird vom 10900K/10850K durchweg geschlagen. Was soll daran gut sein?

Laut PCGH nicht und die CPUs werden mit schnellem RAM noch schneller. Schlecht sind sie nicht, es kommt nur noch auf den Preis an.

Ansonsten ist die starke IGP und vorallem AVX 512 sehr interessant.

Bulldozer war in Spielen mal vorne, mal hinten gegenüber Phenom, genauso wie Rocket Lake vs Comet Lake.

Der große Unterschied ist, dass heute alles sehr Eng beieinanderliegt. Vorallem kann sich AMD gegenüber Intel, nicht einfach mal um 20-50% in Spielen absetzen, von daher ist der Vergleich nicht richtig.

64 Atomkerne? Sowas gibts nicht !

Meines Wissens gab es Server, die das hatten.

Mit solcher Museeumshardware bist Du disqualifiziert. Komm mal im 2021 an!

Na dann nehmen wir doch den 3500X, den gibt es immerhin auch noch. Bei einem heutigen Hardwarekauf interessiert mich auch eher das Jahr 2024-26.

Alles abhängig vom Betrachtungswinkel.. Die MISCHUNG macht es !

Von einer Mischung war bei dir nicht die Rede:
CPUs testet man Grundsätzlich nicht mit Spielen, sondern Anwendungen!


Eine gesetzliche Regelung kommt halt meist dann, wenn die Industrie maßlos wird. Und wenn eine 125W CPU 400W schluckt, dann kann man davon schon reden. Ich kann weder bei GPUs noch bei CPUs diesen Verbrauchsmonstern viel abgewinnen. Es vergeudet Energie und der Aufwand die Dinger zu kühlen explodiert.

Kauf ihn dir einfach nicht - Fertig!

Was interessiert dich der Verbrauch von Intel, wenn du sowieso AMD nimmst?

Keiner zwingt dich, einen i9 10900K zu nehmen und ihn dann auch noch von der Leise lassen. Das ganze interessiert sich auch nur, weil dein Lieblingskonzern ein Problem damit hat. Wenn der R9 6950X, mit 32 Kernen, dann seine 250W benötigen sollte, dann wird man da nichts mehr hören.

Selbst wenn man 100W für GPU und CPU festlegen würde, dann käme man immer noch in Leistungsbereiche die vor 5 Jahren noch High-End waren.

Die Erfahrung hat gezeigt: wenn reguliert wird, dann richtig übel. Man hört ja auch keine Forderung nach Tempo 200 auf der Autobahn, über 130 geht bei den Verbotsmenschen nichts. So wird es auch bei CPUs sein. Wer glaubt, eine Regulierung würde ihn ungeschoren lassen, der irrt sich.
 

Threshold

Großmeister(in) des Flüssigheliums
Immerhin ist nun klar, wieso Intel nicht mehr als 8 Kerne bietet -- die Leistungsaufnahme wäre noch höher und Platz gäbe es für mehr als 8 Kerne auch nicht.
Abgesehen von PCIe 4.0, was man auch mit Comet Lake schon hätte machen können, die überflüssigste Erscheinung der letzte Jahre.
 

seahawk

Volt-Modder(in)
Ich gehe nicht davon aus ungeschoren zu bleiben. Ist aber nötig, da die Industrie für bescheurte Siege in Benchmarks die Effizienz opfert. Und am Ende reicht mir auch in 7W Atom für die wirklich wichtigen Dinge.
 

Ravenhunt

Schraubenverwechsler(in)
Sorry aber wenn jemand userbenchmark angibt dann ist jede weitere Diskussion unnötig.
Gamers Nexus hat die Dinger durch die Hölle und zurück gejagt. Ebenso Hardware unboxed.
Einfach mal anschauen und nochmal gucken.
Sehe da keine 11%, nich einmal im Boost Modus.
Das hier ist mehr an deinen Vorposter gerichtet. :D
 
Oben Unten