News Intel Core i9-14900KF erklimmt den Thron: Schnellste Single-Core-CPU

Von so einem versierten Nutzer wie dir erwarte ich eigentlich etwas mehr Anspruch. Wir nutzen dieses System auch nicht nur 20 Sekunden. Der ganze Vorgang, mit Aufwärmen, "einruckeln", Spielstände laden, durch die Spielwelt laufen und so weiter dauert viele Minuten und bringt jeden Prozessor, den wir testen, in seinen regulären, vorgesehenen Betriebszustand. Erst dann folgt der Benchmark. Genau in diesem Zustand nutzt jeder von euch seinen Prozessor, wenn er zockt. Der einzige Unterschied ist nur, dass wir die CPU nicht künstlich bremsen, mit einem Fps-Limit etwa und auch nicht weiter verändern (OC, Undervolting, SMT etc.), da es sonst nicht möglich wäre, die Prozessoren untereinander fair zu vergleichen. Zudem erfolgt nicht nur eine Messung, sondern mehrere und wir bilden daraus einen Durchschnittswert.

Wenn ihr mir hier allerdings mit Vergleichen ankommt, bei denen ihr in einer x-beliebigen (nicht vergleichbaren!) Szene in UHD mit Fps-Limit testet, oder wie bei dir im Fall im GPU-Limit, und das als Basis für eure Argumentation nutzt, um zu "beweisen", dass PCGH "falsch" testet, ist diese Diskussion hier für mich beendet. Da kann ich nur noch mit dem Kopf schütteln :wall:

Hier noch ein Screen für euch, denn das kann ich schon lange:
Anhang anzeigen 1438357

"Wie, mein 7800X3D zeigt ja nur 23,6 Watt an. Das bedeutet, die PCGH muss falschliegen, denn die sagen ja, dass die CPU das dreifache verbraucht! Da arbeiten ja nur Stümper. Dass ich mit einem Fps-Limit zocke, spielt dabei überhaupt keine Rolle und auch nicht, dass ich nicht in der gleichen Szene vergleiche. Die Grafikeinstellungen sind auch nicht die gleichen, aber so zocke ich das Spiel halt. Ich hinterfrage den Software-Sensor auch nicht, der wird schon stimmen, ist ja immerhin ein teures Mainboard gewesen! Und ich hab meine CPU ja auch optimiert und SMT abgeschaltet und undervolted, das passt bestimmt zu den Specs der CPUs, welche die Redaktion getestet hat. Die von PCGH haben ja keine Ahnung. Hinterwäldler-Forum hier, ich lösche jetzt meinen Account."
Hier will keiner Beweisen das PCGH falsch liegt, hier will man nur aufzeigen, dass deine reißerischen Texte nicht dem entsprechen was einer zu erwarten hat!

Wenn man sich deine Berichte durchliest könnte man annehmen das die Intel CPU dauerhaft 230w Anliegen hat! Da wird kein Satz „es kann aber ist nicht immer der Fall“ erwähnt! Du lobhudelst nur die ganze Zeit „deine CPU“ und das nervt gewaltig! Ihr wollt Geld verdienen? Dann macht einen Plus Artikel „wie bekomme ich den Intel sparsam aber schnell hin“

Genau das ist nämlich möglich mit der Intel CPU! Aber du erwähnst da keine Silbe und das schlimmste daran ist du wirst ja nicht mal sachlich wenn es um Intel geht sondern emotional! Das sich ein Redakteur lustig macht, wenn User ihre Accounts löschen lassen wollen zeigt mir eigentlich wie sch… egal dir Leute sind weil die unangenehm sind und den Funfaktor AMD ist so toll und geil und alles andere besprechen wir nicht mehr…

Eigentlich ist genau das zum Fremdschämen!
 
... Wenn man sich deine Berichte durchliest könnte man annehmen das die Intel CPU dauerhaft 230w Anliegen hat!
Auf die Idee kommt eigentlich nemand. Es ist klar als Maximalverbrauch angegeben und hier bist Du in einem Forum von Nerds, die wissen, was sie lesen und wie sie es einordnen müssen. Diesen Maximalverbrauch erreicht man natürlich selten, aber z.B. in Spielen wie Cyperpunk geht die Post ab. Und dann stell Dir einen 14900K zusammen mit einer RTX 6090 vor, also einem Modell in naher Zukunft mit der doppelten Leistung einer 4090er und schwubs wird die CPU ausgelastet. Wohl dem, der dann einen 7800X3D im Rechner hat und keinen i9-14900K.

Dümpelt man im Idle herum, surft und schaut Filme, sollte man lieber einen kleinen Laptop anschmeißen, anstatt einen Boliden rechnen zu lassen. Mit einem Formel 1 Wagen holt man auch keine Brötchen. Mein alter Zweikerne mit i5 reicht dafür immer noch völlig aus und der zieht mit Untervolting keine 10W inklusiv des IGPs, der auch heute noch 4K Filme flüssig darstellt. Mit 10W.
 
Zuletzt bearbeitet:
Ja, hatte vergessen, dass immer nur der Aspekt wichtig ist, in dem AMD die Oberhand hat.
My fault ;)


Der 14900K liegt bei 253W und der 7950X bei 214W. In welcher Welt ist das bitte die Hälfte? So ein Schwachsinn!


ZEN 4 Boostet bis zum Templimit, wenn möglich:

Wo ist das bitte Kühler? Wie kann man nur so einen Unfug von sich geben?!

7950X3D halber verbrauch zum 13900K. 7950X 50W weniger.

Lesen und verstehen! Und selbst unter Anwendungen liegt der 7950X/3D unter einem 13900K.
 
Lesen und verstehen! Und selbst unter Anwendungen liegt der 7950X/3D unter einem 13900K.
Wie der incredible Alk schon sagte, sollte man das ganze nicht überbewerten, denn wer spielt schon 12h am Tag unter Vollast? Mein Rechner läuft aber 24h, davon zwar viel im Schlaf, aber immer wieder schaue ich irgend etwas nach oder lese. Abgesehen von den 1-2h Aufbauspiel am Tag geht es um Idleverbrauch. Und da hat Intel immer noch Vorteile, gerade mit den I/O Chips. Das darf man nicht vergessen.

Trotzdem ist es aus technischer Sicht einfach spannend zu lesen, wie effektiv die AMD CPUs mit 3D-Cache sind. Das sind einfach technische Schmankeln. Für den Stromverbrauch über die gesamte Lebensdauer spielt das aber im Normalfall keine wirkliche Rolle. Das versteht hier jeder.
 
Auf die Idee kommt eigentlich nemand. Es ist klar als Maximalverbrauch angegeben und hier bist Du in einem Forum von Nerds, die wissen, was sie lesen und wie sie es einordnen müssen. Diesen Maximalverbrauch erreicht man natürlich selten, aber z.B. in Spielen wie Cyperpunk geht die Post ab. Und dann stell Dir einen 14900K zusammen mit einer RTX 6090 vor, also einem Modell in naher Zukunft mit der doppelten Leistung einer 4090er und schwubs wird die CPU ausgelastet. Wohl dem, der dann einen 7800X3D im Rechner hat und keinen i9-14900K.

Dümpelt man im Idle herum, surft und schaut Filme, sollte man lieber einen kleinen Laptop anschmeißen, anstatt einen Boliden rechnen zu lassen. Mit einem Formel 1 Wagen holt man auch keine Brötchen. Mein alter Zweikerne mit i5 reicht dafür immer noch völlig aus und der zieht mit Untervolting keine 10W inklusiv des IGPs, der auch heute noch 4K Filme flüssig darstellt. Mit 10W.
Auf die Idee sollte niemand kommen, da gebe ich dir recht! Nerds hier wie du sie bezeichnest posten dies aber ständig und Gebetsmühlenartig in diesem Forum!

Das siehst du in vielen Threads und alleine hier in einem Artikel wenn es heißt 5-10% mehr Leistung bei mehr Stromverbrauch und schon liest du 99% das die CPU schon mehr säuft als eine GPU, das man damit Heizen kann usw. Wo sind dann da die Nerds? Das ist tlw genau aus dem reißerischen Balken und Berichten die einen minimalen Teil zeigen einer CPU und nicht den Teil darstellen der über einen AVG geht und das stinkt mir einfach gewaltig!

Es ist auch okay das AMD mit dem Chip der effizienterste ist, aber man braucht nicht die Konkurrenz ständig anmachen! Ich mach mich doch auch nicht bei einem User lustig der sich eine 4060 kaufen will nur weil ich den längsten Balken mit einer 4090 erreiche.

Hier geht es um Gewohnheiten von Usern und der eine oder andere braucht was anderes. Aber das ich dann hier nur bashe mit irgendwelchen Tools um die Ecke kommen die sogar angeblich nochmals 50-70w draufknallen wo aber wieder eine Software zum Einsatz kommt, ist für mich dann schon echt ein Witz!

Ich erwarte auch nicht dass eine Seite eine CPU jetzt mit Seidenhandschuhe angreift und sagt sondern ich mag sachliches verhalten, aber man muss auch das „hier und jetzt“ einbeziehen und auch User die wie z.B. Blechdesigner und Iicarus dann sagen, hey so ganz ist das nicht und es auch zeigen akzeptieren!

Aber hier geht es eigentlich immer nur noch darum andere Leute die nicht wie Lemminge alles kaufen, was jemand sagt das ist das Ding alles madig zu machen!

Siehe die AMD Grafikkaren Community die haben sich zur Aufgabe gemacht aus ihren Karten das Optimum zu holen mit Tweaken und das wird gerne gesehen und ist voll okay aber wenn es dann heißt, hey ich habe meinen Intel im UV im Griff und er hat 3% weniger FPS aber dafür 60% weniger Verlustleistung wird das unter den Tisch gekehrt und dann kommen Sätze wie „Jajaja das kann ich bei AMD auch“

Super, genau das wäre doch toll, wo man dies zeigen könnte, wo man sagt hey schau her da setze an und so sparst du unnötige Watt aber verlierst kaum was und die Lücke wird geringer! Aber nein, da kommt dann User Drago und User XYZ und macht einen einfach von der Seite an und das ist auf einer Nerd Seite eigentlich nicht das Ziel sondern ich verstehe unter Nerds Verständnis auch wenn es nicht um das Produkt geht, was man selbst besitzt.

Und das was Dave da heute gepostet hat, bezüglich User die Ihre Accounts löschen lassen wollen genau aus diesen Gründen, setzt dann noch die Krone auf..
 
Von so einem versierten Nutzer wie dir erwarte ich eigentlich etwas mehr Anspruch.

War das echt nötig, User wie IICARUS mit seinem interessanten Content in all den entsprechenden Subthreads im ersten Satz so herablassend zu "begrüßen" ?

Ich würde dir auch empfehlen, hier keine Zeit mehr darauf zu verwenden, spiel lieber BG3 das achte mal durch, oder wie weit du schon inzwischen sein magst :D

Ist das der geforderte Anspruch ? Gut, dann empfehle ich hin und wieder ALT-F4/Enter, um das Defizit an Tageslicht auszugleichen und aus der Blase aufzutauchen.

Topic:
Glücklicherweise werden die AMD/Intel CPU Themen in der Print noch deutlich anders behandelt.
 
Glücklicherweise werden die AMD/Intel CPU Themen in der Print noch deutlich anders behandelt.
Du meinst so, wie ich und andere User es beschreiben? Die komplette Diskussion dreht sich hier ausschließlich darum, dass die PCGH-Messmethodik nicht verstanden wird. Ein alter Hut. Kommt bei jeder neuen CPU-Generation auf den Plan, dieses Gespräch. Was hier seitens mancher User jedoch weder gewürdigt noch respektiert wird, noch verstanden wird. Ich, der den Kram testet, darf mir also jedes Mal aufs Neue anhören, dass ich "falsch" teste. Aber wenn ich es richtigstelle, bin ich derjenige, der Leute "abserviert"? Irgendwann habe ich auch mal die Nase voll :ka:

Ich bin echt auf den Test des 14900K gespannt. Erster Kommentar wahrscheinlich: "Niemals verbraucht der so viel, wie bei euch." und "Bei mir benötigt die CPU nur 56 Watt, obwohl bei euch 286 Watt stehen". Ohne dabei zu berücksichtigen, unter den gleichen Bedingungen zu vergleichen, was einen Vergleich überhaupt erst möglich macht. Freue mich schon darauf. Nicht. Am besten ziehe ich mir einfach eine Brille mit blauen Gläsern auf. Dann sage ich jedem, den ich sehe, dass die Welt blau ist. Und wer anderer Meinung ist, hat dann einfach unrecht.
 
Du meinst so, wie ich und andere User es beschreiben? Die komplette Diskussion dreht sich hier ausschließlich darum, dass die PCGH-Messmethodik nicht verstanden wird. Ein alter Hut. Kommt bei jeder neuen CPU-Generation auf den Plan, dieses Gespräch. Was hier seitens mancher User jedoch weder gewürdigt noch respektiert wird, noch verstanden wird. Ich, der den Kram testet, darf mir also jedes Mal aufs Neue anhören, dass ich "falsch" teste. Aber wenn ich es richtigstelle, bin ich derjenige, der Leute "abserviert"? Irgendwann habe ich auch mal die Nase voll :ka:

Ich bin echt auf den Test des 14900K gespannt. Erster Kommentar wahrscheinlich: "Niemals verbraucht der so viel, wie bei euch." und "Bei mir benötigt die CPU nur 56 Watt, obwohl bei euch 286 Watt stehen". Ohne dabei zu berücksichtigen, unter den gleichen Bedingungen zu vergleichen, was einen Vergleich überhaupt erst möglich macht. Freue mich schon darauf. Nicht. Am besten ziehe ich mir einfach eine Brille mit blauen Gläsern auf. Dann sage ich jedem, den ich sehe, dass die Welt blau ist. Und wer anderer Meinung ist, hat dann einfach unrecht.
Ich verstehe deine Messmethode

720p zeigt einfach was die CPU Max erreicht und auch verbraucht ohne Faktor GPU

Alles weitere oben kommt die GPU dazu und verschiebt die Messung! Alles gut!

Aber dann hast du halt lauter so lustige die dann meinen das diese CPU das tatsächlich immer hast! Siehe doch bitte nur die ersten Einträge bei dieser News an!
Genau das wird mir aber dann vorgeworfen wenn ich sage die CPU verbraucht es nicht, weil ich eben in höheren Auflösungen spiele! Dann kommt der Drago um die Ecke und macht einen auf Dicke Hose!

Mein Argument zu dem Thema:

Hätten wir eine 7090 und kein GPU Limit wären wir auch nicht durchgehend auf 230w denn es wird ja nicht durchgehend diese Leistung benötigt.

Wenn wir jetzt es weiter drehen sagen wir 1440p dann wird der Intel ggü. der AMD wahrscheinlich 30-45 Watt mehr benötigen weil GPU Limit und bei 4K das gleiche weil GPU Limit oder würdest du das auch anzweifeln wenn ja, dann bitte um Erklärung dazu, gern auch als Plus Artikel.

Ich würde mich einfach freuen, wenn PCGH genauso streng bei den Kommentaren wäre wenn User meinen das die CPU säuft obwohl sie es gar nicht saugen kann außer in Benchmarks (wegen GPU Limit).

Die Zeiten wo die User 1080p verwenden und da es hier noch relevant war, sind vorbei! Wir bewegen uns im 1440p Standard zumindest hier und höher, daher ist es dann auch klar, dass die User die so eine CPU drinnen haben, sich dann melden und sagen Nöö ich habe nicht so einen Verbrauch! Auch könnte PCGH wenn man schon es mit so einem laaaaangen Balken demonstrieren wollte bei Cyberpunk auch mal angeben würde, was das bedeutet. So wirkt es einfach nur das der Intel User am Jahresende sich ein Atomkraftwerk daneben stellen sollten,dabei sprechen wir von 30-50€ im Jahr nicht mehr! (standard User)

Ein wenig relativieren könnte man schon auch von eurer Seite, wenn man schon so einen Balken zieht! Das AMD die bessere Effizienz hat brauchen wir nicht diskutieren, da haben sie tolle Arbeit gemacht aber wie sieht es denn mit den FPS aus? Da meine ich auch nicht den Max. sondern den AVG und min und das wäre für einige das interessantere, denn ich nehme gerne 50€ im Jahr mehr Strom in Kauf, wenn ich dann aber im AVG und im Min höher bin!

Ich hoffe ich habe mich diesesmal verständlich ausgedrückt!?
 
Dann kommt der Drago um die Ecke und macht einen auf Dicke Hose!
Soviel wie du mich (falsch) zitierst möchte man meinen, du hättest meinen Namen mittlerweile raus. Aber naja, der ist ja auch lang und komplex, kann schonmal passieren.
Aber dann hast du halt lauter so lustige die dann meinen das diese CPU das tatsächlich immer hast!
Hab ich nie behauptet. Ich habe behauptet, dass ein Intel auch in 4K deutlich mehr Strom verbraucht als ein AMD (der neuen Generation etc. bla bla)
Hätten wir eine 7090 und kein GPU Limit wären wir auch nicht durchgehend auf 230w denn es wird ja nicht durchgehend diese Leistung benötigt.
Hätten wir eine 7090 und kein GPU (also ein CPU-Limit) dann wären wir bei durchgehend 230. Dein Satz ergibt also (wie so vieles) keinen Sinn und ist einfach falsch.
Wenn wir jetzt es weiter drehen sagen wir 1440p dann wird der Intel ggü. der AMD wahrscheinlich 30-45 Watt mehr benötigen
Wie kommst du auf 30-45 Watt? Irgendwelche Fakten dazu? Oder sind das Wünsche?
Bei Cyberpunk 2077 ist man nämlich auch in 1440p je nach Szene im CPU-Limit (mit einer starken GPU).
Beweis für diese Behauptung: Klick mich!
Die Zeiten wo die User 1080p verwenden und da es hier noch relevant war, sind vorbei! Wir bewegen uns im 1440p Standard zumindest hier und höher
Siehe oben.
Ein wenig relativieren könnte man schon auch von eurer Seite,
Nein. Warum sollte man. Ist man das Intel schuldig? Ist man das auf der anderen Seite (derzeit bei AMD GPUsbspws.) AMD schuldig?
gemacht aber wie sieht es denn mit den FPS aus?
Mit den FPS sieht es sehr gut aus. Gibt es auch etliche Benchmarks zu:
CPU-Index ,
Baldurs Gate 3
1695483027105.png

Da meine ich auch nicht den Max. sondern den AVG und min und das wäre für einige das interessantere, denn ich nehme gerne 50€ im Jahr mehr Strom in Kauf, wenn ich dann aber im AVG und im Min höher bin!
Bist du aber nicht (immer). PCGH testet immer mit P1 und P02 FPS. Siehe Bild oben (als Beispiel, es gibt auch Beispiele, in denen Intel etwas besser abschneidet). ALso auch diese Zahlen stehen dir zur Verfügung. Lies sie doch einfach, statt sie hier zu fordern - da sie eben schon existieren.
 
Also ich sehe nicht, dass jemand die 230 Watt des 13900K in dem CP Szenario anzweifelt. Liegt natürlich nicht immer an. Mein 5600 ist meist bei entspannten 50W.
 
Hier will keiner Beweisen das PCGH falsch liegt, hier will man nur aufzeigen, dass deine reißerischen Texte nicht dem entsprechen was einer zu erwarten hat!
???

Es geht hier im speziellen um einen definierten Benchmark, der eben zeigt, dass ein 13900K das dreifache eines 7800X3D verbraucht! Nicht mehr und nicht weniger und wie bei jedem Benchmark in dieser ganzen Welt, muss dies jeder für sich und seinen UseCase ins Verhältnis setzen! Wer einen 13900KS maximal OCed wird noch viel höhere Werte erhalten, wer einen 13900KS in ein Mainboard setzt und vermeintlich @Stock nutzt wird vermutlich auch noch höhere Werte erhalten, wer einen 13900KS in ein Board setzt und maximal undervoltet, wird wohl niedrigere Werte erhalten. Will man dies nicht verstehen, oder wo ist der Sinn?

Wenn wir uns über einen 13900K unterhalten der chronisch unterfordert ist und eben im GPU Limit liegt, sollte man lieber hinterfragen, was hat der Käufer denn da gemacht? Denn dann hat er offensichtlich keine Ahnung vom PC Bau und eine viel zu starke und teure CPU gekauft für seinen Usecase!

obwohl bei euch 286 Watt stehen
Ohh, nicht das NDA verletzen :-)

Hätten wir eine 7090 und kein GPU Limit wären wir auch nicht durchgehend auf 230w denn es wird ja nicht durchgehend diese Leistung benötigt.
Hää? Wenn du kein GPU Limit hast, dann wirst du im CPU Limit liegen und was passiert da? Richtig die CPU wird entsprechend der Engine maximal gefordert, der 13900K (um den es hier geht) wird maximal boosten und maximal Strom verbrauchen, völlig egal ob 4K, 5K oder 8K; genau das ist ja der Ansatz des 720p Tests, das GPU Limit auszuschalten um eben die CPU zu testen. Ich glaube aber, dass du immer noch nicht verstanden hast, dass diese 230W kein Max Wert, sondern ein Average Wert ist, denn anders kann ich von einem erfahrenen User diese Aussage dann auch nicht mehr deuten.
 
Wird dann immer Vergessen das der und nur der 13900K, in dem hier getesteten Szenario und mit den vorhanden Mitteln ermittelte Verbraucht, da liegt wo er eben gemittelt wurde?

Ich kann immer nur sagen, das hier ist nicht der heilige Gral, sondern nur ein Ansatz des Groben.
Man erhält eine Übersicht des Möglichen und nicht des Istzustandes in den vier Wänden.

Aber auch genau so sollte man dieses nach außen tragen, hier/dort wurde das erreicht, mehr ist es nicht.
 
Man sollte auch noch erwähnen, dass Intel soeben rechtskräftig verurteilt wurde.
Daher sollten bis auf weiteres (5-10 Jahre denke ich wären angemessen) keine Intel CPU's mehr verkauft oder beworben werden.
Intel muss zuerst beweisen das sie auch anders können.
 
Du meinst so, wie ich und andere User es beschreiben? Die komplette Diskussion dreht sich hier ausschließlich darum, dass die PCGH-Messmethodik nicht verstanden wird. Ein alter Hut. Kommt bei jeder neuen CPU-Generation auf den Plan, dieses Gespräch. Was hier seitens mancher User jedoch weder gewürdigt noch respektiert wird, noch verstanden wird. Ich, der den Kram testet, darf mir also jedes Mal aufs Neue anhören, dass ich "falsch" teste. Aber wenn ich es richtigstelle, bin ich derjenige, der Leute "abserviert"? Irgendwann habe ich auch mal die Nase voll :ka:

Ich hätte PCGH nicht als Printversion im Abo, wenn ich davon überzeugt wäre, das die Tests nichts taugen. Im Gegenteil. Jedoch habe mir soeben nochmal die ursprüngliche News hier durchgelesen, da steht nicht ein Wort zum Thema Verbrauch, sondern inhaltlich (Single Core-)Performance. Im Kommentarverlauf wurde etliche Male zugesichert (auch von den Intel Usern), das die aktuellen AMD CPUs effizienter sind. Ist auch kein Problem, da es nur ein Teilkriterium ist.

Nächste Info, business as usual:


Im eigentlichen Artikel nicht ein einziges Wort über den Verbrauch, sofort wird im Kommentarbereich wieder einzig und allein die Wattkeule rausgeholt, welche dann in gewohnter Weise bei Intel-Themen im "Ololoool, brauch'ste ein Atomkraftwerk +1!!elf" Stil fortgesetzt werden.

Ich bin echt auf den Test des 14900K gespannt. Erster Kommentar wahrscheinlich: "Niemals verbraucht der so viel, wie bei euch." und "Bei mir benötigt die CPU nur 56 Watt, obwohl bei euch 286 Watt stehen". Ohne dabei zu berücksichtigen, unter den gleichen Bedingungen zu vergleichen, was einen Vergleich überhaupt erst möglich macht. Freue mich schon darauf. Nicht.
Okay, ich fände die nervigen Intel-Plattitüden ohne Substanz anstrengender, aber Du wirst aus Erfahrung sicherlich Recht behalten.

Am besten ziehe ich mir einfach eine Brille mit blauen Gläsern auf. Dann sage ich jedem, den ich sehe, dass die Welt blau ist. Und wer anderer Meinung ist, hat dann einfach unrecht.
Nicht notwendig. Ich habe das Gefühl, das die "blauen" ebenfalls dazu in der Lage sind, anhand der Faktenlage sich für den jeweiligen use case richtig zu entscheiden. Und mal ganz ehrlich, mir persönlich ist es völlig latte, was für ein Hersteller auf meiner CPU eingraviert ist, wenn meine Anforderungen erfüllt werden. Der 7950X3D hätte es fast geschafft, im Nachhinein aber doch nicht so stabil in allen Bereichen. Wenn zukünftig zum Zeitpunkt +/- Arrow Lake bzw. RTX5090er wieder was Vernünftiges von AMD kommt, next try. Ansonsten halt wieder Intel.
 
Im eigentlichen Artikel nicht ein einziges Wort über den Verbrauch, sofort wird im Kommentarbereich wieder einzig und allein die Wattkeule rausgeholt, welche dann in gewohnter Weise bei Intel-Themen im "Ololoool, brauch'ste ein Atomkraftwerk +1!!elf" Stil fortgesetzt werden.
Das ist leicht erklärt (dabei bin ich in diesem Thread nichtmal aktiv): Über die Leistung muss man sich nicht unterhalten. Die wird ähnlich sein wie die des 13900K. Ist ja (quasi) die gleiche CPU. Und der 13900K hat brachiale Leistung - das hat auch nie irgendwer abgestritten. Auch die AMD-Boys nicht. Also ist die Leistung somit über jeden Zweifel erhaben -> ergo, kein Thema. Dann kommt halt automatisch die Frage, wie wird diese Leistung erreicht. Und da ist *aktuell* Intel halt einfach nicht verhältnismäßig, was Verbrauch/Leistung betrifft. Früher war AMD nicht verhältnismäßg. In Zukunft vllt. wieder, wer weiß. Aber Stand jetzt ist es Intel. Also spricht man darüber. Wenn der 14900K jetzt (was nicht passieren wird) 25-50% schneller wäre als der 7950X3D, dann dürfte der (in meinen Augen) auch doppelt oder dreifach soviel verbraten. Wäre dann zwar faktisch immer noch ineffizienter - aber dann hätte man eine tatsächliche Gegenleistung. -4% - +1% für deutlich mehr Verbrauch ist halt keine Gegenleistung.

Auch wenn es einige scheinbar anders sehen: Mir ist es auch egal, welcher Name auf meiner CPU steht. Und bei GPUs bin ich eigentlich sogar AMD-Fanboy (und habe dennoch eine Nvidia) - nur steht bei mir der Nutzen über den Präferenzen. Also würde ich mir auch eine Intel CPU in die Butze klemmen, wenn ich der Meinung wäre, sie wäre für mich besser.
 
Wenn wir uns über einen 13900K unterhalten der chronisch unterfordert ist und eben im GPU Limit liegt, sollte man lieber hinterfragen, was hat der Käufer denn da gemacht?
Im GPU Limit liegen ist ja prinzipiell nicht verkehrt. Die Werte sind für das Szenario so natürlich korrekt, aber in der Praxis zieht der Intel System auch nicht viel mehr als ein AMD System.

Das sind Extremwerte, die bei dieser Szene in CP bei hoher MT Last im reinen CPU Limit einfach anliegen.
Das ist ein Szenario wo die Intel CPU fast voll ausgelastet wird, Ausnahmefall.

Im Mittel ist der Unterschied eher bei 50 oder 60 Watt.
 
Man sollte auch noch erwähnen, dass Intel soeben rechtskräftig verurteilt wurde.
Daher sollten bis auf weiteres (5-10 Jahre denke ich wären angemessen) keine Intel CPU's mehr verkauft oder beworben werden.
Ohje - wenn wir die Regel auf AMD anwenden, die 2019 wegen ihrer falsch beworbenen FX-CPUs 12 Millionen zahlen mussten (https://regmedia.co.uk/2019/08/27/amd-eight-core-settlement.pdf) dürften wir alle bis 2024-2029 keine Ryzens kaufen oder bewerben. :lol:
 
Zurück