News Core i9-14900K: Intels neue Speerspitze schlägt den AMD Ryzen 9 7950X3D voraussichtlich nur minimal

Die paar Stunden in der Woche/im Monat (mal mehr, mal weniger), wo das Gesamtsystem entsprechende Leistung abruft, spielt der Verbrauch doch überhaupt keine Rolle.
DU kannst das nur auf dich schließen, aber nicht alle oder mich, dazu kennst du unser/mein Nutzungsdauer nicht.

Auf's Jahr gerechnet, verbraucht meine Frau morgens wohl mehr mit dem 2kW Fön
Dann sag ihr das, dass der in dem Müll muss :stick:
 
Ich hau meinen 13600KF gleich raus. Die kleine Saufsau:D

Jaaa, die Intels gönnen sich, richtig. Aber ob das Gesamtsystem unter Last nun 400/425 oder 450W verbrät, merkst du wie genau an der Stromrechnung? Sag ich mit meiner optimierten 4090:cool:

Und ich rede hier nicht vom 24/7-Zocker;) Aber noch einmal, AMD ist aktuell in Sachen Effizienz ungeschlagen. Da sollte Intel in Zukunft nachlegen... ähem, sich verbessern natürlich!

Gruß
Genau das meine ich auch.

Das 7800X3d System mit einer 7900XTX ist nicht Effizienter, als ein 13900k mit RTX4080.

Außerdem bleibt die Frage im Raum, wie jeder PC genutzt wird. Reinweg nur zum Zocken, oder 80% nahe dem Idle (Internet, mal Youtube, oder ein bisschen Excell) und 20% Zocken. Das ändert einiges an der Betrachtung.
DU kannst das nur auf dich schließen, aber nicht alle oder mich, dazu kennst du unser/mein Nutzungsdauer nicht.
Du kennst nicht mein Nutzungsprofil. Idle zu Last.

Dann sag ihr das, dass der in dem Müll muss :stick:
Es geht ja um Auslastung Szenarien. Spiele werden ja mit der Zeit anspruchsvoller. Meinen 7950x konnten nur wenige Spiele zu einer Auslastung von 25% bewegen.

Deswegen gibt es aktuell auch Spiele bei denen ein 7800X3d auch 100W nimmt.
Benchamrks auf Youtube zu vertrauen ist nicht ungefährlich.
Das ist klar, deswegen habe ich den Test von Igor hinterher geschoben der das gleiche Ergebnis zeigte.
Ich verwenden lieber Werte von PCGH, Computerbase, IgorLabs.
Das gleiche Igorlabs wie mein Nachschub.
Es gibt bei den ganzen Youtube Influencer und Möchtegern tech Channels immer unreimheiten.
Sehr oft ja. Aber die finden sich auch bei fast jedem Test, auch den gängigen denen wir unser vertrauen überwiegend schenken.
 
Deswegen gibt es aktuell auch Spiele bei denen ein 7800X3d auch 100W nimmt.
Hier muss ich aber dann doch noch mal eingrätschen. Nein, gibt es nicht. Selbst für den 7950X3D sind 100W in Spielen völlig unerreichbar. Die CPU (den 7950X3D meine ich) zieht selbst in Cinebench nur 130 bis 140W. Der 7800X3D dürfte selbst in Cinebench keine 100W ziehen, ich tippe mal auf 80 bis 90W.
 
Absolut gesehen natürlich nicht viel, aber der Punkt dabei ist ja, dass AMD beispielsweise den 7800X3D um einiges günstiger als einen 13900K anbietet. Und letzterer ist trotzdem noch langsamer. Natürlich nur auf Spiele bezogen jetzt. Man erhält für weniger Geld also das bessere Produkt, was auch noch (wesentlich) sparsamer daherkommt.

Ja, es wird Zeit für Veränderungen. Das Rezept "bisschen mehr Takt bei noch höherem Verbrauch" in mittlerweile homöopathischen Dosen (14900K vs 13900K(S) :kaffee:) gehört abgelöst.

Weniger Abwärme, die ich wegkühlen muss.

Ansonsten: Welchen Vorteil hätte ich denn die deutlich ineffizientere Plattform zu nehmen?

Wenn AMD das Image "Stabilität ohne Frickelei" in den Griff bekommt (Hallo Scheduler), bin ich bei Dir. Rein rational gibt es dann keinen Grund. Ob ich aber bei derartigen Systemen (egal ob 7950X3D, 14900K, etc.) 50W-100W mehr oder weniger verbrauche, wiegt meine persönliche Stabilitätserfahrung mit Intel nicht auf. Weniger Abwärme ist immer willkommen, bekommt man aber im normalen Usecase (abseits von 24/7 Cinebench) auch noch recht gut weggekühlt.

Wie ich oben schon schrieb, ich verteidige die Intel-Strategie keineswegs und finde die Entwicklung nicht mehr zeitgemäß und bin daher sehr gespannt auf Arrow Lake. Dennoch bin ich über die Jahre sehr zufrieden, was die Stabilität in allen Bereichen angeht.

DU kannst das nur auf dich schließen, aber nicht alle oder mich, dazu kennst du unser/mein Nutzungsdauer nicht.
Natürlich. Das ist nur mein persönlicher Use case, daher mag bei anderen die Effizienz eine deutlich größere Rolle spielen.
Dann sag ihr das, dass der in dem Müll muss :stick:
Offenbar gibt es da deutliche Unterschiede in der Leistung, das vermag ich aber nicht zu beurteilen :D
 
Ich denke wir beide wissen was ich damit meine...

Faktor 2 bis 3 kommt aus dem Durchschnittsverbrauch im CPU Limit bei PCGH und CB. Die 65% aus dem Test in UHD von Igor.

Ich dachte wir sprechen über CPUs.
Aber du wirst hier auch wissen was ich meine.
Und damit, in meinen Augen, nicht konkurrenzfähig.
Das hängt nur an dem Spitzenverbrauch?
Oder ist das individuell eine Frage vom Nutzungsprofil (Idle Verbrauch).

Ich meine mein Rechner Läuft in der Woche zum Beispiel 27 bis 35 Std in Idle Nähe. Aber nur 1 - 5 Stunden zum Zocken.
Ich bin jetzt aber auch raus, wir drehen uns im Kreis und kommen eh nicht auf einen Nenner.
Ich ja auch ok, bei Diskussionen geht es nicht darum, andere zwingend zu überzeugen. Sondern um den Austausch.


Sagen wir also in 35 Std verbraucht der 7900X3d, freundlich gesagt 30W mehr.
Dann dürfte der 13900k in den bis zu 5 Std auch 210W mehr aufnehmen, also kontinuierlich!

Dann hätten beide Systeme nach einer Woche, die gleiche Energie verbraucht.


Danke, habe da im Vorfeld nicht drüber nachgedacht, aber für meinen Anwendungsfall ist der 13900k ja ein Effizienzmonster ;) (Natürlich nicht ernst gemeint).

Nichts desto trotz sollte da auch jeder mal drüber nachdenken.

Am Ende wird es bei einigen einfach keinen Unterschied machen. Sowohl Leistung, als auch bei der verbrauchten Energie. ( Also in Summe nach einem Monat)
Hier muss ich aber dann doch noch mal eingrätschen. Nein, gibt es nicht. Selbst für den 7950X3D sind 100W in Spielen völlig unerreichbar. Die CPU (den 7950X3D meine ich) zieht selbst in Cinebench nur 130 bis 140W. Der 7800X3D dürfte selbst in Cinebench keine 100W ziehen, ich tippe mal auf 80 bis 90W.

Naja, da ich jetzt nicht Lust habe länger zu suchen... ( War das bei den User Benchs bei CB... bin mir leider nicht mehr sicher)

Kann ich das locker so stehen lassen.
Weniger Abwärme, die ich wegkühlen muss.

Ansonsten: Welchen Vorteil hätte ich denn die deutlich ineffizientere Plattform zu nehmen?
Idle Verbrauch, hast du dazu weitere Quellen die das genau untersuchen, wäre interessant.
 
Sagen wir also in 35 Std verbraucht der 7900X3d, freundlich gesagt 30W mehr.
Dann dürfte der 13900k in den bis zu 5 Std auch 210W mehr aufnehmen, also kontinuierlich!
An der Stelle auch noch mal der Hinweis dass dort nur die per Software ausgelesene Package Power ausgelesen wird. Der Vergleich ist also nicht ganz richtig.

So sieht der "echte" Idle Verbrauch an der Steckdose gemessen aus:

Wir sprechen im Idle also von 8W Unterschied.

Dort wird das Problem mit der Diskrepanz zwischen Software Package Power und dem echten Verbrauch auch noch mal deutlich. Beim 13900K wird per Software 253W ausgelesen, also genau das eingestellte PL2, an der Dose werden aber 394W gezogen. Bei 90% Netzteileffizienz macht das entspannte 355W. Macht also ca 100W Differenz zur Package Power. Beim 7950X3D sind es 135W gegen 209W. In dem Szenario kann man also davon ausgehen dass der reale Verbrauch vom 13900K eher bei 280 bis 290W liegt und diese Diskrepanz zieht sich dann durch alle Tests. Deswegen sind Verbrauchstests die nur die per Software ausgelesene Package Power auslesen witzlos.
 
Damit steigt jedoch auch der Verbrauch und die Mehrleistung kommt nur im CPU-Limit zum Tragen.
Ich habe das natürlich nur am Anfang etwas getestet und bei mir war das kein großer Unterschied.
Dito.

Die Gerüchte und Leaks sagen einmal DDR5-6400 und dann DDR5-5600. Mehr kann ich dazu nicht sagen.
Ich hoffe auf 6400.
An der Stelle auch noch mal der Hinweis dass dort nur die per Software ausgelesene Package Power ausgelesen wird. Der Vergleich ist also nicht ganz richtig.

So sieht der "echte" Idle Verbrauch an der Steckdose gemessen aus:

Wir sprechen im Idle also von 8W Unterschied.
Hängt natürlich auch am Board usw.
Im Forum bei HWluxx wurde auch geschrieben, das der idle Verbrauch bei AMD deutlich mit schnellerem Ram steigt, bei Intel aber nicht.


Aber selbst wenn wir die 8W nehmen.

Über 35Std 8W mehr, entspricht in 5 Std einem Mehrverbrauch von 56W.

Kann meine Schlussfolgerung ja weiter bestehen bleiben.

Deswegen meine ich, das einfach Pauschal zu sagen, nicht konkurrenzfähig nicht alles ist.


Mein Fazit wäre, Leistung absolut konkurrenzfähig und Verbrauch ist eine Frage des Usecase.


PS: Da das auch nur ein Test ist, würde ich auch noch nicht vom echten Verbrauch sprechen. Ich hoffe das der Idle Verbrauch demnächst öfter beleuchtet wird. (Idle, YT, Browser, Excell)
 
Zuletzt bearbeitet:
Bei Alternate (offizieller Shop in der Bucht) ist er auch schon für 684,99€ verfügbar:

1697030255598.png



Link: 14900K
 
Zuletzt bearbeitet:
Das ist ja die "Krux"(the more you buy...:-D). Die teuerste Ada ist auch die beste Ada. Für das was die 4090 leistet, ist sie recht effizient. Legt man sie dann noch an die Leine (Powertarget/Curve-Editor) wird sie schon fast sparsam:D
Kannst das fast streichen.

Mit Undervolting / und kleinerem Powerlimit ist die extrem sparsam, gemessen an der Leistung konkurrenzlos ;)
Bei kaum merkbarem Leistungsverlust...

Gruß
Eure Grafikkarten wären die ersten die aus mein System fliegen :haha:
Welche nutzt du denn, die ist doch bestimmt ineffizienter ;)
 
Schöne Idee für einen Test der PCGH.

7950X3d und 14900k bei 45W, aber inkl. dem schnellsten Speicher der auf den Systemen läuft.
Kann man gerne machen - aber das mit dem schnellsten Speicher würde das Ergebnis meiner Meinung nach verfälschen. Normalerweise benutze ich immer die Geschwindigkeit, die vom Prozessorhersteller angegeben ist, weil mehr RAM-Takt in der Regel viel mehr kostet, als er bringt. Ich denke auch nicht, dass es bei anderen Leuten üblich ist, Geld aus dem Fenster zu werfen. Die Bedingungen sollten dann schon auch realistisch sein, meiner Meinung nach.
 
Kann man gerne machen - aber das mit dem schnellsten Speicher würde das Ergebnis meiner Meinung nach verfälschen. Normalerweise benutze ich immer die Geschwindigkeit, die vom Prozessorhersteller angegeben ist, weil mehr RAM-Takt in der Regel viel mehr kostet, als er bringt. Ich denke auch nicht, dass es bei anderen Leuten üblich ist, Geld aus dem Fenster zu werfen. Die Bedingungen sollten dann schon auch realistisch sein, meiner Meinung nach.
Ja, ist auch richtig. Zu erst muss immer ein Test nach Specs im Focus stehen.

Ich würde mir einen Zusatz wünschen.

Das schneller Ram nichts bringt, kann ich so absolut nicht bestätigen.
DDR5 6000 CL30 beschleunigte meinen 13400f, deutlich mehr als der Preisaufschlag. Natürlich im CPU Limit. Im GPU Limit hilft ja auch nur eine schnellere GPU ;)
 
Mir fehlen die Worte. :heul:
Ja mir auch. Aber unsere Frau will das so. Nix neues kaufen solange das alte funktioniert... für die Umwelt, meint sie... (und wenn, dann könnte es doch am besten Apple sein... meint sie)
Arrow Lake sieht sich dann aber mit Zen 5 konfrontiert und da wirds dann wohl auch für AL eng! Zumindest ist das meine Hypothese! Und um gewinnen zu können muss Intel da gewinnen , wo es aus Nachhaltigkeitsgründen nicht so gerne gesehen wird, sprich an der Steckdose! Aber bei Schaltzeiten von ca. 166 Pikosekunden ist der Preis eben eine höhere Verlustleistung! Gegen physikalische Grundgesetzmäßigkeiten ist auch Intel machtlos!! Und bei 20 A als Fertigungsprozess wird das sicher nicht besser!
Je nach CPU und Szenario siehts bei Intel gar nicht so schlecht aus.
Wenn wir uns die Spitzenverbräuche der Spitzenmodelle ansehen - ja, sehr problematisch, da laufe ich sofort zum 7800X3D.
Aber tatsächlich arbeite ich hauptsächlich im Büro "Officekram" und da schauts gar nicht so schlecht aus, gibt es sehr effiziente CPUs. Bzw. ist bei Intel die Plattform in solchen Szenarien effizienter.
Natürlich wird 20A ein Fortschritt sein gegenüber 10nm "enhanced Super Fin" Alias "Intel 7"
 
Ja mir auch. Aber unsere Frau will das so. Nix neues kaufen solange das alte funktioniert... für die Umwelt, meint sie... (und wenn, dann könnte es doch am besten Apple sein... meint sie)
Das hat sich letztens aber noch anders angehört und jetzt ist auf einmal "eure" Frau Schuld :lol:
Aber tatsächlich arbeite ich hauptsächlich im Büro "Officekram" und da schauts gar nicht so schlecht aus, gibt es sehr effiziente CPUs. Bzw. ist bei Intel die Plattform in solchen Szenarien effizienter.
Jo, ich hab für solche Zwecke auch einen Pentium Silver am Laufen, da braucht die ganze Kiste nicht mehr als sechs Watt.
 
Dort wird das Problem mit der Diskrepanz zwischen Software Package Power und dem echten Verbrauch auch noch mal deutlich. Beim 13900K wird per Software 253W ausgelesen, also genau das eingestellte PL2, an der Dose werden aber 394W gezogen. Bei 90% Netzteileffizienz macht das entspannte 355W. Macht also ca 100W Differenz zur Package Power. Beim 7950X3D sind es 135W gegen 209W. In dem Szenario kann man also davon ausgehen dass der reale Verbrauch vom 13900K eher bei 280 bis 290W liegt und diese Diskrepanz zieht sich dann durch alle Tests. Deswegen sind Verbrauchstests die nur die per Software ausgelesene Package Power auslesen witzlos.

Rechne mal 80% für die 70W im Idle, 90% für 314W bei Last, zieh den via Software ermittelten Durchsnittswert der VGA ab und schau mal auf den der CPU ausgelesenen.
 
Das hat sich letztens aber noch anders angehört und jetzt ist auf einmal "eure" Frau Schuld :lol:
es war immer der PC meiner Frau, habe ich glaube ich auch so beschrieben: sie hat den i7 920, die Kinder einen 860.
Und ja, ich teil meine Frau mit Cleriker :) ist einfach günstiger. Dann wird "high Maintenance" zu mittlerer Maintenance. Vor allem an Migränetagen

Aber du hast recht: ich hänge auch am System. Ich habe meine Bachelor, 2 Master, 1 Diplomarbeit und eine Diss darauf geschrieben, er läuft am Tag 10-12h, ist eigentlich immer in irgendeiner Form in Verwendung.
Wurde gekauft für 2-4 Jahre und "wenn dann die Spiele nich mehr drauf laufen kommt halt was neues".
Wir spielen Doom Eternal drauf und vor kurzem hab ich auch Counter Strike 2 darauf gestartet.
FAST hätte ich geglaubt es läuft nicht mehr - ich weiß nicht ob du das Update gelesen hast, dass ich rausgefunden hab, worans lag. Seither läufts wieder flüssig (im Computerbase Benchmark mit 140+fps, in der Realität mit 60-80).
Noch beeindruckender ist aber Doom Eternal für mich, denn nicht nur ,dass die CPU auf Anschlag läuft, sondern auch die GPU. Das ist echt eine perfekt ausbalancierte Engine.
Jo, ich hab für solche Zwecke auch einen Pentium Silver am Laufen, da braucht die ganze Kiste nicht mehr als sechs Watt.
Tatsächlich läuft hier auch ein Pentium Gold (im Surface Go 3). Aber wenn ich den (Via USB-C Hub) an die Bildschirme anschließe ist alles sehr träge und der 15 Jahre alte Unterbau ist deutlich schneller. Liegt wahrscheinlich an der iGPU, der emmc Platte, dem Ram... aber dennoch ärgerlich. Natürlich könnte man diese Leistung inzwischen ganz anders abrufen.
Ich würde mir ein Surface Go 5 mit weniger "Spar" Komponenten gerne gönnen, weil es für viele meiner Tasks reicht
 
Zurück