News Intel Core i9-14900KF erklimmt den Thron: Schnellste Single-Core-CPU

Sagte er und postet den *einen* Benchmark, in dem AMD (bei CPUs) schlecht abschneidet.
War kein Cherrypicking meinerseits, nur zwei der jüngsten Titel mit entsprechender Aufmerksamkeit.

Aber hey - wenn wir gerade bei Starfield sind, und du so großen Wert darauf legst: Darf ich dann die GPU-Ergebnisse ebenfalls als 100% aussagekräftig für das Verhältnis AMD und Nvidia verwenden? @QIX

Ja klar, unbedingt. Nur im FSR Modus nicht DLSS vergessen.

Du hast grundlegend Recht - allerdings nur was die Leistung betrifft. Der Stromverbrauch ist halt dennoch ein Faktor - auch im GPU - Limit.
Es dürfte unbestritten sein, das AMD vom CPU-Verbrauch her deutlich effizienter zu Werke geht.

Und klar, Leute, die Tausende Euros für Hardware ausgeben, die juckt es nicht, ob es 20-100€ mehr im Jahr kostet.
So ist es. FPS/Watt ist nett anzusehen und mit Sicherheit auch richtungsweisend, als aktuelles Entscheidungskriterium für mich persönlich in diesem Verbrauchsumfang aber völlig belanglos.

wird sich eben jetzt über die Intels "beschwert". Nur das scheinbar manche eben alles ignorieren,w as nicht in ihr Weltbild passt.

Abseits des 7950X3D, welche CPU deckt denn das Spektrum des 13900K(S) gänzlich ab ?

Games: Check
Synth benches: Check
Apps: Check
Misc: Check

Problemlos out of the box (mit mehr Verbrauch), fahre ich super mit.
 
Wenn man ein Strommessgerät an den Recner hängt, dann kann man durchaus unterscheiden. Und man hört es, je nach Kühlungsart. Aber 200W und mehr eines i9-14900K in Cyperpunk sind gegenüber 80W mehrt als ein Wimpernschlag.
Klar, messen kannste alles. Und manch einer würde das Ergebnis anzweifeln, wenn er mit einem 13900K übers Jahr gesehen auf einmal weniger verbraucht hätte als mit einem 7800X3D - denn das kann durchaus passieren wenn der PC 95% der Zeit mit Office, Surfen, Netflix,... beschäftigt ist (wo ein 13900K 15W weniger verbraucht als ein 7800X3D) und nur 5% der Zeit mit Spielen (wo ein 13900K 50W mehr verbraucht als ein 7800X3D).

Auch hier: Es kommt immer auf den Workload an bzw. was man mit dem PC macht. Der riesen Vorteil den X3D-CPUs im Verbrauch/Effizienz beim spielen haben sind nur dann relevant, wenn ein guter Teil der Systemzeit auch tatsächlich gespielt wird. Bei manchen ist das so, bei anderen nicht.
 
Wenn man sich das PCGH Benchmark zu Cyberpunk 2077 Phantom Liberty dann benötigt der 13900K bei etwa gleicher Performance wie der 7800X3D fast 4 mal so viel Strom (64 vs 223 Watt):

Allerdings ist das natürlich im CPU Limit in 720P gemessen worden.
 
.... Bei manchen ist das so, bei anderen nicht. ...
Richtig, man kann das auch entspannt sehen. Trotzdem bleiben Kosten für Netzteil und Kühlung. Denn nicht jeder oder jede will eine Wasserkühlung im Rechner haben und mit Luft wurd es laut wenn es in Richtung 300W geht. Oder man muss, was ganz sicher ratsam wäre, Spannung und Frequenz leicht senken.

Schaut man auf die Effizienzen der CPUs, dass ist der Unterschied zu AMD schon augenfällig, zumindest im ausgeliefertem Zustand. Das ist auch schwer wegzudiskutieren, auch wenn es in Gesamtkosten und im Gesamtverbauch insbesondere mit einer RTX 4090 ein wenig untergeht.
 
Wenn man sich das PCGH Benchmark zu Cyberpunk 2077 Phantom Liberty dann benötigt der 13900K bei etwa gleicher Performance wie der 7800X3D fast 4 mal so viel Strom (64 vs 223 Watt):

Allerdings ist das natürlich im CPU Limit in 720P gemessen worden.
beschäftigt ist (wo ein 13900K 15W weniger verbraucht als ein 7800X3D) und nur 5% der Zeit mit Spielen (wo ein 13900K 50W mehr verbraucht als ein 7800X3D).
Wie dieser Post zeigt, ist man eben nicht nur in 720P im CPU - Limit, ergo verbraucht man in Cyberpunk beispielsweise auch in höheren Auflösungen nicht "nur" 50W mehr.
 
Wo wir wieder beim Cherrypicking sind, weil es nur ein Spiel ist:
Um jemanden aus deinem Lager zu zitieren:
War kein Cherrypicking meinerseits, nur zwei einer der jüngsten Titel mit entsprechender Aufmerksamkeit.
Ich meine, du bist die Person, für die 1% Mehrleistung (in Anwendungen) wichtiger ist als 4% weniger Leistung in Games. Da du ja immer darauf beharrst, dass der 13900KS besser ist als der 7950X3D, weil ersterer eben 1% mehr in Anwendungen bringt. Aber klar, go ahead, irgendwen wirst du von der deiner Meinung nach herrschenden Dominanz Intels in allen Belangen überzeugen.

Du würdest dir bestimmt auch dein Auto so tunen, dass es 5KM/H schneller fährt aber 2L mehr verbraucht. Weil ist ja schneller und so. Obwohl, wenn es die AMD/Intel - Debatte wäre, müsstest du dir ja dein Auto so tunen, dass es 1KM/H LANGSAMER fährt und dennoch 2L mehr verbraucht. Kann man schon so machen. Sollte man vllt. nicht.
 
Ich meine, du bist die Person, für die 1% Mehrleistung (in Anwendungen) wichtiger ist als 4% weniger Leistung in Games. Da du ja immer darauf beharrst, dass der 13900KS besser ist als der 7950X3D, weil ersterer eben 1% mehr in Anwendungen bringt. Aber klar, go ahead, irgendwen wirst du von der deiner Meinung nach herrschenden Dominanz Intels in allen Belangen überzeugen.
Du verstehst anscheinend nicht, worauf ich hinaus will :D
Ich wollte damit nur sagen, dass AMDs CPUs nicht die ultimativ besten in jeder Hinsicht sind, auch wenn du und viele andere das gerne behaupten.
 
Du verstehst anscheinend nicht, worauf ich hinaus will :D
Ich wollte damit nur sagen, dass AMDs CPUs nicht die ultimativ besten in jeder Hinsicht sind, auch wenn du und viele andere das gerne behaupten.
Siehst du, du versuchst es doch schon wieder. :D
Selbst wenn du mit deinem 13900KS *ausschließlich* Anwendungen betreibst - ist der 7950X3D/7950X die bessere Wahl, weil 1% mehr Leistung weniger wert ist als der erhöhte Stromverbrauch. Das hat nix mit Intel oder AMD zu tun - das ist eine einfache, logische Rechnung. Wenn ich für 1% mehr Leistung mehr als 1% mehr Energie benötige, ist die CPU automatisch ineffizienter. Und es sind ja nicht nur 1% mehr Energie.


Und das heißt: Wenn du dir deinen Intel für mehr als wahlweise Dual-Desktop-Idle und Starfield (aber kein anderes Game!) geholt hast, dann hast du die - objektiv - schlechtere CPU. Das ist einfach so. Und hey, das ist auch OK, wenn du das magst. Ich hab - da Gaming 80% von dem ist, was ich mit meinem PC mache - auch die "schlechtere" CPU. Für meine Belange ist der 7800X3D besser. Ist mir aber genauso egal wie dir der Fakt, dass der 13900K nun einmal im direkten Vergleich quasi überall abstinkt.

Unterschied zwischen uns? Ich kann zugeben, dass ich die unvernünftigere, objektiv betrachtet schlechtere CPU (für meinen Usecase) besitze. Du nicht.
 
Grundsätzlich gillt doch, jeder kauft das Produkt das am besten zu ihm/ihr passt. Jeder hat seine Vorgaben, man kann nicht über die Hardware anderer hier urteilen. Jedes einzelne Stück Hardware hat seine vor- und Nachteile und ganz wichtig - eine daseinsberechtigung!!!
Gerade die kleinen Modelle i3/5 finde ich mega von der Leistung/Effizienz her!
Intel wird aufjedenfall auch auf den 3d Zug aufspringen, amd ist dann aber schon ein Stück weiter in der Entwicklung. Könnte sich ein umgekehrtes Bild abzeichnen wie damals bei der Ryzen Einführung, wir werden es sehen.
 
Es ist doch abseits der ganzen Benchmarks und Balken völlig Latte welche CPU in der Kiste steckt - sofern sie halbwegs aktuell ist kann man flüssig spielen (ich lasse meine CPU auf 3,6 GHz ohne Boost stehen weil das im normalen Workload am effizientesten ist und es für Spiele einfach noch nie der limitierende Faktor war, selbst mit 4080 und 144Hz nicht).
Sie haben anscheinend noch nicht Mechwarrior 5 gespielt ;)

Ne, stimmt schon in den Meisten Titeln wird es vielen egal sein was man hat.
aber:
1. Es gibt immer außnahme Titel in den es einen Gigantischen Unterschied macht.
2.Es gibt Leute wie mich, die halt einfach das beste Produkt für ihre Anspruche haben wollen.
z.b warum sollte ich mir einen 7950x3d kaufen wenn in meinen Spielen der 7800x3d identisch schnell ist.
 
Und? AMD schafft es nicht mal mit der Brechstange ;)
Genauso ist es. AMD schafft keine so hohen Singlecoretaktraten. 6,2Ghz sind trotz des hohen Strombedarfs eine Wucht. Die Leistungssteigerung gegenüber dem 13900K beibt allerdings bei <10% und ist nur ein kleines Update.
Es wird aber vermutlich reichen um in Spielen und Anwendungen den 7950X und X3D zu schlagen, bei höherem Strombedarf.
 
Brauchen sie ja auch nicht wenn man im Gaming vorne bleibt mit den X3D Modellen ;)
Der Unterschied ist in Spielen auch zu dem alten 13900K äußerst gering.
Wir sprechen da von ~5%. Das ist auch für den 14900K dann kein Problem.
Ich würde tippen, dass er durch den schnelleren Speicher und mehr Singlecoretakt etwa 10% auf den 14900K drauflegt.
Dazu ist man in Anwendungen auch schneller...
Ganz toll, diese Brechstange.
Da muss ich dich korrigieren. Der Kontext war die Singlecoreleistung.
Die ist mit 6,2Ghz natürlich höher und auch in Anwendungen ist man ~gleichauf.
In der 3DC Meta Analyse schafft es der 13900K sogar leicht vor den 7950X, der ja etwa 5% schneller ist als der 7950X3D.
Grundsätzlich hat owned mal wieder recht. Die AMD Blase wird vor dem Intel Launch wieder unruhig.
 
Von deinem Vorredner, welchen du zitierst wurden Gaming UND Anwendungen genannt (7950X3D bzw. 7950X).#
Dir ist aber schon klar, dass sich AMD und Intel egal ob in Gaming oder Anwendungen so ziemlich gar nichts nehmen?
Der einzige kleine bis große Unterschied liegt im Verbrauch, deshalb finde ich diese Diskussion hier wieder köstlich.
Die AMD Blase redet sich wieder ein überall schneller zu sein, obwohl das nach objektiven Kriterien nicht zutrifft, schon gar nicht mit Tweaking.
Welches ist denn dann der Bereich, in dem AMD nicht die Oberhand hat?
AMD hat weder im Spiele noch im Anwendungsbereich die "Oberhand".
Schau dir mal an wie eng die Spitze beisammen ist. 13900K und 7950X(3D) nehmen sich nichts.
Der 3D ist allerdings sehr effizient, hauptsächlich weil er 5 bis 6% niedriger taktet als der 7950x und eben keine Brechstange dabei ist.
https://www.3dcenter.org/artikel/la...ch-analyse-amd-ryzen-9-7900x3d-7950x3d-seite-

Ach Mensch Owned, hast du keine anderen Hobbys?
Zeige mir bitte die Singlecoreleistung eines 7950X(3D) die einem 14900K mit 6,2Ghz entspricht.
Wozu Brechstange, wenn man Intel an der Nase durch die Manege führt?
Du führst dich doch da selbst durch lieber Boymann. Einen heftigen AMD Bias und kein Interesse an Fakten.
 
Zuletzt bearbeitet:
Dir ist aber schon klar, dass sich AMD und Intel egal ob in Gaming oder Anwendungen so ziemlich gar nichts nehmen?
Der einzige kleine bis große Unterschied liegt im Verbrauch, deshalb finde ich diese Diskussion hier wieder köstlich.
Die AMD Blase redet sich wieder ein überall schneller zu sein, obwohl das nach objektiven Kriterien nicht zutrifft, schon gar nicht mit Tweaking.

AMD hat weder im Spiele noch im Anwendungsbereich die "Oberhand".
Schau dir mal an wie eng die Spitze beisammen ist. 13900K und 7950X(3D) nehmen sich nichts.
Der 3D ist allerdings sehr effizient, hauptsächlich weil er 5 bis 6% niedriger taktet als der 7950x und eben keine Brechstange dabei ist.
https://www.3dcenter.org/artikel/la...ch-analyse-amd-ryzen-9-7900x3d-7950x3d-seite-
Dein Post könnte aus dem Seminar "Wie zitiere ich einen Post mit dem wenigst möglichen Kontext um mein Narrativ zu stärken" sein.
Mir geht es nicht um die Leistung - das wurde von meinen Vorpostern so angesprochen. Genau wie @owned139 immer wieder anbringt, dass der 13900KS in Anwendungen 1% besser ist als AMD. Was ja auch korrekt ist. Oder so wie QIX anbringt, dass in Starfield (kein Cherrypick, neinein, niemals nicht) AMD CPUs eher meh performen. Was auch korrekt ist.
Wenn wir also neutral den aktuellen Stand begutachten. Dann ist AMD also in Games 4% schneller. In Anwendungen 1% langsamer. Und in Kombination von beidem ebenfalls schneller. Dabei verbraucht AMD noch teils extrem deutlich, teils nicht so extrem deutlich weniger Strom. Das alles sind neutrale FAKTEN, die durch Zahlen hier und überall anders belegt werden. Das hat also, wie du siehst, nichts mit einer "AMD Blase" zu tun. 1% Mehrleistung bzw. 4% Minderleistung trotz massiv höheren Stromverbrauchs zu rechtfertigen mit "Ist ja eh egal, keiner kümmert sich um Verbrauch" - oder "Aber INTEL kann getweaked werden" <- DAS ist eine Intel Blase.
 
Bei der Behauptung, dass Intel Prozessoren angeblich einen besseren System Idle Verbrauch haben und so über das Jahr betrachtet gar günstiger wie ein AMD System sein sollen, handelt es sich offensichtlich um ein Ammenmärchen.
In der folgenden Tabelle ist deutlich zu erkennen das dies nicht so ist.
Die CPU an sich dürfte dabei wegen ihres Chiplet-Ansatzes und des separierten I/O schon deutlich mehr im Idle verbrauchen.
Wenn man allerdings das Mainboard miteinbezieht, sieht dies gleich ganz anders aus, wo viele Aufgaben bei AMD direkt auf dem I/O erledigt werden, ist das Mainboard bei Intel im Vergleich immer noch sehr komplex und entsprechend fällt auch der Gesamt Idle Verbauch bei Intel monströs aus.


Verwendet wurde für den 7700X ein ASUS ROG Crosshair X670E HERO
Mit einem B650 würde man wohl Kreise beim Idle Verbrauch um die Intels ziehen, von single oder multi core Belastung müssen wir erst gar nicht anfangen, da liegen Welten dazwischen.
1695394517717.png
 
Zurück