News Intel Core i9-14900KF erklimmt den Thron: Schnellste Single-Core-CPU

Mach dir keine Sorgen, in ein paar Stunden gibt es meinen Account eh nicht mehr. Habe gestern die Löschung beantragt weil das hier immer mehr zu einer reißerischen News Seite wird und nichts „für mich“ mehr mit realen Werten zu tun hat, wo ich mich danach richten kann.
Das ist auch ein Weg dafür zu sorgen, dass die eigene Bubble bestehen bleibt. Denn es kann ja nicht sein, dass die eigene Hardware nicht in allem und überall das Beste ist. Und überhaupt. Viel Spaß im Userbenchmark-Forum. Da dürfte man eher deiner Meinung sein.

Du kämpfst hier gegen Ideologien, nicht gegen Fakten. :D

Guckt euch die letzten Benches von Starfield und Cyberpunk 2.0 an. Ja, ich weiß, wird natürlich alles noch gefixt.
7950X3D kommt wieder mit seinem 3D-Vcache-"Optimizer" durcheinander und wird von seinem kleinen Bruder abgeledert.
Sagte er und postet den *einen* Benchmark, in dem AMD (bei CPUs) schlecht abschneidet.
Aber hey - wenn wir gerade bei Starfield sind, und du so großen Wert darauf legst: Darf ich dann die GPU-Ergebnisse ebenfalls als 100% aussagekräftig für das Verhältnis AMD und Nvidia verwenden? @QIX

1695388347513.png


Danke und genau dann wenn das rauskommt wird halt schnell über Verbrauch gesprochen und nur der gelbe Balken betrachtet aber der Rest nicht!

Dann kommt halt schnell der fps in Watt Bericht damit es in der AMD Welt wieder super ist.


Ne, der Verbrauch muss nicht immer angeführt werden. Auch in Leistung ist Intel unterlegen, siehe CPU Index. Danke für den Ted-Talk

Es ist nur so, dass TROTZ weniger Leistung im Schnitt Intel *DENNOCH* mehr verbraucht.
 
Kann es sein dass der 14900K bei Anwendungen sogar >300W konsumiert. Scheint mir etwas hoch zu sein aber das scheint bei Intel Prozessoren ja mittlerweile normal zu sein. Oder liege ich da falsch? Im Internet stösst man auf gefühlt jeder zweiten auf diese Werte.
 
AMD hat aktuell die effizientesten CPUs, das wars aber auch und betrifft auch nur die X3D Modelle.
??? Du bist der witzigste Clown hier im Forum aktuell. AMD ist in Anwendungen 1% langsamer, zieht aber 60W weniger aus der Steckdose, sind sie dann nicht auch effizienter? Betrifft übrigens kein 3D Modell.
Guckt euch die letzten Benches von Starfield und Cyberpunk 2.0 an. Ja, ich weiß, wird natürlich alles noch gefixt.
7950X3D kommt wieder mit seinem 3D-Vcache-"Optimizer" durcheinander und wird von seinem kleinen Bruder abgeledert.
Ist dennoch um 115% effizienter als Intels 13900K

Mach dir keine Sorgen, in ein paar Stunden gibt es meinen Account eh nicht mehr. Habe gestern die Löschung beantragt weil das hier immer mehr zu einer reißerischen News Seite wird und nichts „für mich“ mehr mit realen Werten zu tun hat, wo ich mich danach richten kann.
Wohl eher weil bei 90% der User ein Ignore kam und du nirgends mehr angezeigt wirst!

Kann es sein dass der 14900K bei Anwendungen sogar >300W konsumiert. Scheint mir etwas hoch zu sein aber das scheint bei Intel Prozessoren ja mittlerweile normal zu sein. Oder liege ich da falsch? Im Internet stöst man auf gefühlt jeder zweiten auf diese Werte.
Eher nicht, im Artikel wird ja erwähnt, dass er MC sogar etwas langsamer als 13900K/KS sein wird, daher vermute ich, dass sich am PL nichts geändert hat und die CPU durch eine etwas erhöhte VCore Kurve im MC einfach in das Designlimit rasselt und daher MC etwas weniger leisten wird.
 
Das ist auch ein Weg dafür zu sorgen, dass die eigene Bubble bestehen bleibt. Denn es kann ja nicht sein, dass die eigene Hardware nicht in allem und überall das Beste ist. Und überhaupt. Viel Spaß im Userbenchmark-Forum. Da dürfte man eher deiner Meinung sein.
Genau das ist es! Ich will mir einfach soviel schwurbel wie möglich nicht lesen müssen wie von dir gerade!

Ich habe es hier schon vorher geschrieben, mir ist es Wurscht ob ich den längsten Balken habe oder nicht und das habe ich mit meinen 13700k auch nicht aber ich weiß wie ich meine Hardware bedienen muss und ich weiß was ich für Werte habe und diese kannst du mir nicht schlecht oder doof reden, weil ehrlich ist mir deine Meinung egal! Es sei denn, du hast auch einen 13700K und kannst mir deine Erfahrung mitteilen!
 
Genau das ist es! Ich will mir einfach soviel schwurbel wie möglich nicht lesen müssen wie von dir gerade!

Ich habe es hier schon vorher geschrieben, mir ist es Wurscht ob ich den längsten Balken habe oder nicht und das habe ich mit meinen 13700k auch nicht aber ich weiß wie ich meine Hardware bedienen muss und ich weiß was ich für Werte habe und diese kannst du mir nicht schlecht oder doof reden, weil ehrlich ist mir deine Meinung egal! Es sei denn, du hast auch einen 13700K und kannst mir deine Erfahrung mitteilen!
Ne, muss ich nicht haben. Aber Dave hat einen. Und den testet er auch oft genug. Nur scheinen dir die Werte, die PCGH misst ja nicht zu gefallen, obwohl du alles 1zu1 nachstellen kannst, da Savegames zur Verfügung gestellt werden sowie die exakte Szene + Einstellungen. Das heißt, um es mal für dich deutlicher auszudrücken: Du ignorierst Fakten, stellst sie als falsch dar weil sie deinem "Feelycraft" widersprechen - aber eigene Tests nach den gleichen Bedingungen, um eventuelle Fehler aufzuzeigen machst du auch nicht. Wie gesagt, du passt ganz gut zum Userbenchmark. Gut für dich ist da außerdem: Da gewinnt immer Intel. Egal bei was.

Mein Gott, wieso muss immer rumgelogen werden, damit AMD den längsten hat?!
Sie haben einen Effizienzvorsprung. Witzig wirds, wenn die ersten Intel CPUs mit großem Cache kommen.
Und den Vorsprung in Games, siehe CPU-Index. Und den Vorsprung in der Kombination aus Anwendungen und Games. Siehe CPU - Index. Ausschließlich in Anwendunden ist Intel 1%!!! besser. Und das bei (in allen Bereichen) massiv schlechterer Effizienz. 63W zu 223W anyone?

Und jetzt der witzige Teil: "Mein Gott, wieso muss immer rumgelogen werden, damit Intel den längsten hat." @owned139
 
Also weder in Gaming noch in Anwendungen hat AMD aktuell einen "Vorsprung"
???
Im Gesamtindex ist ein 7950X3D vorne, ja nur 0,1% aber er ist vorne und hat daher einen Vorsprung. Aber im Gaming wird es doch auch relevant, da liegt AMD 4% vorne, nicht wirklich viel, keine Frage. Aber wenn man dann eben zusätzlich die Effizienz betrachtet wird es doch recht deutlich, ein KS braucht fast 25% mehr Energie in Anwendungen für 1% mehr Leistung und im Gaming wollen wir besser gar nicht drüber reden, ein KS wird da wohl 300% mehr brauchen als ein 7800X3D.
 
Sie haben einen Effizienzvorsprung. Witzig wirds, wenn die ersten Intel CPUs mit großem Cache kommen.
Dann sieht AMD kein Land mehr und ist überall nur noch zweiter.
Klar, so kann man es auch sagen.

oder man kann auch sagen, Intel muss diesen gewaltigen Eiffizienz-Rückstand erstmal aufholen. ;)
Und wann sie überholen, weiß niemand.
Wenn das überhaupt mit den ersten Intel CPUs mit großem Cache passiert....
AMD lässt sich mit Zen5 und Zen6 sicher auch nicht lumpen, diese werden auch sehr schnell werden.
 
Mal sehen ob meine Prognose am Ende ins schwarze treffen wird, oder nicht. Ich gehe in Cyberbunk 2077 phantom liberty davon aus das der 14900K 245W relativ zu den 223W des 13900K haben wird (dies scheint mir nicht unrealistisch zu sein) dafür dürfte er am Ende aber auch ca. 2% schneller als der 13900K werden.

1695389756057.png

 
Sie haben einen Effizienzvorsprung. Witzig wirds, wenn die ersten Intel CPUs mit großem Cache kommen.
Dann sieht AMD kein Land mehr und ist überall nur noch zweiter.
erstens, abwarten und zweitens hat Intel doch immer noch eine Schublade, da können sie doch einfach das Cachemonster (muss ja fürchterlich einfach sein) rausholen. Aktuell sollte man als Intelianer einfach nicht so große Worte schwingen, sie fallen einem immer wieder auf die Füße! Meteor Lake (also die eigentliche 14th Gen wird ja nicht für den Desktop erscheinen, warum?) ist gescheitert bevor es auf den Markt kam, wie groß waren die Vorankündigen hier im Forum? Riesig, Meteor Lake wird Zen 4 einstampfen, Effizienz und Leistung im großen Überfluss bieten!

Dazu kommt, dass Intel nach aktueller Sachlage eben gar nicht in dem Maß cachen kann, was gerne vergessen wird. 3D Cache kann Intel nicht, daher macht man mit Arrow Lake nun was? Richtig man erhöht weiter den L2 Cache auf nun 4MB, was ja aktuell schon doppelt so groß wie der L2 von AMD ist und scheinbar nicht das erhoffte bringt.

Ansonsten muss man auch mal in die Zukunft blicken und abseits der reinen CPU Performance sieht es nicht so gut aus, denn der kommende Sockel wird bspw. nativ weniger PCIe 5 Lanes bieten, als der aktuelle AMD Sockel. Dazu wird Intel, das was AMD eben auch lernen musste, die Tiles nicht einfach beliebig skalieren, da Latenzverluste kommen werden und selbst wenn Intel bspw. 30% schneller ist (Als aktuelle Intels in Anwendungen), kann es passieren das man plötzlich gar deutlich langsamer ist im Gaming! Sehr viele wenn und abers!
 
Was ich an den ganzen Diskussionen um 5% mehr oder weniger ja immer so lustig finde ist - ich wette, wenn ich ich hier 4 PCs hinstelle einen mit Ryzen 5600, einen 7950X3D, einen 13900K und einen 12600 und alle Streithähne dürften blind beliebig viel/lange/was sie wollen auf den PCs spielen (aber eben ohne irgendwelche Overlay-Anzeigen) - KEINER könnte mit höherer Treffsicherheit als Zufall sagen, welcher PC welche CPU drin hat.
Aber dann hier die Köppe einschlagen wegen 1% :haha:

Es ist doch abseits der ganzen Benchmarks und Balken völlig Latte welche CPU in der Kiste steckt - sofern sie halbwegs aktuell ist kann man flüssig spielen (ich lasse meine CPU auf 3,6 GHz ohne Boost stehen weil das im normalen Workload am effizientesten ist und es für Spiele einfach noch nie der limitierende Faktor war, selbst mit 4080 und 144Hz nicht).

Erst wenn man spezielle Dinge tun will wird es wirklich relevant welche CPU man benutzt und wie man die einstellt. Fürs zocken? Ists egal.
 
Bin mal gespannt. Kann nicht sagen ob Gerücht oder Fakt ist.

Daher bis auf die leistungszuwachs mit der Brechstange erkauft zu haben gibt es von intel ehe wenig spektatuläres neues.
Daher mal schauen
 
Was ich an den ganzen Diskussionen um 5% mehr oder weniger ja immer so lustig finde ist - ich wette, wenn ich ich hier 4 PCs hinstelle einen mit Ryzen 5600, einen 7950X3D, einen 13900K und einen 12600 und alle Streithähne dürften blind beliebig viel/lange/was sie wollen auf den PCs spielen (aber eben ohne irgendwelche Overlay-Anzeigen) - KEINER könnte mit höherer Treffsicherheit als Zufall sagen, welcher PC welche CPU drin hat.
Aber dann hier die Köppe einschlagen wegen 1% :haha:
Kommt dann sicher drauf an, welche Spiele dann zur Verfügung gestellt werden und wie CPU-lastig diese sind. :D

Dann würde ich die Rechner mit Ryzen 5600 und eventuell auch Core i5-12600 sicher von den beiden Top-Modellen unterscheiden können. Untereinander wird es dann aber sicher wieder schwieriger. ^^

Ich merke schon den Unterschied zwischen 90 und 120 FPS und das sind nur wenige ms Frametimedifferenz. Ich bin da aber auch ziemlich empfindlich. Drops sind zudem ganz schlimm für mich, gerade wenn ich mit der Maus und nicht mit dem Controller spiele.
 
Was ich an den ganzen Diskussionen um 5% mehr oder weniger ja immer so lustig finde ist - ich wette, wenn ich ich hier 4 PCs hinstelle einen mit Ryzen 5600, einen 7950X3D, einen 13900K und einen 12600 und alle Streithähne dürften blind beliebig viel/lange/was sie wollen auf den PCs spielen (aber eben ohne irgendwelche Overlay-Anzeigen) - KEINER könnte mit höherer Treffsicherheit als Zufall sagen, welcher PC welche CPU drin hat.
Aber dann hier die Köppe einschlagen wegen 1% :haha:

Es ist doch abseits der ganzen Benchmarks und Balken völlig Latte welche CPU in der Kiste steckt - sofern sie halbwegs aktuell ist kann man flüssig spielen (ich lasse meine CPU auf 3,6 GHz ohne Boost stehen weil das im normalen Workload am effizientesten ist und es für Spiele einfach noch nie der limitierende Faktor war, selbst mit 4080 und 144Hz nicht).

Erst wenn man spezielle Dinge tun will wird es wirklich relevant welche CPU man benutzt und wie man die einstellt. Fürs zocken? Ists egal.
Du hast grundlegend Recht - allerdings nur was die Leistung betrifft. Der Stromverbrauch ist halt dennoch ein Faktor - auch im GPU - Limit. Und klar, Leute, die Tausende Euros für Hardware ausgeben, die juckt es nicht, ob es 20-100€ mehr im Jahr kostet. Aber es ist einer der Werte, anhand derer die CPUs nun einmal verglichen werden. Früher war AMD ineffizient (FX?) und jetzt ist es halt Intel. Und genauso wie sich damals zu Recht über die FXs beschwert wurde (und ich hatte einen 8320E, fantastisches Teil :ugly: ) wird sich eben jetzt über die Intels "beschwert". Nur das scheinbar manche eben alles ignorieren,w as nicht in ihr Weltbild passt.
 
Wenn das überhaupt mit den ersten Intel CPUs mit großem Cache passiert....
AMD lässt sich mit Zen5 und Zen6 sicher auch nicht lumpen, diese werden auch sehr schnell werden.
Das es kommt ist glaube ich klar, Ponte Vecchio hat ja gezeigt wo die Reise auch für Intel hingeht und Meteor Lake ist ja nun ein erster Schritt. Kann mir vorstellen, dass man mit Arrow Lake einen ersten "Test" wagt, man muss aber eben noch andere Hürden überwinden als AMD und kann (zumindest wenn ich es richtig verstanden habe; @gerX7a kann da vieleicht genaueres zu sagen) nicht erst funktionierende Dies aussortieren und dann Cache draufpacken, sondern muss den mitbelichten, was die Ausbeute und damit den Preis natürlich empfindlicher berühren dürfte als bei AMD.

Bzgl. Zen 5 und Zen 6 würde ich nicht zuviel erwarten, einen Boost von 20% denke ich darf man ca. erwarten, was in Anbetracht vom vermuteten N3 (in welcher Ausbaustufe auch immer) eher keine große und freudige Überaschung wird.
Intel holt den L4 Cache zurück :bier:
Ist aber jetzt hoffentlich keine freudige Erregung ;-), eigentlich ist das schon länger bekannt, zumindest wenn man 1+1 zusammenzählen kann.
 
Was ich an den ganzen Diskussionen um 5% mehr oder weniger ja immer so lustig finde ist - ich wette, wenn ich ich hier 4 PCs hinstelle einen mit Ryzen 5600, einen 7950X3D, einen 13900K und einen 12600 und alle Streithähne dürften blind beliebig viel/lange/was sie wollen auf den PCs spielen (aber eben ohne irgendwelche Overlay-Anzeigen) - KEINER könnte mit höherer Treffsicherheit als Zufall sagen, welcher PC welche CPU drin hat.
Aber dann hier die Köppe einschlagen wegen 1% :haha:
Doch beim 7800X3D und dem 13900K könnte ich es anhand der Abluft der Lüfter mit verbundenen Augen sagen.
Beim 7800X3D fühlt man sich als wäre man im frostigen Norden losgeflogen und beim 13900K in Hurghada (Ägypten) bei 45°C im Schatten wieder ausgestiegen.
 
Was ich an den ganzen Diskussionen um 5% mehr oder weniger ja immer so lustig finde ist
Wenn man ein Strommessgerät an den Rechner hängt, dann kann man durchaus unterscheiden. Und man hört es, je nach Kühlungsart. Aber 200W und mehr eines i9-14900K in Cyperpunk sind gegenüber 80W mehrt als ein Wimpernschlag. Dass das in dern Gesamtkosten aufs Jahr übertragen keine Rollse spielt, ist etwas anderes, aber es begingt gegenüber einem 7800X3D ein Netzteil eine Klasse höher und eione wasserkühlung mit all dem Folgeärger, wenn es mal wieder undicht wird.

Es geht aber auch nur ims Spielen und dann auch nur um bestimmte Titel. Und auch dann hängen wir in der Regel in dem getesteten Spiel so tief im Grafiklimit, dass die auf halber Last laufenden CPUs dann wieder gar nicht so das Problem sind.

Aber, wir sehen es doch in den Monitoringprogrammen!
 
Zuletzt bearbeitet:
Zurück