News Intel Core i9-14900K: Die Topmodelle des Raptor Lake Refreshs sollen im Oktober erscheinen

Gute frage da müssten man ein von 30 Käufer in ganz Deutschland mal fragen xD Ich behaupte denn werden nur wenige haben um diese Daten erfahren zu können
Ich weiß - Edge Case und so - wäre aber mal interessant. Ich schätze, dass man bei gutem Binning mit manuellen Spannungen die 4 vorne sieht beim Takt.

Man kriegt jede absolut ineffiziente CPU halbwegs effizient, wenn man das denn will. Ob das dann sinnvoll ist oder nicht, sei mal dahin gestellt, Machbarkeitsstudie und so. ^^
 
Wie viel Takt schafft denn ein exzellent gebinnter Core i9-13900KS mit nur 8 Threads in Spielen bei 65 Watt (E-Cores off, HT off, moderate Last auf allen 8 Threads)?
Da musst du im Luxx fragen, woanders findet man solche CPUs nicht. Und auch dann hängt es von der Last ab, und von nichts anderem. Ich finde das Thema auch interessant, vor allem, wie AMD es löst: Rund 1 GHz Takt-Unterschied kosten mich beim 7800X3D keine 10 Watt bei der Package Power. Wenn Intel das schafft, dann bin ich beeindruckt. Aber derzeit laufen die Gerüchte in die andere Richtung, 320 Watt OC-Modus und so.
 
Hier mal der vergleich in der Praxis :)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das ist schon ein Monster der 7800X3D auch wenn es nur wegen dem V-Cache ist aber AMD hat ein weg gefunden
 
Wird die Temperatur dann noch schlimmer als beim 13900K oder gleich bleibend?!
Bei den jetzigen Sommer Temperaturen habe ich meinen 13900K auf P1/P2 50/65W begrenzt und UV -0.120V eingestellt, da ich mich sonst wie in einer Sauna fühle, trotzdem erreicht er beim zocken 50-63°C :D
Ich erreiche aktuell bei Games um die 45 bis 55 Grad mitm 13900K und das bei Nachmittag unterm Dach bei 30 Grad Raumtemperatur. Ich denke, das kann sich sehen lassen. Das drumherum dafür war auch nicht günstig. Case und Wakü über 700 Tacken. ^_*
 
WIll lieber 10 Watt Grafikkarten, die fressen doch eher unser Strom auf, dagegen sind CPU's ein witz gegen.
Da ist 10 Watt zu wenig was die Graka angeht :) Lieber 100 Watt weniger xD Aber hast recht was die Karten im vergleich zu CPU schlucken ist schon krass. Aber dafür Bringen sie auch mehr daten auf denn Boden
Ich erreiche aktuell bei Games um die 45 bis 55 Grad mitm 13900K und das bei Nachmittag unterm Dach bei 30 Grad Raumtemperatur. Ich denke, das kann sich sehen lassen. Das drumherum dafür war auch nicht günstig. Case und Wakü über 700 Tacken. ^_*
55 Grad bei 30 Grad + ist schon ein super Leistung. Ich klebe so bei 70 Grad ca
 
Wenn man denn 13900K auf 125 oder 150 Watt Limitiert ist der Leistungsverlust beim Zocken so Extrem ? Bei Anwendungen wird der Leistungsverlust sehr groß sein
Ja bei Anwendung wo denn sonst. Beim zocken wohl kaum. Das sehe ich auch so. Und wenn ich mal beides mache dann lasse ich einfach eine Anwendung weg und verwende nur noch eines. Da beim mischbetrieb wird es sehr interessant bei Intel sein. Sofern sich der hohe stromverbauch sowie die hohen Temperaturen nicht einstellen wird.

@restX3
Hm was hast du denn für ein Gehäuse gekauft gehabt das so teuer ist, wie heißt das denn?

Und ja bei so ner starken CPU kühlung ist es klar. Mit der 13900k. Mit 30 Grad Zimmer Temperatur plus nur noch luftkühlung anstatt wasserkühlung. Sind die temps dann noch immer bis maximal 55 Grad, ich denke mal da kommen dann deutlich höhere Temperaturen bei dir rshs wenn du diese nutzen würdest.
 
Zuletzt bearbeitet:
Weil die TDP nichts über den Verbrauch aussagt, sondern ein Richtwert für Kühler-Hersteller ist, beziehungsweise für den Kunden, damit er den richtigen Kühler kauft. Kann man heute noch schön beim 11900K beobachten, mit einer TDP von 125 Watt, der fröhlich >300 Watt herausballert.
Aber konkret beim 13900 und 14900 ist das so eine Sache.
In Spielen klar, aber in anderen Szenarien kam es doch schon beim 13900k vor, das die 253W das begrenzende war.
In diesem Szenario kann ein 14900k nicht mehr verbrauchen.


Ich bin gespannt auf die Tests, auch wenn es für mich selbst relativ Latte ist.

Meine Aufrüstpläne für CPUs sehen, eher so aus...von kurzfristig, bis langfristiger..

R5 5600, alternativ R5 7600 und später mal einen 7X00X3D, oder ein entsprechender Nachfolger... Am liebsten immer nur bis 65W (Ab Werk, oder nachträglich eingestellt)
WIll lieber 10 Watt Grafikkarten, die fressen doch eher unser Strom auf, dagegen sind CPU's ein witz gegen.
Naja, die sind schon immer effizienter geworden. Nur will man auch immer mehr.
Ich persönlich habe immer ein Limit am mitlaufen.

Teste ein Spiel aus, stelle es so ein das meine GPU sicher meine Wunschfps erreicht und damit im Mittel auch mehr kann.

Beispiel:
Wunsch 80Fps, dann Settings so wählen das im WorstCase 80Fps bei rum kommen. Dann kann die Karte im Schnitt aber bestimmt auch schon an die 95Fps gemittelt. Alles über 80 wird aber gekappt.

Dann noch immer undervolting und dann ist eigentlich jede GPU für das angeziegte sehr sparsam.

Das 4k, mit RT usw. halt mehr Power brauchen als 1080p und ohne RT, ist einfach klar. Dann kann auch eine GPU nichts für.
 
Zuletzt bearbeitet:
Wie viel Takt schafft denn ein exzellent gebinnter Core i9-13900KS mit nur 8 Threads in Spielen bei 65 Watt (E-Cores off, HT off, moderate Last auf allen 8 Threads)?
Bei mir im Sockel ist ein 13900KS, jedoch "nur" ein durchschnittliches Sample. Die Chance beim KS einen SP jenseits der 110 zu bekommen ist gering, Silicon Lottery at it's best.

Die Mühe alle E-Cores und HT abzuschalten hab ich mir bisher nicht gemacht und werde ich auch nicht. So ein Szenario ist rein theoretischer Natur und weit fernab des Alltags.
 
@Atma
Genauso verrückt und das wurde wirklich so getan auch wenn mir die person gesagt hat nen 8 Kerner ist im Grunde keine richtige umwandlungs cpu. Das sagt aber der test was anderes aus. 4 kerne mit smt Programm 1 zum umwandeln und 4 kerne mit smt auf Programm 2 fest zugeordnet. Durch das lief die Ergebnisse auf dem 8 Kerner richtig gut. Gegen ne cpu mit mehr kernen verliert dieser 7700x aber dennoch. Aber genau das machen die meisten e ebenso nicht. Will ja die CPU so richtig und zwar voll auslasten. Dann hole ich mir nur noch process lasso und stelle es so ein das alles aus der cph was geht geholt wird. Maximale ausbeuten was geht. Die CPU wird zwar richtig Bluten und auch so richtig ausgelastet was geht und wird gewiss durch das die Temperatur steigen aber schließlich zahle ich ja recht viel und da soll gefälligst die Hardware richtig ackern. Die werden schreien aber mir egal. Soll sich ja auch richtig lohnen. Also ich scheine da wohl ein einzel Fall zu sein. Stolz bin ich dennoch das so ne cpu bei 100 % vollast ist.
 
Also ich bin ja immer begierig darauf die Energieeffizienz bei meinem PC zu steigern und bin sehr an den X3D CPUs von AMD interessiert aus genau diesem Grund. Doch im Moment scheint mir die Situation (AMD vs Intel) recht ausgeglichen. Einerseits weniger Stromverbrauch, doch andererseits keine E-Cores mehr (von denen ich sehr angetan bin). Ich habe leider keine X3D CPU und kenne auch niemanden der eine hat, also muss ich mich auf Tests verlassen oder wie hier, auf Screenshots von diversen Spielen.

Ich habe das Spiel "Blacktail" ebenfalls und habe den Screenshot von @PCGH_Dave gesehen. Eine gute Gelegenheit für mich mal einen "Vergleich" anzustellen. Ich bin noch recht am Anfang des Spiels, die Szene ist also überhaupt nicht vergleichbar aber naja was solls.

Ich habe die FPS auf 80 begrenzt (wie in seinem Screenshot), alles steht auf "EPISCH" und das Spiel läuft in WQHD. Ich weiß leider nicht welche Grafikkarte Dave verwendet, ich nutze aber eine 4090 und habe daher zusätzlich DLSS auf "Qualität" gewählt. Also so wie ich es auch ganz normal Spielen würde.

BLACKTAIL-Win64-Shipping_2023_06_20_09_03_50_753.jpg


Mein 12900K verbraucht ~55 Watt*, sein (glaube ich zumindest) 7800X3D verbraucht nur ~32 Watt. Das sind 23 Watt weniger, cool! Allerdings läuft auf meinem System (auf den letzten beiden E-Cores) nonstop eine CUDA Software die auf der CPU Seite ~8 Watt verbraucht. Damit wäre man bei ~47 Watt für das Spiel und der Vorsprung des X3D schrumpft auf 15 Watt aber das ist immer noch sehr gut wie finde.

Meine Grafikkarte allerdings verbraucht nur ~87 Watt gegenüber ~201 Watt!? Ja, man kann das natürlich überhaupt nicht vergleichen weil es unterschiedliche Orte im Spiel sind und DLSS vs FSR oder sogar Nativ usw aber trotzdem: Ich brauch nur ~142 Watt gegenüber ~233 und spare somit 91 Watt. Trotz Intel CPU :ugly:

Übrigens: Die Temperatur meiner CPU ist auf dem Screenshot zwar niedriger als die des 7800X3D aber das ist einfach nur unglücklich "gescreenshottet". Eine Sekunde später war sie bei 52°, eine weitere Sekunde darauf bei 50° usw. Gekühlt wird mit einem Noctua NH-U12A und die CPU hat ein 88/125 Watt PL1/PL2 Limit.

Wäre interessant zu wissen was ein 14900K hier verbrauchen würde. Natürlich ebenfalls bei 88/125er Power Limits. Hoffentlich weniger, dann wäre er eine Upgrade Option sobald der Alder Lake PC als Zweit PC dient.

*) auf dem Screenshot steht zwar 54 Watt aber ich habe auch kurz mal 65 gesehen aber auch 50 Watt. Das nur zur Info.
 
Danke für die Mühen, aber damit
die Szene ist also überhaupt nicht vergleichbar [...} Allerdings läuft auf meinem System (auf den letzten beiden E-Cores) nonstop eine CUDA Software [...] man kann das natürlich überhaupt nicht vergleichen weil es unterschiedliche Orte im Spiel sind und DLSS vs FSR oder sogar Nativ
disqualifizierst du dich, leider. Du sagst selbst mehrfach, dass man die Zahlen nicht vergleichen kann, machst es aber trotzdem. Auch ist eine 4090 natürlich effizienter als eine 3090, vor allem, wenn du nur in Full HD renderst :schief:

Gerne können wir einen richtigen Vergleich machen, dann aber in exakt derselben Szene, mit exakt denselben Einstellungen und nur CPU-seitig. Dazu könnte man 720p verwenden, und ein Fps-Limit (60, oder 80, was halt beide CPUs auf jeden Fall packen).
 
Vielleicht hab ich mich auch einfach falsch ausgedrückt, kommt öfter mal vor :-] Mir ist natürlich vollkommen klar das es kein gültiger Vergleich ist und ich wollte hier auch nicht gegen die eine oder andere CPU stänkern. Im Gegenteil, ich bin eher sehr interessiert an den X3Ds als Ersatz für meinen 5950X (zweit PC derzeit) und wollte die Gelegenheit nutzen mal zu schauen wo der olle Alder Lake so grob steht. Deine GPU war mir nicht bekannt und das Du offenbar ohne Upscaler spielst ebenfalls nicht. Aber das war ja ohnehin nur nebenbei, ging ja um die CPU.

Du sagst selbst mehrfach, dass man die Zahlen nicht vergleichen kann, machst es aber trotzdem.

Ja ich dachte mit dem Smilie wäre klar das es als Witz gemeint war, von wegen: "Trotz Intel CPU :ugly:"

Mir ist schon klar das der X3D effizienter ist. Allerdings läuft der 12900K bei mir auch selten ins PL1 Limit. Beim Laden hier und da sehe ich zwar das PL2 Limit aber ansonsten ist alles eher im 20er bis 70er (Watt) Bereich. Ja und auch hier ist mir bewusst das es am alter der Spiele liegt die ich derzeit spiele :-)

Alles gut, war ja nur ein Erfahrungsbericht, nicht zum Vergleich zu gebrauchen aber naja immerhin.
 
13900k vs. 14900k... they are the same picture

Hoffentlich wird das nicht wieder so ein endlosese Gewürge, wie bei Skylake... Ah shit, here we go again.
 
Zurück