News Intel Core i9-14900K: Die Topmodelle des Raptor Lake Refreshs sollen im Oktober erscheinen

Der Verbrauch soll noch weiter steigen

Wenn die TDP gleich bleibt, wie kann der Verbrauch dann noch weiter steigen? So wie ich das seinerzeit verstanden hatte, ist bereits der 13900K besser als mein 12900K bei gleichem Power Limit. Der 13900K leistet also bei meinem Power Limit von 88 Watt bereits mehr bzw. wenn das Frame Limit erreicht ist, verbraucht er halt weniger als der 12900K.

Wenn nun der 14900K schneller wäre (als der 13900K) dann würde er mein Frame Limit ja nochmals schneller erreichen und somit ja abermals weniger Verbrauchen oder entgeht mir hier was?

Ich brauch die Leistung des 12900K nicht mal im Moment aber hatte angedacht diesen irgendwann durch den 13900K zu ersetzen wenn man ihn für 'n Appel und 'n Ei bekommt. Falls der 14900K noch auf nem B660 Board* läuft, dann wäre halt dieser nun eine Option wenn ich ihn mal günstig bekommen könnte. Allerdings nicht wenn die Kiste am Ende mehr zieht als vor dem CPU Tausch, vor allem im Idle.

*Asus B660-CREATOR D4
 
@Schrotti
wohmöglich kühlt er es mit Luftkühler und der Raum wo er sich aufhällt heizt sich wohl sehr stark ein,dann muss man solche CPUS sehr stark drosseln weil diese sonst zu heiß werden würden.
 
ja vorallem bin ich beim testen sogar schon beim 13900k auf 350 Watt gekommen mit den 5,7 ghz.Ob diese Person es in dem 320 Watt Profil gehabt hatte kann ich nicht sagen.Wenn nicht,dann würde die Leistung sinken,weil dann ist der CPU Takt nicht mehr zu halten.Ich wusste davon nix,also habe ich bei der Person einfach mal testen lassen.Das nächste mal weis ich ja das auch auf sowas geachtet werden muss um das ganze noch unter Kontrolle zu bekommen.Finde ich schon ziemlich hart.Ohne diese 320 Watt Modi wird dann der 14900k dann noch mehr an Strom ziehen.Bestimmt dann so um die 375 -400 Watt Watt.
Das ist für ne Mainstream Plattform echt nen neuer Reokord.Aber im Negativen SInne,wie ich finde.Sowas brauche ich ganz bestimmt nicht in meinem Pc,soryy.
 
Hat,s Intel doch geschafft mit der Brechstange die 6 Ghz grenze zu übertreffen.Und dabei auch noch neue Rekorde im Verbrauch und abwärme von der CPU bei max.Last zu erzeugen? Sollte es den so sein...dann gratulation dazu.Aber ein Pokal dafür kriegt Intel dafür nicht ,ich bin einer der Verbrauch zu Leistung stimmen muß mit einklang zu Umwelt.Ohne die AKW,s wieder zu reaktivieren in der heutigen Zeit mit Erderwärmung und Klimakathastrophen Weltweit.Einfach mal Nachrichten schaun...... Intel :klatsch:
 
60°C bei gerade mal 25-40 Watt sind mit Verlaub ein schlechter Witz.
Erinnerst du dich noch, wie das bei Ryzen war? Temperatur gehört zum Boost und so? ;)
Aber keine Sorge, das mit den ~60 °C bezog sich auf den CPU-Z-Stresstest, hätte ich dazu schreiben sollen. Beim Zocken siehts eher so aus (siehe OSD im Bild oben links). Und das finde ich bei einer (ätzenden) Raumtemperatur von ~27 °C eigentlich recht ordentlich. Da spielt es dann für mich auch keine Rolle, wenn ein 13900K die gleichen Fps in der Szene bei 90 Watt berechnet, und dabei zwei Grad kühler bleibt, oder dass der Zen-4-IHS nicht das Gelbe vom Ei ist, für mich zählen die Ergebnisse, die ich selbst messe und sehe – und die überzeugen mich. (Spiel: Blacktail, WQHD, max. Details)

BLACKTAIL-Win64-Shipping_2023_06_18_17_51_11_229.jpg
 
Wenn die TDP gleich bleibt, wie kann der Verbrauch dann noch weiter steigen?
Indem die CPU bei Teillast statt 80 dann 100W verbraucht weil die bestcores auf 6,2 statt 6 GHz laufen - also weit unter dem was die TDP erlaubt - denn, man mag es kaum glauben, die 250/300/was weiß ich Watt an Maximum werden im normalen Alltag nicht ansatzweise erreicht.

Interessant ist für mich bei dem Refresh sowieso nur, wie er sich im PL1-Limit verhält. Oder anders gesagt:
Wie viel schneller ist ein 14900K@150W gegenüber einem 13900K@150W - denn alles über dem Limit interessiert mich sowieso nicht.
 
Gibs bei Ryzen nicht ein Temp offset? Oder ist das Geschichte?
Das gibts AFAIK seit Ryzen 3000. Seit dem Release des 5800X3D auch in vorgefertigten Profilen, teilweise in Kombination mit anderen Einstellungen wie dem Eco-Mode oder dem Curve Optimizer (je nach Board und UEFI-Version unterschiedlich). Generell lässt sich da natürlich je nach Güte der CPU etwas optimieren, man sollte sich jedoch bewusst sein, dass eine geringere maximale Temperatur bei einer Ryzen-CPU auch für einen geringeren Boost sorgt, weil die, wie zuvor erwähnt, zusammenhängen. Es ist und bleibt aber völliger Unsinn, sich an der Temperatur der CPU aufzuhängen. Es spielt keine Rolle, ob die mit 50, 60 oder 80 °C arbeitet, dafür wurde das Ding designt und gebaut.
 
naja das mag zwar so sein,aber sobald die Temperatur dann über die 80 Grad geht wei 90,100 und mehr Grad,dann sieht es wieder ganz anderst aus.Bin gespannt wie viel so ne CPU verträgt ehe es dann zu einer abschaltung geht.Also bei 110 Grad schaltet sich der PC wohl noch nicht ab.Erst bei 120 Grad bestimmt.Aber soweit tut sich keiner sowas an,weil es erhitzt auch das Zimmer durch das dann.
 
Das gibts bei Intel ebenfalls seit der letzten Steinzeit mit dem Temperaturoffset, Tjunction ist standardmäßig allerdings 100°C bei den High-End Modellen.
Wer also bei den Temperaturen draußen oder auf dem Dachboden bei 63°C kribbeln verspürt beim 13900K muss zu viel in den Obstler geschaut haben.
 
Oder man greift zum 7800X3D, der optimiert zwischen 25 und 40 Watt in Spielen liegt, bei höchstens 60 °C auf den Kernen (mit gescheitem Kühler) – bei 13900KS-Leistung wohl bemerkt ;)
In dieser Hinsicht wird es spannend, wie sich der Refresh schlägt. Ich würde mir mehr Fps pro Watt von Intel wünschen, statt immer nur mehr Verbrauch, das wird langsam langweilig.
Ich bin thematisch gespannt was Intel bringt. Sehe es genau so. Die Watt-Zahlen müssen runter !

Wie schon an anderer Stelle gesagt, wenn der Verlust nicht so groß wäre dann würde ich mir am liebsten den 7800x3D kaufen…
Es muss Schluss sein mit immer mehr Watt…
 
Topmodell ist hier nicht ganz richtig!
Getunt durch Mehrverbrauch.
Das kann man auch selbst machen,
da reicht Gen. 13!
 
Zurück