Core i9-10900K: Über 90 Grad Celsius Package-Temperatur laut Test

Die sollten die CPU einfach mit angelötetem Wasserblock rausbringen... würde mehr Sinn machen. Ist vorallem bei der Montage simpel. Einfach nur in den Sockel packen, 2 Schläuche dran und läuft.
 
Also meinst du auch lieber AVX Offset als Watt Grenze und 5.0 Ghz ?

5 GHz ohne AVX mit passender Spannung, stabil testen mit Prime95 v26 mit 1344K FFTs.
AVX-Offset von 3 einstellen, entsprechend die resultierenden 4,7 GHz per LinPack testen. Wenn stabil ok, wenn nicht Offset 4 oder minimal mehr Spannung.
TDP-Limit da hinstellen wo dein Kühler es sicher packt, von mir aus 250W - da kommste in Spielen eh nicht hin.

Das sollte als "Spiele-Setup" ganz gut funktionieren und erspart dir 1,4v und 100°C für 5 GHz@AVX.

Ich könnte mir vorstellen, dass der Shitstorm über Intel noch größer wird ald das Rumgemeckere über die angeblich nicht erreichten Boostwerte beim Ryzen 3000.
Glaub ich nicht mal... die Intels werden ihren Boost wahrscheinlich eher/länger erreichen als die Ryzens die nur sehr kurz raufpeaken.
Aber die zeiten wo man einfach den Singlecoreboost mit 2 Klicks zum Allcoreboost hochsetzt dürften vorbei sein.
 
Bislang schaffe ich entweder 50,50,48,48,47,47,47,47 ohne Offset gerade so mit 1.325 Volt (Asus LLC5). (8 Runs Linpack ohne Fehler)

Oder 5,0 all Core und AVX -3. (8 Runs Linpack ohne Fehler)

Denke das kommt aufs selbe raus ? Jeweils sind es knapp 260 Watt und knapp 100 Grad...

Aber dein Tipp mit Prime und Linpack im Mix ist gut, Test ich auch mal.
 
Stimmt - aber es gibt durchaus Leute, die mit ihrem PC andere Dinge tun als Spielen. Ehrlich, das gibts!

Und jetzt stell dir vor, wenn du ein 4K-Video in HEVC wandelst verbrauchen sowohl Intel als auch AMD-CPUs genauso viel wie im LinPack Xtreme - nämlich ihr volles erlaubtes Powerbudget. Im realen Leben, mit echten Programmen.

....

Schon, aber nutzt dieser Personenkreis dann wirklich Consumer-CPUs oder nicht eher andere Kaliber, insbesondere aus dem Hause AMD? Bzw. wenn dann mal zuhause, isses ggf. wesentlich seltener und zu verschmerzen, wenns mal an die thermische Grenze geht.

Auch mein 8700k wird unter AVX Volllast spürbar "warm", ist aber für den vorgesehenen Gaming-Einsatz komplett irrelevant. Diese CPU ist ja tendenziell was für Gamer mit dem K-Suffix, oder nicht? Praxistauglich würde ich dann wissen wollen für die anstehenden Tests, was die CPU so beim tatsächlichen Gaming so treibt. Allerdings dann weniger den 10-Kerner, den ich als noch immer Overkill bezeichne, sondern vielmehr den 8-Kerner 10700K (wohlgemerkt, aufs Gaming bezogen).

Bezüglich Videobearbeitung, lässt man die nicht eh über die GPU statt CPU laufen?
 
Also meinst du auch lieber AVX Offset als Watt Grenze und 5.0 Ghz ?

Oftmals ist es nur der Nvidia Treiber der AVX triggert und nicht das Spiel selbst. Ob AVX wirklich benötigt wird kann man selbst testen:

Enable AVX: bcdedit /set xsavedisable 0

Disable AVX: bcdedit /set xsavedisable 1

Sofern AVX nicht benötigt wird, würde ich mir den AVX Offset sparen und AVX in Windows deaktivieren.
 
Haste mal nen 9900K gehabt?
Meiner läuft bei 5 GHz und 1,28V. In Spielen komme ich nie über 75W, meistens pendelt die CPU zwischen 60 und 70W. (Kein Vsync, sehr häufig im CPU-Limit, keine AAA-Titel)

Ich wette darauf, dass man ohne Leistungseinbußen in Spielen PL2 deaktivieren kann, weil man immer unter 125W bleibt.

PS: Mit deaktiviertem PL2 dürfte das Teil sogar mit meiner mickrigen 92mm-AiO kühlbar sein, immerhin habe ich momentan auch ein 120W Powerlimit und in Anwendungen, die das brauchen komme ich auf ~85°C.

Dein Prozi läuft in deinen Spielen mit nur so wenig Watt, weil du den nicht forderst.
Ich habe damals Diablo 3 auch mit 170 Watt durchgespielt, aber nur, weil das Spiel bei 60hz abgeschottet hat, und demnach mein 37700K@4,4ghz und die damalige Grafikkarte nicht ausgelastet wurden.
Mit einer Grafikkarte davor habe ich bei einem anderen Spiel mit gleichem Prozessor das damalige 400 Watt Markennetzteil zum Absturz gebracht.
Also wenn du deinen 8 Kerner irgendwann auch auslasten kannst und zudem keine Softwarebedingten Feststellklemmen verwendest, , wirst du das bei regelmäßiger Nutzung auch auf der Stromrechnung merken.
Für dich sind die jetzt gemesenen 100 Watt sicherlich ziemlich wenig, aber was ist, wenn ich dir sage, dass mein 3700X darüber nur lacht?
Da ist oft gefühlt quasi die Wattangabe von der 1080 maßgeblich für den gesamtverbrauch des Systems (leicht übertrieben dargestellt)^^.
Aber ich finde es auch durchaus ok, wenn man sich so einen prozi kaufen möchte, und ihn dann zumindest im Bios auf 95Watt stellt, so wie von Intel vorgesehen, und nicht so wie einige Hersteller einfach mal auf 200 Watt.
Und wer dann noch vSync und Framelimiter einsetzt, spart nochmals Strom.
 
Bezüglich Videobearbeitung, lässt man die nicht eh über die GPU statt CPU laufen?

Nicht, wenn man mehr will als mittelmäßige Streamigqualität für Twitch/YT bei vernachlässigbarer Dateigröße. ;)
GPU-Encoding ist super für schnelle Encodes ohne große Hardwarelast zu erzeugen, aber die sind in Qualität und Kodiereffizienz CPU-Encodes Welten unterlegen (da GPUs 90% der HEVC-Funktionen beispielsweise gar nicht benutzen/können). Kommt halt drauf an was das Ziel ist - der schnelle Stream zu Twitch oder das HQ-Video der letzten Familienfeier für die Privatsammlung.

Sofern AVX nicht benötigt wird, würde ich mir den AVX Offset sparen und AVX in Windows deaktivieren.
Kann man machen - aber sollte man im Hinterkopf behalten. Einige wenige SPiele starten nicht ohne AVX und man bekommt kryptische Fehlermeldungen. Dann sollte man sich noch dran erinnern dass mans abgeschaltet hat...
 
Mir wollte keiner glauben, dass die CPUs auch mal wieder mehr Verbrauchen können, wenn beide Hersteller wieder in einer Konkurrenzsituation sind. Siehe da: seit Ryzen explodiert der reale Stromverbrauch.

Das wird mit diesem Thermal Velocity Boost wohl auf 350W rauslaufen. Aber wer 300€+ für seine Wakü ausgibt, der kann auch 200W beim Netzteil draufsatteln.

Ich könnte mir vorstellen, dass der Shitstorm über Intel noch größer wird ald das Rumgemeckere über die angeblich nicht erreichten Boostwerte beim Ryzen 3000.

Im Gegensatz zu AMD hat Intel hier eine transparente Kommunikationsstrategie verwendet. Es wurde nichts verheimlicht, das beugt dem vor. Jeder wußte lange vorher, dass die CPUs über 300W fressen können, kein PCIe 4.0 haben und der Thermal Velocity Boost nur bei unter 70°C erreicht wird.

Das ganze ist entwaffnend, man hat einfach nichts mehr, warum man auf Intel sauer sein könnte. Von daher ist Intel, zumindest bei der Kommunikationsstrategie, AMD weit voraus. (Ob die sich einen Experten eingestellt haben? Vermutlich)
 
Coole Sache

Und wer dann noch vSync und Framelimiter einsetzt, spart nochmals Strom.

Das ist nicht mal sicher, meiner gönnt sich Stock in BF V 150 Watt mit Frame Limiter (115FPS). Mit UV bei 110W Limit ist er dann bei 70-80W und genauso viel FPS bei mehr Takt... Manchmal habe ich das Gefühl der ist auf Strom saufen getrimmt, auch wenn er es gar nicht muss...
 
Zuletzt bearbeitet von einem Moderator:
Nicht, wenn man mehr will als mittelmäßige Streamigqualität für Twitch/YT bei vernachlässigbarer Dateigröße. ;)
GPU-Encoding ist super für schnelle Encodes ohne große Hardwarelast zu erzeugen, aber die sind in Qualität und Kodiereffizienz CPU-Encodes Welten unterlegen (da GPUs 90% der HEVC-Funktionen beispielsweise gar nicht benutzen/können). Kommt halt drauf an was das Ziel ist - der schnelle Stream zu Twitch oder das HQ-Video der letzten Familienfeier für die Privatsammlung.
This. Wenn ich ab und Star Citizen streame, geht bei mir die CPU Last hoch -verwende einen 2700X- aber es wird dann auch keine Monsterleitung benötigt um das 2560*1440 zu streamen.

Ich finde es interessant, wie Intel den Bulldozer Weg beschreitet. Die Dinger sind für den Normal-User quasi nicht zu kühlen. Vielleicht geht es mit Stickstoff, das Teil stabil bei 5,2 GHz zu kühlen.
 
Ja wie immer same Thema... Benchmarks welche keine 24/7 Games wiederspiegeln.

Versteh' ich.

Ein Problem, was ich sehe ist, dass man sich beim 9900k noch "rausreden" kann, dass das eigentlich "nur" ne Gaming CPU ist, wo man mit Extrembelastungen, wie aus solchen Stabilitätstests jetzt nicht rechnen muss, in der Regeln.

Bei 10 Kernen/20 Threads sehe ich aber nicht mehr, dass die CPU nur für's Zocken da ist.
Somit muss es nun eigentlich auch wirklich andere Belastungen, wie es beim Arbeiten auftauchen kann(auch mit höherer Spitzenauslastung über längere Zeit), aushalten.

10 Kerne/20 Threads braucht man zum Zocken nun wirklich nicht, bzw. hat es ja dann auch Nachteile, denn wie man sieht, je mehr Kerne Power haben wollen, desto mehr zieht sich das auch.
Und ich denke nur zum Zocken sollten 8c/16t auch noch einige Jahre reichen. Glaub das ist mittlerweile so eine Art Sweetspot. Bei nur 6 Kernen(selbst 6c/6t) geht's aktuell auch noch, aber da is man manchmal bereits am Minimum, je nach Game.

Das hier ist schon so eine Art Allround CPU, mit so vielen Threads.
Dann müssen aber auch andere Belastungen als Test gelten, als "nur Spiele".

Just my 2 cents. :)


edit(wie meistens ;) ) :

Haste mal nen 9900K gehabt?
Meiner läuft bei 5 GHz und 1,28V. In Spielen komme ich nie über 75W, meistens pendelt die CPU zwischen 60 und 70W. (Kein Vsync, sehr häufig im CPU-Limit, keine AAA-Titel)

Ach ... manchmal sehe ich schon die 100 Watt und auch mal Spitzen von 150 Watt(je nach Fall und Auslastung). Aber das sind halt nur ganz kurze Spitzen.
Das sollte so eine CPU aber auch aushalten.

Meist sind es aber wirklich eher die 60-75 Watt die Anliegen. Stimmt.

Kommt natürlich auch immer auf die Einstellungen an.
 
Zuletzt bearbeitet:
Mir wollte keiner glauben, dass die CPUs auch mal wieder mehr Verbrauchen können, wenn beide Hersteller wieder in einer Konkurrenzsituation sind. Siehe da: seit Ryzen explodiert der reale Stromverbrauch.

Das wird mit diesem Thermal Velocity Boost wohl auf 350W rauslaufen. Aber wer 300€+ für seine Wakü ausgibt, der kann auch 200W beim Netzteil draufsatteln.



Im Gegensatz zu AMD hat Intel hier eine transparente Kommunikationsstrategie verwendet. Es wurde nichts verheimlicht, das beugt dem vor. Jeder wußte lange vorher, dass die CPUs über 300W fressen können, kein PCIe 4.0 haben und der Thermal Velocity Boost nur bei unter 70°C erreicht wird.

Das ganze ist entwaffnend, man hat einfach nichts mehr, warum man auf Intel sauer sein könnte. Von daher ist Intel, zumindest bei der Kommunikationsstrategie, AMD weit voraus. (Ob die sich einen Experten eingestellt haben? Vermutlich)

Wieso wollte Dir keiner glauben, dass wenn AMD die Nase vorne hat, Intel auch nur noch mit Strom weiterprügeln kann. War doch schon zu Zeiten des Athlon so, als der Pentium verzweifelt versuchte mit Takt seine Unterlegenheit zu verringern. Also besondere Weitsicht hast Du damit auch nicht grade bewiesen, das war wohl fast jedem klar.

Aber in einem hast du recht, man ist auf intel nicht mehr sauer. Das würde nämlich nicht zu dem Mitleid passen, was zur Zeit wohl eher viele für intel empfinden. ;)
 
Wieso wollte Dir keiner glauben, dass wenn AMD die Nase vorne hat, Intel auch nur noch mit Strom weiterprügeln kann. War doch schon zu Zeiten des Athlon so, als der Pentium verzweifelt versuchte mit Takt seine Unterlegenheit zu verringern. Also besondere Weitsicht hast Du damit auch nicht grade bewiesen, das war wohl fast jedem klar.

Aber in einem hast du recht, man ist auf intel nicht mehr sauer. Das würde nämlich nicht zu dem Mitleid passen, was zur Zeit wohl eher viele für intel empfinden. ;)

jaaa,... die guten, alten Prescotts. ;)
 
Dein Prozi läuft in deinen Spielen mit nur so wenig Watt, weil du den nicht forderst.
Ich habe damals Diablo 3 auch mit 170 Watt durchgespielt, aber nur, weil das Spiel bei 60hz abgeschottet hat, und demnach mein 37700K@4,4ghz und die damalige Grafikkarte nicht ausgelastet wurden.
Mit einer Grafikkarte davor habe ich bei einem anderen Spiel mit gleichem Prozessor das damalige 400 Watt Markennetzteil zum Absturz gebracht.
Also wenn du deinen 8 Kerner irgendwann auch auslasten kannst und zudem keine Softwarebedingten Feststellklemmen verwendest, , wirst du das bei regelmäßiger Nutzung auch auf der Stromrechnung merken.
Für dich sind die jetzt gemesenen 100 Watt sicherlich ziemlich wenig, aber was ist, wenn ich dir sage, dass mein 3700X darüber nur lacht?
Da ist oft gefühlt quasi die Wattangabe von der 1080 maßgeblich für den gesamtverbrauch des Systems (leicht übertrieben dargestellt)^^.
Aber ich finde es auch durchaus ok, wenn man sich so einen prozi kaufen möchte, und ihn dann zumindest im Bios auf 95Watt stellt, so wie von Intel vorgesehen, und nicht so wie einige Hersteller einfach mal auf 200 Watt.
Und wer dann noch vSync und Framelimiter einsetzt, spart nochmals Strom.
Was willst du mir jetzt eigentlich sagen? Hast du meinen Beitrag überhaupt komplett gelesen?
 
Das kommt vor. Spiele nutzen AVX und ja, man muss mit AVX das OC testen

Yep. Hat mich auch genervt, dass AVX ständig an und aus getriggert wird in RDR2.
Hab gleich alles auf AVX offset = 0 getrimmt und auch die Stabilität dementsprechend gecheckt.
Bei mir muss das einfach auf alles vorbereitet sein, was kommen kann, in Spielen. Läuft.

Und die 4,7 GHz allcore geben auch genug Leistung. Sind ja eh noch andere Dinge wichtig, als nur die reine GHz Zahl der CPU, wie man schon anhand der AVX Diskussion hier sehen kann und echt gezogene Leistung/Temps usw. .
Der Ram is auch nicht komplett unwichtig. ;)

PS: Merke gerade ... brauche erst mal noch n Kaffee. smilie_trink_101.gif Shice N8-Schicht.
Later ! :)


edit:

Grad beim Ziel Gaming würde ich AVX-Offset auf 0 stellen.

Auf jeden Fall !
Wird immer öfter (angeblich auch durch den Nvidia-Treiber ? ) auch in Spielen angetriggert.
 
Wer seine CPU mit Powerlimit übrigens auf Stabilität bei vollem Takt testen will, kann in Prime und anderen verschiedenen Benchmarks einfach die Anzahl der Threads reduzieren, bis die CPU bei vollem Takt nicht ins Powerlimit rennt.
Damit sind die Ergebnisse etwas zuverlässiger als mit gesenktem Takt wegen PL oder mit kochender CPU ohne PL.
Beim reinen Gaming bremst ein AVX-Offset. In dem Fall aber mit PrimeAVX das OC-Setting auszuloten ist unsinnig. Die Belastung ist eine ganz andere.

Obs alles wirklich stabil ist, erfährt man sowieso erst im Spielealltag über Zeit. Eine Grobe Richtung, wie viel möglich ist, kann man mit der o. g. Methode aber ausmachen.
 
Zurück