Core i9-10900K: Über 90 Grad Celsius Package-Temperatur laut Test

Versteh' ich.

Ein Problem, was ich sehe ist, dass man sich beim 9900k noch "rausreden" kann, dass das eigentlich "nur" ne Gaming CPU ist, wo man mit Extrembelastungen, wie aus solchen Stabilitätstests jetzt nicht rechnen muss, in der Regeln.

Bei 10 Kernen/20 Threads sehe ich aber nicht mehr, dass die CPU nur für's Zocken da ist.
Somit muss es nun eigentlich auch wirklich andere Belastungen, wie es beim Arbeiten auftauchen kann(auch mit höherer Spitzenauslastung über längere Zeit), aushalten.

10 Kerne/20 Threads braucht man zum Zocken nun wirklich nicht, bzw. hat es ja dann auch Nachteile, denn wie man sieht, je mehr Kerne Power haben wollen, desto mehr zieht sich das auch.
Und ich denke nur zum Zocken sollten 8c/16t auch noch einige Jahre reichen. Glaub das ist mittlerweile so eine Art Sweetspot. Bei nur 6 Kernen(selbst 6c/6t) geht's aktuell auch noch, aber da is man manchmal bereits am Minimum, je nach Game.

Das hier ist schon so eine Art Allround CPU, mit so vielen Threads.
Dann müssen aber auch andere Belastungen als Test gelten, als "nur Spiele".

Just my 2 cents. :)


edit(wie meistens ;) ) :



Ach ... manchmal sehe ich schon die 100 Watt und auch mal Spitzen von 150 Watt(je nach Fall und Auslastung). Aber das sind halt nur ganz kurze Spitzen.
Das sollte so eine CPU aber auch aushalten.

Meist sind es aber wirklich eher die 60-75 Watt die Anliegen. Stimmt.

Kommt natürlich auch immer auf die Einstellungen an.

Keine CPU ist zum Zocken, oder auch nicht gedacht. Das hängt doch nur am Anwender.

Wenn ich mir heute die schnellste CPU zum zocken kaufen wollen würde, dann wäre das halt CPU X. Ob das jetzt ein 3950X, oder ein 9900KS jeweils mit Optimierungen ist, sei mal dahin gestellt.

ein reiner Maximaltest mit Prime95 und AVX ist eben so wenig sinnvoll, wie nur ein Idle Test. Für mich gehört zu einem CPU Test eigentlich auch die Leistungsaufnahme, in jedem einzelnen Test. Sprich ich messe Spiele, dann parallel auch die Leistungsaufnahme.

Wenn ich produktive Anwendungen messe, dann da parallel usw und sofort... Nicht wie so oft bis her, ich messe die Leistung quer Beet in verschiedenen Situationen, aber die Leistungsaufnahme nur einmal unter maximalen Bedingungen.


Wie man es drehen will, wir werden mit dem 10900k ziemlich sicher vorerst den neuen Platzhirsch in Spielen sehen.

Zumindest bis ZEN3. Da muss sich zeigen, ob Intel sich in Spielen weiter behaupten kann, oder nicht.
 
Wieso wollte Dir keiner glauben, dass wenn AMD die Nase vorne hat, Intel auch nur noch mit Strom weiterprügeln kann. War doch schon zu Zeiten des Athlon so, als der Pentium verzweifelt versuchte mit Takt seine Unterlegenheit zu verringern. Also besondere Weitsicht hast Du damit auch nicht grade bewiesen, das war wohl fast jedem klar.

Damals hatte AMD den FX und Intel seine tollen i7 CPUs, bei denen die TDP gesenkt wurde. Fast jeder (mir ist keiner bekannt, der mir damals zugestimmt hatte) hatte argumentiert, dass die Komponenten immer effizienter würden und damit auch der Stromverbrauch sinkt. Dass das ganze nicht so sein muß, habe ich versucht am Beispiel meines P3-500, mit Voodoo 3 3000 dazulegen, der unter 100W benötigt hat. Ein i7 4770K, mit GTX 980, war zwar um Welten effizienter, dennoch hat er mehr Strom benötigt. Damals wollte mir das jedenfalls keiner glauben, man muß aber auch sagen, dass Haswell und die GTX 980/970 damals echte Granaten waren, was das Energiesparen betraf. Am Ende habe ich recht behalten und die anderen hatten unrecht :D

Der i9 10900K dürfte auch einen Zacken effizienter sein, als der i7 7700K, dennoch gönnt er sich ein klein wenig mehr.
 
Endlich lohnt es sich mit den Lüftern, welche die Abwärme abführen, ein Windrad anzutreiben und gleichzeitig Strom zu produzieren um die CPU wirtschaftlich zu betreiben!
 
ein reiner Maximaltest mit Prime95 und AVX ist eben so wenig sinnvoll, wie nur ein Idle Test.

Nutze sowas nur als Worst case Test, für kurze Lastspitzen, ob das System damit noch stabil bleibt(auch mit runtertakten durch hohe Temps), oder ob die Kiste abschmiert/freezed.
Ein paar Sekunden sollte auch der Worst Case Test bei mir Stabil drin sein(was es auch ist) und damit ist für mich ein Extremfall in Spielen abgedeckt.
Ich nutze die CPU aber auch nur zum Zocken​(keinerlei Arbeitskram). So gesehen stimmt es schon, dass es an jedem Anwender selber liegt, was er sich wofür holt.


edit:

... für 2 fps mehr im Spiel?
Nö, danke.

Aber 10 FPS average mehr, wenn's um die harten Auslastungen geht, ja bitte ! :)
Gerade im Bereich 30-40 fps.
 
Beim Gaming sind es 80-120 Watt.... ich seh das als „Uhh im worst case kann der aber schon gut ziehen“.... okay aber wen von den Gamern juckt das ?

Wir spielen keine Benchmarks....
.

Ich würde mir da aber sorgen machen. Denn deine 80 - 120 Watt sind nur Teillast ! Wenn dann mal ein Game kommt, was deinen i9 auch mal belastet, dann schaut das anders aus. Dann heizt nicht nur deine GPU alles auf, sondern auch deine CPU. Du hast ja noch eine Wasserkühlung, nur die Leute die mit Luft kühlen bekommen da eher ein Problem.
 
Denn deine 80 - 120 Watt sind nur Teillast ! Wenn dann mal ein Game kommt, was deinen i9 auch mal belastet, dann schaut das anders aus.

Das is so ein Phänomen in der Hardwaregemeinde wenns um Lasten und OC geht. Niemand würde ein Chiptuning beim Auto akzeptieren wo das Auto drosselt/überhitzt wenn man mit Vollgas den Berg hoch fährt weil "im Normalbetrieb is ja immer Teillast". Aber bei CPUs ist das genau gleiche auf einmal kein Problem.
Klar, kann jeder sehen/machen wie er will aber mir persönlich errschließt sich die Logik da nicht wirklich. Entweder ich kann die Maschine voll belasten und sie hälts aus bzw. voll durch oder eben nicht. :ka:
 
250W Abwärme auf Größenordnung 200 mm^2 Kernfläche. Also ne Leistungsdichte von mehr als einem Watt pro Quadratmillimeter. Wer hätte gedacht dass das kaum noch kühlbar ist.

Früher hat man CPUs die hitzig waren mit Herdplatten verglichen - aber Herdplatten kommen nicht ansatzweise in diese Leistungsdichteregionen. Passen wir die Vergleiche mal an: Über ein Watt pro Quadratmillimeter ist etwa das doppelte von dem, was ein Brennstab in nem Kernkraftwerk so abgibt. :haha:
Selten so einen Schwachsinn gelesen, du jagst auch nur noch die Daumen der Fanboys mit deinen Phrasen. Die Spannung pro Transistor ist bei 7nm CPUs immer noch höher und Hitzeentwicklung des Chips auch, daher wird das auch hier auch auf Dauer nicht bedenklich sein.

1.3 Volt bei 5.2ghz All-Core Standard mim 10 Kerner ist eigentlich ein Ergebnis was mit 14nm völlig ok ist, je nachdem unter welchen Bedienungen getestet wurde geht auch die Packagetemp in Ordnung eigentlich, man hat hier schon noch etwas rausgequetscht und verzichtet hoffentlich auch auf ein Propeller Chipsatz.
Natürlich sollte man bei der Boardwahl etwas acht geben und es besteht die Wahrscheinlichkeit sich in Sachen Effizienz dann zum Weihnachtsgeschäft zumindest im Desktop gegen Ryzen 4K in 7nm+ zur Witzfigur zu werden, aber das war doch zu erwarten.

Wieso kommen eigentlich immer die AVX Benchmarks? Wen interessiert das bitte? Der mit Abstand größte Teil all derjenigen die eine solche CPU kaufen spielen hauptsächlich damit und einige wenige Rendern eventuell noch damit. Dabei erreicht man niemals diese Temperaturen und diese Leistungsaufnahmen, diese 250 Watt sind einfach nur realitätsferner Worst Case der 99% der User nichts bringt.
Temperaturen in anspruchsvollen Spielen wären deutlich interessanter.
AVX kommt selten auch in Spielen zum Einsatz, wird halt oft getestet weil diese halt maximal auslastet und die IPC zum Vorschein kommt. Bei Echtzeitanwendungen ist da um einiges schwieriger, ich sehe allerdings auch gerne den selben Benchmark am besten mit in etwa den selben RAM Speeds etc.pp für einen ordentlich Vergleich, problematisch ist nur das bei steigender Auflösung und Low-Level API und neueren Titeln die CPU etwas in den Hintergrund rückt, allerdings nicht immer. Speziell derCore i9-10900K wird da aber einiges noch schlucken für einige Zeit, Spiele wie Strom :ugly:.
 
Die Spannung pro Transistor ist bei 7nm CPUs immer noch höher
Und du sagst zu mir was von Schwachsinn? "Spannung pro Transistor in 7nm"? Wow. :lol:

Falls du auf die 1,5v von Ryzen anspielst: Das hat andere Gründe als von dir vermutet (Details: https://extreme.pcgameshardware.de/blogs/incredible-alk/1681-alkis-blog-44-hilfe-1-5-volt.html).

Vielleicht solltest du auch die Ausdrucksweise etwas zurückfahren. Mir persönlich ists völlig wurscht ob du mich beleidigst oder nicht aber die anderen "Fanboys" mit den Daumen könnten das anders sehen.
 
AVX kommt selten auch in Spielen zum Einsatz, wird halt oft getestet weil diese halt maximal auslastet und die IPC zum Vorschein kommt.

Kann ich so nicht bestätigen. AVX kommt wsentlich häufiger in Spielen zum Einsatz, als hier behauptet wird.

Auch Quatsch: Der nVidia-Treiber triggert AVX. Komisch, dass auch mit AMD-Treiber offensichtlich AVX-Code ausgeführt, da auch da bei entsprechendem Offset die Taktfrequenz abgesenkt wird. Oder liegt's vielleicht nicht einfach doch am Programmcode des entsprechenden Spiels?

Man kann das alles gut selbst überprüfen, in dem man Tests mal mit und mal ohne AVX-Offset durchführt und dabei die Taktfrequenz der CPU mitloggt.

Der Intel-Compiler optimiert übrigens per default Richtung AVX (bei dem muss man also explizit eine derartige Optimierung ausschalten).

Wer sich da einlesen möchte, kann mal hier reinschauen, ist zwar schon etwas älter, aber immer noch aktuell.
 
"Über 90 Grad Celsius Package-Temperatur laut Test"
Ist erwartbar, wenn der Prozess und die Architektur maximal ausgereizt werden.

Würde ich mich entscheiden müssen, würde ich persönlich wohl zum i7-10700F (8/16 / 2.9-4.8GHz / 65Watt / 298$) greifen.
Klingt von all diesen CPUs noch am vernünftigsten.
Der 10-Kerner fällt bei mir jedenfalls raus, da man um das selbe Geld bereits einen Ryzen 3900X bekommt.

Real werde ich aber meinen Ryzen 7 2700 non-X gegen einen 3700X im Abverkauf tauschen, wenn Ryzen 4000 kommt.
 
Nur auf Teillast stabiles CPU-Overclocking hab ich 2017 mit der ersten Ryzen-Riege ausprobiert.
War für mich aber nicht nutzbar. Was helfen schließlich 250 anstatt 200FPS im Dual-Thread optimized MOBA, wenn ein Assassins Creed oder BF V ohne Vorwarnung wegen zu hoher CPU-Last deinen Rechner abschmieren lassen?
Die heute in CPU´s fest integrierten Features zur automatischen Leistungsoptimierung lassen Overclocking sowieso immer uninteressanter werden.

edit: und was damit für Ergebnisse in wahrhaftig einer Minute langen Benchmarks ermogelt werden :schief:
 
Nicht, wenn man mehr will als mittelmäßige Streamigqualität für Twitch/YT bei vernachlässigbarer Dateigröße. ;)
GPU-Encoding ist super für schnelle Encodes ohne große Hardwarelast zu erzeugen, aber die sind in Qualität und Kodiereffizienz CPU-Encodes Welten unterlegen (da GPUs 90% der HEVC-Funktionen beispielsweise gar nicht benutzen/können). Kommt halt drauf an was das Ziel ist - der schnelle Stream zu Twitch oder das HQ-Video der letzten Familienfeier für die Privatsammlung.
...

Ich habe selbst zwar nichts mit Videobearbeitung zu tun, die Zeiten von "in Quali Welten unterlegen" dürften allerdings vorbei sein mit RTX NvEnc, wenn ich Igor Wallossek vom 16.03.2020 Glauben schenke (was ich in Hard-/Softwaretests tue, selbst B-Frames sind mittlerweile mit Turing RTX unterstützt). Im Test der Workstation-Karten mit Adobe Premiere Pro 2020 (v. 14) (HEVC 60fps, Encodierung über das Plugin Voukoder R2, je nach Grafikkarte, über NvEnc oder AMF mit jeweils höchster Quali) schrieb er:
Die Zeit lässt sich in Zahlen vergleichen, die Ausgabequalität leider nicht. Die längere Renderzeit der Quadro RTX 4000 täuscht z.B. darüber hinweg, dass hier eine deutlich höhere Bildqualität erreicht wird, die der der CPU in (fast) nichts mehr nachsteht. Die mit AMF encodierten Clips sind selbst auf höchsten Settings deutlich bis extrem viel schlechter und sie strotzen vor Artefakten und Bildfehlern.

Siehe Die besten Workstation Grafikkarten 2020 | Seite 10 | igor sLAB

Das würde mich zu dem Punkt bringen, wo wohl nur der direkte Lupenvergleich noch die Unterschiede findet ;)
 
Ich habe selbst zwar nichts mit Videobearbeitung zu tun, die Zeiten von "in Quali Welten unterlegen" dürften allerdings vorbei sein

Es hat sich nichts verändert - noch immer kann keine Grafikkarte grundlegendste Funktionen des HEVC (etwa eine CTU von 64 - das ist sogar schon im "veryfast" Preset von CPU-Encodern, GPUs liegen da noch drunter!).
Man muss nur unterscheiden zwischen möglicher Qualität egal welche Bitrate (dann sind GPUs sehr wohl qualitativ zumindest in der Nähe) und der Kodiereffizienz (also mögliche Qualität bei fester Bitrate), da sehen GPUs nach wie vor kein Land - das ist aber auch weder ihr Zielgebiet noch ist es werbewirksam möglich (denn wenn du GPUs programmierst dass sie weiterführende HEVC-Funktionen können sind sie im encoding nicht mehr schneller als ne mittelklasse-CPU, das kannste keinem verkaufen).

Deswegen gibts ja die Unterscheidung von Streaming/YouTube und "HQ-Rest" nenn ichs mal. Klar kannst du eine ordentliche Qualität mit NVenc generieren. Das Ding ist nur: Die gleiche Qualität erreichst du auf der CPU bei einem Drittel der Dateigröße. ;)
 
Burn baby burn :D. Tja wie schon beschrieben 5.1GHz+Allcore ohne 420er Radi is nicht.
 
Zuletzt bearbeitet:
Wow die neue P4 Generation wenn man es mal so nennen darf, Heizkraftwerke eventuell sollte Intel da auch mal tätig werden ist bestimmt nen gutes Geschäftsfeld :-
 
Und 200 mV mehr Spannung brauchen um in Programmen stabil zu sein für 2 fps mehr im Spiel?
Nö, danke.

Hä, warum? Verstehe ich nicht.

Du sagst selbst, die AVX-Last beim Gaming ist nicht vergleichbar mit z.B. Stresstests. Also muss beim Gaming trotz Ausführung von AVX-Befehlen nicht heruntergetaktet werden und auch nicht extra viel Spannung angelegt werden. Sondern man fährt ein ganz normales non-AVX Profil.
 
Das is so ein Phänomen in der Hardwaregemeinde wenns um Lasten und OC geht. Niemand würde ein Chiptuning beim Auto akzeptieren wo das Auto drosselt/überhitzt wenn man mit Vollgas den Berg hoch fährt weil "im Normalbetrieb is ja immer Teillast". Aber bei CPUs ist das genau gleiche auf einmal kein Problem.
Klar, kann jeder sehen/machen wie er will aber mir persönlich errschließt sich die Logik da nicht wirklich. Entweder ich kann die Maschine voll belasten und sie hälts aus bzw. voll durch oder eben nicht. :ka:
Aber auch beim Autotuning muss das nicht so sein, nicht mal bei Serienautos. Vollast kann auch in beiden Fällen von den Anforderungen her abweichen.
 
Hä, warum? Verstehe ich nicht.

Du sagst selbst, die AVX-Last beim Gaming ist nicht vergleichbar mit z.B. Stresstests. Also muss beim Gaming trotz Ausführung von AVX-Befehlen nicht heruntergetaktet werden und auch nicht extra viel Spannung angelegt werden. Sondern man fährt ein ganz normales non-AVX Profil.


Versteh ich. Aber ich kann doch net sicher sagen das alles stabil ist wenn ich z.b. Meinen 9900k nehme. 5.0 all Core und avx-3 schafft er Linpack. Aber wie kann ich sicher sagen dass er die „soft“ avx 5.0 vielleicht trotzdem schafft ?

AVX konnte ich so doch dann nur auf 4,7 testen...? Weist du wie ich meine ?

Den 5.0 Wert habe ich ja dann nur ohne AVX getestet ?
 
Zurück