Core i9-10900K: Über 90 Grad Celsius Package-Temperatur laut Test

1700 Pins beim neuen Sockel? :huh:
Das lässt für Intels Situation Böses vermuten.
Das heißt vermutlich, es geht weiter mit 14nm, man pappt 2 6/8-Kerner zusammen und jagt durch die mehr Strom wie durch einene zum Tode Verurteilten in den USA.
Denn alleine PCIE4 und DDR5 werden wohl kaum so viele Pins brauchen, selbst wenn man sich einige "frei" hält für zukünftige Generationen ist das Overkill.
Zum Vergleich: AM4 hat knapp 1300.
 
Ich hab mal kategorisch nur intel gekauft, weil prinizpiell immer besser als amd die letzten 10 Jahre.

Das hat sich 180 Grad gedreht.
Gibt praktisch keine Intel CPU mehr egal in welchem szenario - gaming oder workflow - die ich von intel auch nur mit dem Arsch anschauen wuerde.

Wie kann man in so kurzer Zeit vom technischen Spitzenreiter zur absolute Resterampe verkommen?
 
Ich würde mir da aber sorgen machen. Denn deine 80 - 120 Watt sind nur Teillast ! Wenn dann mal ein Game kommt, was deinen i9 auch mal belastet, dann schaut das anders aus. Dann heizt nicht nur deine GPU alles auf, sondern auch deine CPU. Du hast ja noch eine Wasserkühlung, nur die Leute die mit Luft kühlen bekommen da eher ein Problem.

Fakt ist an dieser Stelle doch, das in deiner Teillast Intel und AMD sich nicht so sehr unterscheiden, in der Effizienz. Spieleverbrauch der mittlerweile auch übersichtler wird, danke PCGH.

Nur auf Teillast stabiles CPU-Overclocking hab ich 2017 mit der ersten Ryzen-Riege ausprobiert.
War für mich aber nicht nutzbar. Was helfen schließlich 250 anstatt 200FPS im Dual-Thread optimized MOBA, wenn ein Assassins Creed oder BF V ohne Vorwarnung wegen zu hoher CPU-Last deinen Rechner abschmieren lassen?
Die heute in CPU´s fest integrierten Features zur automatischen Leistungsoptimierung lassen Overclocking sowieso immer uninteressanter werden.

edit: und was damit für Ergebnisse in wahrhaftig einer Minute langen Benchmarks ermogelt werden :schief:

Das was OC in die Belanglosigkeit verdrängt ist der Trend beider Hersteller, die CPUs viel zu dicht an der Kotzgrenze zu betreiben.

Genau das kann meiner Meinung nach nicht sein, Default muss ein Wert eingestellt sein der die Grenzen einhält!
Alles andere müsste Intel drakonisch bestrafen (das sind die einzigen die das durchsetzen könnten)

Es kann doch nicht sein das jeder vom Otto-Normalo bis zum Pro erstmal einen BIOS (btw d.h. jetzt UEFI) Kurs machen muss...

Egal welcher Hersteller, die Hersteller Specs sollten schon sinnvoll gewählt sein. Wie ich es bei AMD kritisiert habe (GPU´s), so kritisiere ich es bei Intel, wenn die praxis zeigen wird, das die Specs absurd sind. Weder wird Intel eine CPU abliefern, die ab Werk schmilzt, noch sonst etwas. Das ding wird den maximal Takt einfach nicht lange halten. Aber letztendlich wird der 40 Euro Luftkühler auch schon passabel performen. Egal ob Spiele, oder produktive Anwendungen, die meisten Szenarien erzeugen nicht durchgehend eine extrem hohe Auslastung.

Auch mit der dicksten Wasserkühlung werden im Großteil der Fälle, keine 10% realen Takt durch die Kühung gestemmt werden.

Und das ist exakt die Spezifikation von AMD.
"105W und bei besseren Bedingungen/Kühlung unbegrenzt lange bis zu 1,35 x 105W".
(Details)

Deswegen dürfen 105er CPUs 142W im Turbo ziehen und 65er CPUs bis 88W.

Und bei Intel ist es eine etwas andere Herangehensweise. Unbegrenzt auf dauer 125W, dafür aber "kurzzeitig" mehr. Wo ist das Problem. Für die meisten wird sich das auszahlen. In Spielen werden die Lastspitzen wohl keine 56s andauern...Geau so auch in den meisten anderen Anwendungen. Klar gibt es auch welche die dauerlast erzeugen, das sind aber nicht die meisten.

auch das dürfte nicht sein, das ist sozusagen Schummeln mit Hoffnung das alles gut geht..

sowas gehört von Seiten der CPU Hersteller unterbunden und von den Testern abgestraft wenn die Teile doch so eingestellt sind (macht PCGH meine ich schon)

btw..
Natürlich soll der versierter User alles freischalten auch außerhalb der Specs, aber der Default sollte so die sichere Kiste sein...

@Alk
wir haben uns überschnitten, wenn AMD das so schreibt ist alles OK... imho

Es sollte wirklich von allen Testern kritisch aufgeziegt werden und auch die Tests sollten mit den Hersteller Spezi´s stattfinden, aber auch nicht mit künstlich härteren Limits.

1. für müssen verstehen, dass Boost heute bis zu meint - und ja selbst ein auf 65W limitierter 9900k schafft 5.0Ghz solange maximal 4 Kerne Last bekommen, bei Ryzen hat man kritisiert, dass selbst der Singlecoreboost nicht sicher zu erreichen war
2. wer ein Z-Boards Ultimate Aorus MAX Boost kauft, kann nicht mit den Standard TDP Einstellungen ab Werk rechnen. Kauft ein H oder B Board und ihr werdet genau das finden.

Ich denke zu 2. das auch das tollte Ultra Matchbox Board Out of the Box mit den CPU Spezifikationen laufen sollte. Nur weil ein Board mehr kann, darf es meiner Meinung nach nicht automatisch die Specs überschreiten.
Bei 1. bin ich voll bei dir.

Ich kann diese Mentalität nicht ganz nachvollziehen. Ist das jetzt irgendwie eine Schmach, wenn die CPU nicht immer und überall mit 5GHz läuft? Takt ist was Dynamisches. Das Power Limit begrenzt den Takt. So ist das halt. Wüsste jetzt nicht, dass das irgendwie "uncool" sei. :D

Genau so ist es heute. Der Takt ist heute nur noch dynamisch. Was seit Jahren in den GPUs drin ist, ist halt inzwischen auch bei den CPU´s angekommen. Die Zeiten eines fixen Taktes sind halt vorbei.


Du vergleichst hier nicht wirklich nen 10Kerner mit nem 64Kerner beim Verbrauch, oder? Ich würde fast behaupten, dass mein 3900X unter Volllast weniger als der 10900k verbraucht.

Vielmehr wird hier nur eine Mentalität dargestellt, mehr nicht. Es geht wohl nicht um den Verbrauch zweier CPUs, nur um die Reaktion darauf.
 
Also @stock wird der Core i9-10900K mit guter Luftkühlung das schon schaffen. Mir machen eher die Mainboards mit schlechter oder zu wenig Spannungsversorgung Bauchschmerzen und ungenügender gekühlter VRMs. Meine Vermutung ist, mit OC läuft min. ohne AIO 360 plus Highend Brett nix. Ich habe ein 9900KS@ 5.1 Ghz AVX stabil plus ein Asus Rog z390 Gaming F dort machen bei Prime irgendwann die VRMs zu, die gehen bis 90 grad rauf. Gibt ja nicht umsonst extra eine Lüfterhalterung für die VRMs zum nachrüsten. :nicken:
 
Was? Der8auer soll so einen Quatsch in die Welt gesetzt haben? Kann ich kaum glauben.

Glaub ich schon. Was Software betrifft, kommt halt manchmal Stuss von ihm.

AVX ist in Spielen mittlerweile weit verbreitet. Die math. Lib von DirectX 12 nutzt ausgiebig AVX. Die Treiber von AMD und Nvidia nutzen ebenfalls AVX. Battlefield 5 als Beispiel nutzt zu 10-15% AVX Code auf der CPU für das ganze Partikelgedöns.

Edit: Hab gerade das Video von Roman gesehen, was owned verlinkt hat. In diesem Fall ist es kein Quatsch.

Ihr könnt ja mal zum Spaß "bcdedit /set xsavedisable 1" auf einem System mit einer Nvidia GPU ausführen. :D
 
Zuletzt bearbeitet von einem Moderator:
Die passende Kühlung wird man im custom WaKü Bereich schon haben. Mein damaliger Phenom II X6 hatte mit 4.1 GHz auf allen Kernen und 1.475V deutlich über 300W Gesamtlast mit 6x LinX parallel.
Dabei kam die CPU auf max 47°C.
 
Die passende Kühlung wird man im custom WaKü Bereich schon haben. Mein damaliger Phenom II X6 hatte mit 4.1 GHz auf allen Kernen und 1.475V deutlich über 300W Gesamtlast mit 6x LinX parallel.
Dabei kam die CPU auf max 47°C.
Da werden Erinnerungen wach. Meiner lief auf 3,5 GHz und zusammen mit einer HD 5870 hat das System ausgereicht um im Winter die Heizung abzuschalten. Im Sommer bin ich dann vom Kinderzimmer in den Keller umgezogen.

BTT: Keine Ahnung, wen Intel da als Zielgruppe hat. Selbst im CAD-/FEM Umfeld sehe ich absolut keinen Nutzen für so eine CPU. Da nehme ich gleich XEONs / Epycs in die Workstations, die halten länger und brauchen weniger Strom, bei ähnlichen Ergebnissen (spreche hier von NX und Solidworks). Gerade bei FEM-Berechnungen (wir nutzen FEMAP / Solidworks FEM) renne ich meistens in zu wenig RAM als in zu wenig Prozessorleistung. Stelle mir gerade vor, wie die Workstation mit so einem Ding nach 8 Stunden Vollast aussieht: Sämtliche Plastikkomponenten sind zusammengeschmolzen und die Büropflanze drei Meter weiter hat Feuer gefangen :fresse:.

Nebenbei: Desktop Arbeitsplätze mit einer Stickstoffflasche oder einem Kompressor neben dem Rechner sorgen für Anrufe von beunruhigten Usern.
 
Zuletzt bearbeitet:
Die passende Kühlung wird man im custom WaKü Bereich schon haben. Mein damaliger Phenom II X6 hatte mit 4.1 GHz auf allen Kernen und 1.475V deutlich über 300W Gesamtlast mit 6x LinX parallel.
Dabei kam die CPU auf max 47°C.
Der war aber auch nicht so dicht gepackt und hatte damit größere Hotspots und mehr Fläche, um die Wärme abzuführen :)
 
Surprise, surprise, das sollte doch jedem klar gewesen sein, der eine ähnliche CPU bereits takten konnte.

Ohne WaKü sind die 14nm-Dinger nicht wirklich taktbar. Möchte man längere Simulations- oder Konvertierungsarbeiten erledigt haben, empfiehlt es sich, den Heatspreader zu entfernen :ugly:
 
Da werden Erinnerungen wach. Meiner lief auf 3,5 GHz und zusammen mit einer HD 5870 hat das System ausgereicht um im Winter die Heizung abzuschalten. Im Sommer bin ich dann vom Kinderzimmer in den Keller umgezogen.

BTT: Keine Ahnung, wen Intel da als Zielgruppe hat. Selbst im CAD-/FEM Umfeld sehe ich absolut keinen Nutzen für so eine CPU. Da nehme ich gleich XEONs / Epycs in die Workstations, die halten länger und brauchen weniger Strom, bei ähnlichen Ergebnissen (spreche hier von NX und Solidworks). Gerade bei FEM-Berechnungen (wir nutzen FEMAP / Solidworks FEM) renne ich meistens in zu wenig RAM als in zu wenig Prozessorleistung. Stelle mir gerade vor, wie die Workstation mit so einem Ding nach 8 Stunden Vollast aussieht: Sämtliche Plastikkomponenten sind zusammengeschmolzen und die Büropflanze drei Meter weiter hat Feuer gefangen :fresse:.

Nebenbei: Desktop Arbeitsplätze mit einer Stickstoffflasche oder einem Kompressor neben dem Rechner sorgen für Anrufe von beunruhigten Usern.

In Workstations arbeitet die CPU schön entspannt bei 125W und erreicht dabei wahrscheinlich immer noch etwas mehr als Basetakt. Die 250W kommen ja nur Zustande wenn man den maximalen Single-Core-Boost auf allen Kernen erreichen will. Da geht der Stromverbrauch aber bei jeder aktuellen CPU durch die Decke.
 
Zuletzt bearbeitet:
klar Neugestartet, bei Windows läuft doch alles über Neustarts :)
Hab den aktuellen Treiber und das neue Win Update 20H1(?) bzw. die neueste Beta.
 
AVX kommt selten auch in Spielen zum Einsatz, wird halt oft getestet weil diese halt maximal auslastet und die IPC zum Vorschein kommt. Bei Echtzeitanwendungen ist da um einiges schwieriger, ich sehe allerdings auch gerne den selben Benchmark am besten mit in etwa den selben RAM Speeds etc.pp für einen ordentlich Vergleich, problematisch ist nur das bei steigender Auflösung und Low-Level API und neueren Titeln die CPU etwas in den Hintergrund rückt, allerdings nicht immer. Speziell derCore i9-10900K wird da aber einiges noch schlucken für einige Zeit, Spiele wie Strom :ugly:.

Ist mir durchaus bekannt. Was ändert es aber? Die Leistungsaufnahme kommt trotz allem nicht einmal im Ansatz in die Nähe dieser 250 Watt.
 
Wieso kommen eigentlich immer die AVX Benchmarks? Wen interessiert das bitte? Der mit Abstand größte Teil all derjenigen die eine solche CPU kaufen spielen hauptsächlich damit und einige wenige Rendern eventuell noch damit. Dabei erreicht man niemals diese Temperaturen und diese Leistungsaufnahmen, diese 250 Watt sind einfach nur realitätsferner Worst Case der 99% der User nichts bringt.
Temperaturen in anspruchsvollen Spielen wären deutlich interessanter.

BF V nützt meines Wissens nach AVX. Insofern also nicht realitätsfern.

Abgesehen davon wer schnallt denn schon ne Mikro 240er AIO auf das Teil drauf ?
Absurd. Ausser man begrenzt die Powertargets ganz klar.
 
Zurück