Core i9-10900K: Über 90 Grad Celsius Package-Temperatur laut Test

Also Ergbnis war jetzt.... nichts. Alles lief, keine Fehlermeldung :ka:

Sowohl AMD als auch Nvidia haben die Fehler im Treiber behoben, wenn AVX OS-seitig abgeschaltet wird. Ich hab's selbst nach einiger Zeit mal wieder überprüft. Man kann dennoch einige interessante Dinge damit untersuchen.

1. Cinebench R20 nutzt gar nicht mal sooo ausgiebig AVX Instruktionen
CBR20_AVX_Test.png

Der höhere Wert ist natürlich mit AVX on.

2. Battlefield V wird signifikanter schneller, wenn AVX abgeschaltet wird. Das ist allerdings überraschend, gerade auch deswegen, weil ich bei der Bildqualität keine Unterschiede feststellen konnte. Ich hab's allerdings auch in 720p gebencht. Da kann so was durchaus untergehen. Das wäre was für Raff's geschultes Auge.

Ergebnisse: AVX on vs. off

3. Der AVX Bench von CPU-Z verschwindet aus der Combobox, wenn AXV abgeschaltet wird. Daran sieht man auch, dass das Setting tatsächlich was bewirkt.
 
Zuletzt bearbeitet von einem Moderator:
Sowohl AMD als auch Nvidia haben die Fehler im Treiber behoben, wenn AVX OS-seitig abgeschaltet wird. Ich hab's selbst überprüft. Man kann dennoch einige interessante Dinge damit untersuchen.

1. Cinebench R20 nutzt gar nicht mal sooo ausgiebig AVX Instruktionen
Anhang anzeigen 1089582

Der höhere Wert ist natürlich mit AVX on.

2. Battlefield V wird signifikanter schneller, wenn AVX abgeschaltet wird. Das ist allerdings überraschend, gerade auch deswegen, weil ich bei der Bildqualität keine Unterschiede feststellen konnte. Ich hab's allerdings auch in 720p gebencht. Das kann so was durchaus untergehen. Das wäre was für Raff's geschultes Auge.

Ergebnisse: AVX on vs. off

3. Der AVX Bench von CPU-Z verschwindet aus der Combobox, wenn AXV abgeschaltet wird. Daran sieht man auch, dass das Setting tatsächlich was bewirkt.

Ich probiers heute Abend nochmals :)
 
Stimmt - aber es gibt durchaus Leute, die mit ihrem PC andere Dinge tun als Spielen. Ehrlich, das gibts!

Und jetzt stell dir vor, wenn du ein 4K-Video in HEVC wandelst verbrauchen sowohl Intel als auch AMD-CPUs genauso viel wie im LinPack Xtreme - nämlich ihr volles erlaubtes Powerbudget. Im realen Leben, mit echten Programmen.
Kann man dennoch nicht alles unter einem Teppich kehren, denn mit meinem 9900K habe ich innerhalb von zwei Jahren seit ich ihn habe noch keine Anwendung gehabt was mehr als 140-160 Watt zieht und solche Anwendungen kommen bei mir in einem halben Jahr vielleicht nur 1-2 mal vor.

Kommt daher immer ganz auf jeden selbst an und Games erreichen im GPU-Limit keine 100 Watt.
Meist liege ich hier auch irgendwo zwischen 55-75 Watt. Natürlich kann der Prozessor wenn irgendwie eine neue Map oder das Spiel gestartet wird kurz die 100 Watt erreichen.

Wir haben auch mittlerweile auch ein 3900X da und was Idle angeht ist der 9900K sparsamer. Laut Strommessgerät kommt der 3900X mit Idle und Office nicht unter 125 Watt mit dem komplettem System, ich kann da gut 75 Watt halten. In Games laufen beide System mit der gesamten Leistungsaufnahme des Systems etwa gleich hoch. Wenn man sich beim 3900X näher umsieht gibt es viele User die alles mögliche versuchen die Leistungsaufnahme in Idle runter zu bekommen, da hier anscheint AMD das ganze immer noch nicht so gut am laufen bekommt. Ist dann auch kein Wunder wieso sich manche User die sich solch ein System aufbauen wundern wieso solch eine hohe Temperatur bereits mit Idle und Office anliegen. Mein 9900K hat in Idle Office überwiegend eine Temperatur von 32°C im Schnitt und bewegt sich eher selten ins 50er Grad Bereich. Beim 3900X ist man fast nur ständig zwischen 45-50°C. Zum Teil geht es sogar hoch auf 65°C und so unterscheidet sich am ende die Temperatur in Games nicht mehr groß, da die Temperaturen zuvor bereits mit Idle sich im oberen Bereich bewegen.

Die AMD Prozessoren leisten gute Arbeit, aber AMD muss da was Idle und Office angeht noch einiges verbessern und optimieren. Es kann ja nicht sein das da zig User an eigene Lösungen herum basteln müssen weil AMD es nicht gebacken bekommt!

Hier nur mal ein Unterschied was beide Systeme bei uns so ziehen.
Ashampoo_Snap_Montag, 18. Mai 2020_14h40m04s_002_.png

Der 9900K hat einiges an RGB verbaut, 3 SSD + 1 HDD, 1x Pumpe, 15 Lüfter.
Der 3900X hat eine AIO verbaut und 1x SSD + 5 HDDs, 6 Lüfter + 3 Lüfter Grafikkarte.

Die HDDs werden aber keine 50 Watt ziehen, so das es hier nicht an den HDDs alleine liegt.
Zudem habe ich bei mir eine custom Wakü verbaut womit ich bereits auch schon eine höhere Leistungsaufnahme des gesamten Systems erreiche.
 
Zuletzt bearbeitet von einem Moderator:
@Iicarus
dann hast du aber ganz kräftig Hardware auf dem Board, 75W sind jetzt nicht ganz wenig (So viel, wie ich, wenn ich die 10Gbit und RX550 rausbaue)
Idle hängt halt maßgeblich am Board, bzw Zusatz-Hardware.
Viele schreiben auch von <50W, was ich persönlich mit Systemen mit eGPU und mind. 1 HDD noch nie gesehen habe.
Alleine meine 1080TI möchte 18W im Idle :)
 
Meine 75 Watt sind nicht wenig, weil ich auch einiges mit meiner Wasserkühlung dran hängen habe, aber der 3900X kommt gar nicht unter 100 Watt mit Idle. Meist bewegt er sich um die 125 Watt und würde ich die 4 HDDs abklemmen hätte wir vielleicht 20 Watt weniger und würde immer noch nicht auf die Leistungsaufnahme meines Systems kommen.

Idle hängt halt maßgeblich am Board, bzw Zusatz-Hardware.
Genau und das läuft bei AMD momentan noch beschissen.

Hier ist jedenfalls noch Handlungsbedarf, denn das System läuft so sehr gut, es ist nur dieses Idle/Office bei AMD was noch nicht perfekt läuft. Denn wenn ein System überwiegeln in Idle/Office sich bewegt rappelt sich dieses wie es gut oben im Bild von mir zu sehen ist auch an und es kann ja nicht anliegen das UV mit zum Teil Leistungsverlust eingegangenen werden muss damit die Leistungsaufnahme hier zurück geht. Ich kann mein System auch auf 5,2 GHz übertakten, aber in Idle/Office würden das Energiesparen immer noch alles zurück fahren.

Nicht falsch verstehen, das neue System meines Sohnes läuft so sehr gut und was Preis/Leistung anbelangt war es auch die beste Entscheidung, aber was Idle/Office angeht sind wir schon etwas überrascht und da stehen wir nicht alleine da.
(Zumindest was ich hierzu schon bereits alles dazu lesen konnte)
 
Zuletzt bearbeitet von einem Moderator:
Was hast du alles an dem 3900X dranhängen?
Wie gesagt, ich kommt auf 72W, mit 3 SSDs und Wakü. Mit 10Gbit und RX550 sinds knapp 92W.
 
Glaube du hast recht, denn wenn ich recht überlege könnte es an seine 4 HDDs + den zwei Monitore liegen. Denn die Grafikkarte kommen bei ihm mit zwei Monitore auf etwa 54 Watt und mit nur einem Monitor auf 25 Watt. Auf 25 Watt komme ich mit meiner 2080 Super auch hin und er hat zwar ein anderen Hersteller verbaut, aber es handelt sich auch um eine 2080 Super.

Im übrigem liege ich mit 75 Watt gesamt mit dem Prozessor nur bei 15 Watt.
 
Bzgl. des CB R20 Benchmarks sollte man auch den Takt mal fixieren, fiel mir im Nachhinein noch so ein. Bei BF V gibt's keine Unterschiede beim Takt, siehe die Diskussion bei Twitter.

Windows Build 2004 19041.208
AMD Treiber Adrenalin 19.20 DCH (26.20.12028.2)
Nvidia Treiber 445.87 DCH (26.21.14.4587)


bcdedit /set xsavedisable 1
CB20 6850
keine Fehlermeldungen. Nvidia CP funktioniert, AMDs will weiterhin nicht aufploppen cuz "LoadLibrary failed with error 87: Falscher Parameter", wie seit immer mit AMD und Nvidia Treiber parallel.
Es gibt keinen AVX Bench in CPUZ 1.92.0 x64

bcdedit /set xsavedisable 0
CB20 7360
keine Fehlermeldungen. Nvidia CP funktioniert, AMDs will weiterhin nicht aufploppen cuz "LoadLibrary failed with error 87: Falscher Parameter", wie seit immer mit AMD und Nvidia Treiber parallel.
Es gibt einen AVX Bench in CPUZ 1.92.0 x64

Edit: 7360 Punkte sind nice! Nochmals 20-30 Punkt extra mit sz_cb Energiesparplan
Vorallem ist die CPU mit -0,131V undervolted
 

Anhänge

  • CB20 3900X non_avx vs avx.PNG
    CB20 3900X non_avx vs avx.PNG
    12,9 KB · Aufrufe: 28
Zuletzt bearbeitet:
Denn die Grafikkarte kommen bei ihm mit zwei Monitore auf etwa 54 Watt und mit nur einem Monitor auf 25 Watt. Auf 25 Watt komme ich mit meiner 2080 Super auch hin und er hat zwar ein anderen Hersteller verbaut, aber es handelt sich auch um eine 2080 Super.

Sorry, wenn das etwas off-topic sein sollte, aber versteh ich das richtig, dass die Graka im Idle pro Monitor 25 Watt verbraucht bei deinem Sohn? Oder hab ich das was falsch verstanden? Weil bei mir idelt' die 2080ti mit 10 Watt, daher wundert mich das etwas.

Also habe meinen 8700k auf 5 GHZ mit einer Offset Voltage stabil laufen und im idle geht der manchmal sogar auf 0,5 Watt runter und ist jetzt so beim Tippen hier überwiegend wirklich nur bei 2-10 Watt laut hwinfo 64. Macht vielleicht nicht den zu hohen Verbrauch von Comet Lake unter Last wett, aber wenn ich bedenke, dass ich eigentlich viel mehr im Office/Surf-Betrieb als am spielen bin, hat das schon eine gewisse Relevanz für mich.

Auch wenn er unter Last zu viel zieht, scheint Intel sich zumindest da Mühe zu geben, weil ich mich erinnere, dass auch Gamers Nexus bei der Comet Lake Vorstellung auf diese "Enhanced voltage/frequency curve" eingegangen ist und erwähnt hat, dass man damit eben präziseres Tunen des Vcore im Idle und unter Last betreiben kann, wobei das wohl ein Tool ist und nicht über das UEFI, aber sie hatten es eben noch nicht ausprobieren und daher kein Urteil darüber abgeben können.
 
Sorry, wenn das etwas off-topic sein sollte, aber versteh ich das richtig, dass die Graka im Idle pro Monitor 25 Watt verbraucht bei deinem Sohn? Oder hab ich das was falsch verstanden? Weil bei mir idelt' die 2080ti mit 10 Watt, daher wundert mich das etwas.
Auf 10 Watt komme ich mit meinem 9900K und nur ein Bildschirm auch nicht hin.
Ashampoo_Snap_Montag, 18. Mai 2020_23h22m03s_003_.png

Mit 10 Watt wird halt deine Grafikkarte nicht so stark gefordert und das wird dann auch wohl von deinem Monitor mit abhängen.
 
55-62 Grad (Gaming) bei nem 10700k mit der Board &#8222;Auto&#8220; Funktion.

Aber ey ihr könnt mir bestimmt nochmal sagen wie ich beim MSI Afterburn. in der OSD Anzeige die CPU - Watt Und CPU Core Clock reinbekomme ?
Durch meine Neuinstallation ist alles weg und ich mein des war n Zusatzplugin bei &#8222;Überwachung&#8220; ?

EDIT ein MSI Afterburner Update hat die Sache gelöst
 
Zuletzt bearbeitet:
Zurück