How-To Alder Lake oder Raptor Lake zu heiß! Was tun?

How-To-Threads
Klar, beim Stresstest und bei der Punktejagd muss man eine potente Kühlung besitzen, aber davon spricht hier ja keiner.
Und sofern @taz81 einfach nur zocken will, sehe ich da gar kein Problem.
PL1 und PL2 könnte man ja noch etwas reduzieren, für das gute Gewissen und ohne dass man Leistung verliert.
 
Leider benutzt @taz81 immernoch kein www.hwinfo.com
Was haben manche Leute ständig mit diesem HWInfo... :D
Ich muss es auch nicht nutze, HWMonitor bringt auch alles mit und ist direkt ersichtlich.

Er kommt auf 256 Watt:
Ashampoo_Snap_Mittwoch, 15. Februar 2023_17h23m29s_001_.png
Habe meinen 12900K meiner Tochter mit diesem Kühler verbaut und hier steht auf der Verpackung, dass er für 250 Watt ausgelegt ist.
IMG_20230215_172440.jpg

Der 12900K erreicht auch mit CB R23 256 Watt und kam damit auch schon ins Temperaturlimit.

Der 13900K hat aber eine höhere VCore anliegen und 8 E-Kerne mehr. Dazu kommt noch der höhere Takt und so kann der 13900K in meinem Fall mit Stock in CB R23 bis zu 350 Watt erreichen.

Eine AIO, selbst mit einem 360er wird auch nicht viel besser als ein großer Doppelturm Luftkühler ausfallen, denn eine AIO ist eher Optik und alles schön aufgeräumt zu haben. Daher wird eine AIO mit einem 360er Radiator bestenfalls nur gering gegenüber einem Luftkühler besser kühlen.
Klar, beim Stresstest und bei der Punktejagd muss man eine potente Kühlung besitzen, aber davon spricht hier ja keiner.
Warum nicht, ich habe letzten Warzone 2 gestartet und staunte nicht schlecht, als der nach dem Start direkt auf 200 Watt ging. Nachdem das Spiel eine kurze Zeit gelaufen war, ging es auf 100 Watt zurück.
PL1 und PL2 könnte man ja noch etwas reduzieren, für das gute Gewissen und ohne dass man Leistung verliert.
Mit dem 12900K + dem Luftkühler bin ich von 188 => 125 Watt gegangen.
(Zeit: 56 Sekunden)
 
Zuletzt bearbeitet von einem Moderator:
Naja, bei HWMonitor fehlt der Durchschnittswert, welcher manchmal auch sehr hilfreich ist
Brauch ich nicht, da habe ich mein OSD. :D
Da kann ich während des Game genau sehen, wie sich alles verhält.
für das gute Gewissen und ohne dass man Leistung verliert.
Solange ein Limit nicht erreicht wird, verliert man keine Leistung und in Games hatte ich es bisher noch nicht und wenn nur kurze Zeit anfangs, wo ggf. noch was im Hintergrund nachgeladen wurde. Allerdings hat mein Bildschirm nur 3440x1440 Pixel und 120 Hz. Keine Ahnung, wie es genau mit 4 K ausfällt.
 
@taz81
Nur um dich mal zu "beruhigen" mein MacBook Late 2015 läuft beim Rendern immer mit 105°C und lebt noch :ugly:
Bzw. jedes Intel MacBook, das ich kenne, läuft mit bis zu 105°C und die 2012er Retinas leben auch noch... :ugly: Zumindest teilweise :D
 
Bei ihm knapp über 1.4 Volt.
Wir haben ja noch ein System mit einem 13900K neu aufgebaut. Mal sehen, was mein Sohn mit seinem Prozessor und einem Z790 Board (Edge DDR4) erreichen wird. Denn ich habe ja den Vorgänger als Z690 verbaut.

Das System ist schon komplett in einem neuen Gehäuse fertig aufgebaut.
Wir konnten aber noch nicht Teststarten, da die neue wassergekühlte Grafikkarte nicht da ist. Daher ist das System noch nicht mit Wasser befüllt. Es fehlt aber nur die Grafikkarte und dann können wir die restlichen zwei Schläuche verbinden und mit Wasser befüllen.

Bin auch schon gespannt, was für eine Lastspannung er mit Stock anliegen haben wird.
Kleiner Hinweis noch, möglicherweise kann sich dieses auch positiv auf die Temperaturen mit auswirken.
 
Zuletzt bearbeitet von einem Moderator:
Eine stärke Grafikkarte, bzw. ein Monitor mit höherer Auflösung, heißt jetzt nicht zwangsläufig mehr Aufwand für die CPU, eher sollte es so sein das mit steigender Auflösung die CPU in den Hintergrund rutscht und die Grafikkarte ja die Arbeit übernehmen muss und somit wiederum die CPU entlastet.

Ich kann zwar 4K nur via DSR auf meinem 2K Bildschirm simulieren, aber es ist genau das was im Grunde zu beobachten ist.

Wenn man dann wieder DLSS zB. aktiviert, bzw nutzt, erhöht man wieder die CPU Last und entlastet die Grafikkarte.

2K(Ultra) CPU Verbrauch
SOTTR_1440p_Verbrauch_CPU_01.jpg


4K(Ultra) CPU Verbrauch
SOTTR_2160p_Verbrauch_CPU_01.jpg


In dem Fall wird der Verbrauch der CPU halbiert.

720p(Ultra Low) CPU Verbrauch
SOTTR_720p_Verbrauch_CPU_01.jpg


Man achte auf die CPU Auslastung und die Taktraten(effektiver Kerntakt via HWiNFO)
 
Zuletzt bearbeitet:
Werde ich auch irgendwann mit testen können, da mein UHD Fernseher auch an meinem Rechner dran ist. Aber momentan habe ich dazu keine Zeit und dann hat mein 4 K auch nur 60 Hz.
 
Bin jetzt mal auf 220W gegangen, da kommt er dann auf 89°C. Ich werde es mal so probieren......und wenn ich mutiger werde, dann werde ich die Limits wohl wieder rausmachen, wenn es wirklich "normal" ist mit den Temperaturen.
CPU2.jpg
 
Das ist in Ordnung.

Mit dem System meiner Tochter bin ich sogar auf 188 => 125 Watt gegangen. Mit Gaming wird normalerweise kein Limit erreicht und wenn, nur für kurze Zeit, wo ein Game noch einiges nachladen tut.
 
Ich habe hier noch BF2042 Multiplayer 128er Rush im Angebot:

1440p(nativ)
BF2042_2K_nativ_Verbrauch1.jpg


2160p(via DSR)
BF2042_4K_nativ_Verbrauch1.jpg


Bei der Auslastung sieht man, wie bei 4K plötzlich 2Kerne schlafen gehen, in SOTTR ist das ja auch zu beobachten.
 
Man kann ja über Preise der 4000er Karten immer wieder meckern aber die Leistungsaufnahme der Karten ist immer wieder lecker zu sehen.
 
Ja, also out-of-the-box ist das nun nicht, weil dann würde sie auf 2805-2850MHz raufgehen und so ca. bißchen über 300W saugen.

So ist sie durch den Curve Opimizer begrenzt und verbraucht so viel wie meine "alte" 3070 unoptimiert.

Es ist aber noch mehr drin, wenn ich via Vsync die FPS, in meinem Fall 165Hz Monitor, begrenze und DLSS nutze, dann liegt der Verbrauch auch noch unter 170W.

In BF4 zum Bsp. (ohne DLSS) mit Framelimit auf 163 FPS, liege ich weder im CPU noch im GPU Limit, das Spiel(Multiplayer) langweilt sich, der Verbrauch an der Dose liegt im Mittel bei 165W.
 
Zurück