Differenz GPU-Temperatur zu HotSpot

Halloa1987

Kabelverknoter(in)
Moin zusammen,

meine Hardware:

+Intel Core i7-10700K + Broken Aco mit zwei ARCTIC Bionix P120 Lüftern
+Nvidia GeForce RTX 3070 von Gigabyte
+Be Quiet! System Power 9 700W
+Gehäuse: AeroCool ITS-388, Acrylfenster
+PRIME H470-Plus von Asus

Gestern fiel mir bei in "Wonderlands" auf, dass der Unterschied zwischen GPU-Temperatur und Hotspot 20 Grad beträgt bei dem Feld "MaxTemperatur" in HWMonitor.
Unter "Value" beträgt die Differenz 15,5 Grad.

Bei "The Quarry" beträgt die Differenz zwischen GPU-Temperatur und Hotspot 17 Grad bei Max und bei Value 14 Grad.

Sollte das Delta zwischen GPU und Hotspot nicht mehr als 15 Grad betragen?

Welcher Wert wird bei der Ermittlung der Differenz genommen? Value oder Max.Temperatur?


Danke :)
 
Unterschied zwischen GPU-Temperatur und Hotspot 20 Grad beträgt
sind eigentlich 20 Celvin. Da ich mich da zu schlecht aus kenne kann ich das nicht wirklich beantworten.
Aber in der Regel ca.. 20 Grad und somit ist das so lange es nicht an den 100 Grad gratzt alles nahe zu unbedenklich.

Nur so viel kann ich dazu sagen, das Celvin zu Grad ne unterschied hat und das Celvin in der Wissenschaft als das genommen wird was bei Grafikarten den unterschied zeigt. B.z.w daran gemessen wird. Wie und was kann ich wie gesagt nicht sagen.
 
Beschwer dich bei Gigabyte
Habe schon gelesen, dass Gigabyte gerne mal "Gigaschrott" genannt wird.
ob wir uns über Temperaturen unterhalten, die überhaupt Handlungsbedarf aufweisen?!

Dazu machst Du ja keine Angaben.
Asche auf mein Haupt, diese Angaben habe ich total vergessen, sorry :klatsch:

Bei Wonderlands GPU Max: 68 °C und Hotspot Max: 88 °C

The Quarry GPU Max: 73 °C und Hotspot Max: 89 °C
 
Sollte das Delta zwischen GPU und Hotspot nicht mehr als 15 Grad betragen?
Der Temperaturunterschied zwischen Hotspot und Durchschnitt ist ein grober Daumenwert - ob das jetzt 10 oder 20 oder 15 Kelvin sind ist völlig egal. Nur wenns 30 und mehr werden deutet das auf eine schlechte Verbindung von GPU zu Kühlerboden hin.
Grundsätzlich: So lange die Zahlen alle noch zweistellig sind ists noch nicht irgendwie bedenklich/gefährlich.

Nur so viel kann ich dazu sagen, das Celvin zu Grad ne unterschied hat und das Celvin in der Wissenschaft als das genommen wird was bei Grafikarten den unterschied zeigt. B.z.w daran gemessen wird.
Wissenschaftlich benutzt man grundsätzlich immer die Kelvinskala. Grad Celsius ist nur son Gewohnheitsding für "normale" Leute weil die Zahlen im Alltag kleiner sind und die Referenzpunkte "Wasser gefriert/siedet" für Menschen anschaulich sind.
Bei Temperaturdifferenzen ist es egal ob mans in °C oder in K angibt weil die Inkremente der beiden Zahlen gleich sind ("30K wärmer" ist dasselbe wie "30°C wärmer"). Dass man hier gewöhnlich Kelvin benutzt ist einfach um zu zeigen dass es Differenzen sind da 20K als Absolutwert offensichtlich zu kalt sind. :-D
 
Meine 1080Ti Aorus von Gigabyte hatte einen ausgelesenen Differenzwert in Spielen von meist round about 15-20°C bei max 92°C GPU zu maximal 107°C Hotspot bei 150%PT je nach Auslastung Nutzung. Und das Von 2017 bis Oktober 23" Da ich sie auschließlich mit maximalen PT betrieben habe und sie quasi immer im GPU limit lief! Sie läuft auch jetzt noch! WLP hab ich nie Erneuert!

Ist zwar ne ganz andere Karte aber weil es jetzt in Vouge ist das zu Testen;
Meine neue 7900XTX Asrock Taichi hat bei 110% PT bis zu 75-80°C GPU Temp. Und bis zu 103°C Hotspot.(meist bis 93°C)
Bei Standard Settings 65°C zu max bis 87°C (aber nur mit Ray Tracing kurioserweise) sonst nur bis 80°C
bei 90% Power Target wo ich sie gewöhnlich betreibe sind es max. bis 60°C GPU zu Avg. 75°C Hotspot!

Also ich würd kannst unbeschollten sagen...mach dir kein Kopp, wenn ich so meine 1080Ti Temperaturwerte bedenke!
Alles Software ausgelesene Werte!
 
Zurück