Hallo zusammen, hier mein System:
+Intel Core i7-10700K + Broken Aco mit zwei ARCTIC Bionix P120 Lüftern
+Nvidia GeForce RTX 3070 von Gigabyte
+Be Quiet! System Power 9 700W
Hatte gestern die neuste Version von Furmark genau 33 Minuten laufen lassen - in QHD und 4xMsaa und Vsync an. Mein Monitor von HP schafft maximal 60Hz. Ich zocke auch immer mit Vsync an.
Durch Vsync an wurde meine Karte auch "nur" zu 72 Prozent ausgelastet und erreichte maximal 74 GPU und 91 Grad HotSpot Temperatur.
Das finde ich so ganz ok - oder?
Meine Frage ist: Wie realistisch ist Furmark überhaupt? Wenn ich immer mit Vsync an zocke, werde ich sicher in CP 2077, Boderlands 3 und Witcher 3 kaum höhere Temperaturen bekommen, oder?
In einigen Games stelle ich auch extra den "Maximalenfps-Wert" geringer ein, als meine GPU schafft. So hätte ich in 4K im neusten Tomb Raider, bei 53 FPS, ungefähr 74 Grad (GPU Temperatur) - bei festen 45 FPS sind es dann nur 67 Grad.
+Intel Core i7-10700K + Broken Aco mit zwei ARCTIC Bionix P120 Lüftern
+Nvidia GeForce RTX 3070 von Gigabyte
+Be Quiet! System Power 9 700W
Hatte gestern die neuste Version von Furmark genau 33 Minuten laufen lassen - in QHD und 4xMsaa und Vsync an. Mein Monitor von HP schafft maximal 60Hz. Ich zocke auch immer mit Vsync an.
Durch Vsync an wurde meine Karte auch "nur" zu 72 Prozent ausgelastet und erreichte maximal 74 GPU und 91 Grad HotSpot Temperatur.
Das finde ich so ganz ok - oder?
Meine Frage ist: Wie realistisch ist Furmark überhaupt? Wenn ich immer mit Vsync an zocke, werde ich sicher in CP 2077, Boderlands 3 und Witcher 3 kaum höhere Temperaturen bekommen, oder?
In einigen Games stelle ich auch extra den "Maximalenfps-Wert" geringer ein, als meine GPU schafft. So hätte ich in 4K im neusten Tomb Raider, bei 53 FPS, ungefähr 74 Grad (GPU Temperatur) - bei festen 45 FPS sind es dann nur 67 Grad.