Idle-Temperatur kritisch?

Nein, Du verlierst z.b. bei 4-Facher Auflösung (FHD zu UHD) nur etwas mehr als die Hälfte an FPS, weil viele Sachen "gleich" bleiben (z.b. das Geometrie-Setup, da das Auflösungs-Unabhängig ist) und viele Arbeiten vom Frame vorher abhängig sind.
 
Aber wenn ich in doppelt so hoher Auflösung spiele (bzw per Up-/Downsampling), verhält sich dann die Last nicht etwa linear?`Also nicht von Stromverbrauch her oder von den Temperaturen, aber so von den maximal möglichen Frames (solange keine andere Komponente im Limit ist)=

Nein. Weder Stromverbrauch, noch Temperaturen, noch Auslastung noch Frames sind in irgendeiner Weise linear abhängig von der gewählten Auflösung. Die Systematik dahinter ist viel zu komplex als dass es irgendeinen derart simplen Zusammenhang von A = x mal B geben könnte in den genannten übergeordneten Dingen.

Beispiel: Eine GPU muss nicht doppelt so viel rechnen nur weil sie doppelt so viele Pixel darstellen soll. Der berechnete Bildinhalt (welches Dreieck wo ist und welche Textur draufpappt beispielsweise) ist ja unabhängig von der Auflösung der gleiche. Nur weil ein TFT doppelt so viele Pixel hat muss die GPU ja nicht 2x rechnen wo deine Spielfigur grade ihren Kopf im Bild hat (und was von ihm verdeckt wird und wo er welchen Schatten hinwirft und...).

GPUs berechnen nicht einen pixel nach dem anderen - dann wäre das so. Sowas ist beispielsweise bei Raytracing größtenteils der Fall - hier ist dann wirklich doppelte Strahlenzahl = ~ doppelter Arbeitsaufwand.
 
Zuletzt bearbeitet:
Schau, was du mit dem angesprochenen undervolting hinbekommst. Wunder würde ich keine erwarten, aber ein paar Grad sollte es schon bringen... PS: 70°C würde ich im idle auch nicht "wollen", ist aber für Grakas an sich überhaupt kein Thema;)

Gruß
 
Würde da auch mal etwas die Spannung senken und die Lüfterkurve anpassen. Meine 380X Nitro hat auch gerade die Lüfter an, obwohl der PC erst ne halbe Stunde läuft und liegt bei 50-51 °C.
 
Vielleicht sitzt der Kühler eindach nicht richtig? Oder die Wärmeleitpaste ist katastrophal aufgetragen? Wie verhalten sich die Temps/die Karte unter Last?
 
Ist es in dem Fall nicht hilfreich, den zweiten (Hilfs-)Monitor an die CPU statt an die Grafikkarte anzuschließen? Dann hätten beide Grafikkarten nur einen Monitor zu bedienen und wären entsprechend kühl.

(Das funktioniert aber nur, wenn ein Spiel auf nur einem Monitor dargestellt werden muss...)
 
Die Belüftung im Gehäuse wird nicht sonderlich gut sein oder die Kühlrippen der GraKa verdreckt.
Bei 68°C Temperatur ob im Idle oder unter Last sehe ich nichts bedrohliches.

Wenns stört würde ich die Kühlung verbessern,ansonsten einfach Vergessen.

Mich persönlich stört alles ab 60°C bei GPU und CPU.
Weil es sich kühler höher Übertakten lässt,deshalb sind meine Temperaturen deutlich unter 60°C.
Ansonsten ist es was Psychologisches.
 
Grad in nem anderen Thread gelesen wo der auch Probleme mit zwei Monitoren hatte und deswegen hohe Last auf der GPU.

Sind beide Monitore gleich, bzw. werden sie mit der gleichen Bildwiederholfrequenz betrieben? Wenn das unterschiedlich ist, kann es sein dass die Karte da im Idle schon viel zu rechnen hat. In dem Falle einfach mal schaun ob du nich beide auf die selbe Frequenz stellen kannst, z.B. 60Hz und dann schaun was passiert.
 
Das eine ist ein 11 Jahre altes TN-Panel von Samsung, 1920x1200 60 Hz. Daneben steht ein LG-IPS, 2560x1080 75 Hz.

Ich persönlich brauche keine 75 Hz und würde Temperatur und Leistungsaufnahme ohnehin gerne auf 60 Hz drosseln (FreeSync), aber der AMD-Treiber ist so starrköpfig... Ich fand schon den NVIDIA-Treiber nicht toll, aber AMD macht es nicht besser
 
Ist es in dem Fall nicht hilfreich, den zweiten (Hilfs-)Monitor an die CPU statt an die Grafikkarte anzuschließen? Dann hätten beide Grafikkarten nur einen Monitor zu bedienen und wären entsprechend kühl.

Interessant. Da müsste ich aber mit allerlei Adaptern hantieren, denn das Panel ist 11 Jahre alt und hat dementsprechend nur DVI und VGA, das Board HDMI und DP. Was verändert sich denn bei dieser Konstellation? Werden dann Videos im Browser von den iGPU befeuert? Und was ist, wenn ein Teil des Bildes auf dem einen, die andere Hälfte auf dem anderen Monitor ist?
 
Das eine ist ein 11 Jahre altes TN-Panel von Samsung, 1920x1200 60 Hz. Daneben steht ein LG-IPS, 2560x1080 75 Hz.

Verschiedene Auflösungen und verschiedene Wiederholfrequenzen kriegen die meisten Karten nicht so einfach hin, sprich die Karte muss intern einige Kunstgriffe machen um die beiden TFTs zusammen fehlerfrei zu betreiben. Die dazu nötige Rechenleistung und "Organisationsleistung" muss dabei häufig über angehobene Taktraten von GPU und vRAM realisiert werden - das ist der grund, warum deine Karte deutlich mehr Strom verbraucht und heißer wird wenn sie das tun muss.

Du kannst versuchen, den untersten Strpmsparmodus (P-State) über Dritttools zu erzwingen - das kann aber zur Folge haben, dass dein Setup Bildfehler produziert oder gar nicht mehr funktioniert (die Karten machen das ja nicht aus Spaß...).
 
Dann werde ich wohl mal versuchen den zweiten Monitor an die iGPU anzuschließen, dafür hat man sie ja ^^

Was ist besser:
1. HDMI-Kabel kaufen und mit HMDI-DVI-Adapter (hab ich schon hier) betreiben, oder
2. DVI-HDMI-Adapter kaufen und mit bisherigen Kabel benutzen?

Und was passiert, wenn ein Teil eines Bildes auf dem einen Monitor, und ein Teil auf dem anderen dargestellt werden soll? Rein hypothetisch, z.B. bei Spielen im Fenstermodus
 
Temperatur im Idle verbinde ich aber nicht mit hoher GPU Last ?

Die ist nicht besonders hoch - aber es ist mehr Rechenleistung erforderlich als der unterste Stromsparmodus bietet. Und sobald die GPU/vRAM einen Gang hochschaltet auf ein paar Hundert MHz statt keine Ahnung 150 geht die Leistungsaufnahme stark hoch. Zusätzlich ists so, dass der vRAM oftmals keine vielen verschiedenen Taktstufen hat und im Extremfall nur Idle oder Vollgas kann. Wenn Idle nicht reicht und der vRAM voll hochtakten muss sind schnell 30W mehr auf der Uhr. Bei meiner alten HD7970 war das lange Zeit der Fall. Wie eine 580er das handhabt weiß ich nicht, kann man aber auslesen wenns interessiert. Einfach die Taktraten mit GPUZ beobachten was sie im Idle mit einem oder 2 TFTs so machen.
 
Ich habe das mal eben beobachtet. Speicher hängt dauerhaft bei 2000 MHz, GPU meistens 300 MHz, hin und wieder mal etwas höher, aber nie mehr als 330 MHz. Leistungsaufnahme liegt bei 39 Watt
 
Da haste den "vRAM gibt Vollgas" - Fall. ;)
Von den 38W dürfte der vRAM so etwa 30 fressen wenn er durchtaktet um die Monitore zu synchronisieren.
 
Jep, ohne den Samsung liegt der Speicher bei 300 MHz. Und die Leistungsaufnahme bei 34 W. Ist aber trotzdem noch etwas hoch, oder passt das so?

Was würde ich nur ohne dein Wissen tun, Alk ^^
 
Zurück