NVIDIA Ampere Laberthread

Es gibt bei 3DMark bzw Time Spy Extreme auch einen Stresstest-Modus, wo er dir in 20 Loops / 10 20 Minunten ununterbrochen Last auf die Karte legt. Am Ende sagt er dir wie stabil die Kiste gelaufen ist und ab 97% Framestabilität gilt der Test als bestanden. Mehr ist natürlich besser.

Ich denke wenn man den Test (ggf mehrfach) macht bekommt man schon gute Anhaltspunkte für die Stabilität der Karte. Ansonsten, klar, Zocken auf extremen Grafikeinstellungen ist natürlich das beste was man machen kann. Aber manchmal will man sich ja auch mal auf's Spiel konzentrieren und hat keine Lust sich eventuell mit einer instabilen Karte rumzuschlagen und eventuell einen Crash zu bekommen.
 
Zuletzt bearbeitet:
Es gibt bei 3DMark bzw Time Spy Extreme auch einen Stresstest-Modus, wo er dir in 20 Loops / 10 Minunten ununterbrochen Last auf die Karte legt. Am Ende sagt er dir wie stabil die Kiste gelaufen ist und ab 97% Framestabilität gilt der Test als bestanden. Mehr ist natürlich besser.

Ich denke wenn man den Test (ggf mehrfach) macht bekommt man schon gute Anhaltspunkte für die Stabilität der Karte. Ansonsten, klar, Zocken auf extremen Grafikeinstellungen ist natürlich das beste was man machen kann. Aber manchmal will man sich ja auch mal auf's Spiel konzentrieren und hat keine Lust sich eventuell mit einer instabilen Karte rumzuschlagen und eventuell einen Crash zu bekommen.
Dieser Test sagt nichts über die "Stabilität" der Karte.

Sogar der normale Bemchmark ist besser geeignet. Ich hatte häufig den Fall das die erste Szene(die auch beim Stress Test im Loop ist) durchgelaufen ist. Und dann die 2 Szene abgeschmiert ist!

Der Test vergleicht die FPS mit jedem run. Und sagt wie gleichmässig deine FPS sind über die Zeit.
Daran kann man merken ob man ihn eine thermische Limitierubg rennt oder so.
Aber das hat nichts mit der stabilität der gpu zu tun.
 
Zum Belastungstest nehme ich Prime95 plus Furmark mit hohen Settings. Wenn das ne Stunde durchläuft ist es ziemlich sicher, dass die gewählten Einstellungen auch funktionieren.
 
Das ist eher ein Benchmark für Netzteil und Kühlung, quasi der übelste Worst-Case. CPU und RAM würde ich aber eher separat testen und nicht alles gleichzeitig. FurMark belastet außerdem kaum den VRAM. Ist eher geeignet, wenn man gerade am Übertakten ist und auf die schnelle gucken will was laufen könnte.
 
Für mich waren die 3dmark Stresstests nicht schlecht, um stabile Settings zu finden. Musste dann einfach die Spannung in den einzelnen Profilen noch ganz wenig anheben, um auch in den Games immer stabil zu sein. Aber da muss jeder seinen eigenen Weg finden. Man kann auch mal etwas einstellen und dann gamen bis es crasht. Dann korrigieren und nochmals probieren, usw. bis es stabil ist. Möglicherweise zwingt einen dann nach Wochen oder Monaten, ein neues Game plötzlich, die Einstellungen wieder anzupassen. Ich hab das mit Cyberpunk erlebt.
 
gibt's eigentlich inzwischen hinweise, warum der idle-verbrauch sich so unterscheidet? oftmals liest man ja "liegt an auflösung und refresh der monitore" oder "war schon bei der 1000er reihe ein problem" usw.
bin noch nicht dahintergekommen, warum meine 3090 im idle bei 35 watt steht. wenn die bildschirme im idle in den standby gehen, droppt es auf 25 watt. warum erreichen wir nicht die 8 watt wie big navi? :D ist der speicher schuld?
 
gibt's eigentlich inzwischen hinweise, warum der idle-verbrauch sich so unterscheidet? oftmals liest man ja "liegt an auflösung und refresh der monitore" oder "war schon bei der 1000er reihe ein problem" usw.
bin noch nicht dahintergekommen, warum meine 3090 im idle bei 35 watt steht. wenn die bildschirme im idle in den standby gehen, droppt es auf 25 watt. warum erreichen wir nicht die 8 watt wie big navi? :D ist der speicher schuld?
Das kann wohl zig Gründe haben....
Einfach pc ausschalten/Energie sparen, wenn nicht gebraucht und meine GPU benötigt kein messbaren Strom mehr xD
 
gibt's eigentlich inzwischen hinweise, warum der idle-verbrauch sich so unterscheidet? oftmals liest man ja "liegt an auflösung und refresh der monitore" oder "war schon bei der 1000er reihe ein problem" usw.
bin noch nicht dahintergekommen, warum meine 3090 im idle bei 35 watt steht. wenn die bildschirme im idle in den standby gehen, droppt es auf 25 watt. warum erreichen wir nicht die 8 watt wie big navi? :D ist der speicher schuld?
Also meine idelt bei 14-15W rum. Monitor läuft auf fix WQHD/144Hz/GSync-AUS.
 
Weil ich bei 144Hz kein störendes Tearing bemerke und somit den Grund nicht sehe weshalb ich es aktivieren sollte und weil ich es teilweise als störend empfinde, wenn die Monitor-Refreshrate zb bei Ladebildschirmen, Fensterwechseln oder anderen Situationen absackt, denn da sehe ich tatsächlich oft das Flimmern in einem bestimmten Hz-Bereich ("G-Sync flicker"). Auch bemerke ich manchmal, dass die Refreshrate ansich einfach unkonstant ist und das hab ich halt bei fix-144Hz überhaupt nicht. Bin da einfach irgendwie sensibel für.

Daher ist das ein Feature, welches ich absolut nicht benötige. Sehe keinen Vorteil bei mir. Ist vielleicht eher für Leute interessant, die oft im Bereich von 35-50 FPS zocken und das G-Sync-Flimmern nicht bemerken. Tearing war vielleicht früher bei 60Hz ein großes Problem, aber bei 144Hz sehe ich davon eigentlich nichts. Daher mache ich das aus. Mein nächster Monitor bräuchte das auch nicht, würde es sowieso abschalten.

Kann meinen Monitor auch auf 165Hz einstellen, aber das habe ich bislang nicht dauerhaft gemacht. Meine alte GTX1080 hatte dabei auf dem Desktop nie komplett runtergetaktet. Die RTX3090 schafft es jetzt allerdings, wie ich gerade sehe. Lasse es jetzt vielleicht mal testweise an, denn sind ja immerhin knapp 15% Steigerung.
 
Zuletzt bearbeitet:
Tach Leute, Asus hat scheinbar heute wieder die Preise für Grafikkarten erhöht. Die 3090 Strix z.B. ist jetzt für 2119,90€ im Asus Shop gelistet.
Hammer. :haha:

Aber ok... ist ja die weiße... guter Deal. :daumen::daumen::daumen:

1612203956619.png


 
Werstehe ich nicht.
Warum ist denn "Die Weiße" auch die teuerste obwohl die Farbe deutlich schlechter thermisch geeignet ist?
tss Boltzmann sollte Asus mal besuchen. ;)
 
Zurück