NVIDIA Ampere Laberthread

Ey ihr Experten. Gibt es bei den Amperekarten auch bei undervolting (curve editor) diese fiesen Spannungsspitzen? Habe aktuell das Problem das bei RDR2 der PC abstürzt. Also der PC freezed Ton bleibt hängen und brauch nen reset. Ist aber eigenartig. Leistungsverbrauch meiner Karte ist bei 99% Usage bei ca. 250 W. Selbst bei cyberpunk 2077 habe ich knapp 300 W und da passiert das nie....
Was für ein Netzteil verwendest du denn?
Bequiet sp11 Gold 680w
Wir hatten letztens den Fall, dass ein System mit 3090 FE und E11 750W Gold in RDR2 ausgestiegen ist, während ein sehr ähnliches aber mit E11 750W Platin munter weiterlief.
Ja, das war meins.

RTX3090FE, beQuiet Straight Power 750W Gold und bei RDR2 hat permanent das Netzteil versagt. Hört sich recht klassisch an, gerade wenn es ein beQuiet Straight Power Gold ist. Bei mir kam es oftmals direkt zur kalten Abschaltung, aber Freeze wie bei dir konnte auch mal sein.

Kann man alles hier nachlesen. Bei mir half nur der Tausch des Netzteils und seitdem ist mein System auch vollständig geheilt und ich kann sogar, wenn ich wollte, hart übertakten, was vorher undenkbar war. In RDR2 kam ich selbst untervoltet kaum bis ins zweite Level.

Das NT schaltet sich bei gleichmäßiger Last bei 350W-400W, zB in 3DMark, nie ab, aber RDR2 haut es voll weg bei kaum 300W. Das Spiel ist völlig unnormal.

Allerdings sei gesagt, du hast ne RTX3080 und da ist ein 680W Netzteil schon etwas klein.
Nvidia empfiehlt für die RTX3080, wie auch die höheren Modelle, ein 750W Netzteil.

1636842186400.png

Nichtsdestotrotz ziehen die Karten natürlich keine 750W und auch keine 680W. Das Problem ist die beQuiet Straight Power Gold Serie, die bei Ampere-Karten einfach abschalten, wenn eine gewisse Last anliegt. Mir sind solche Fälle bei den beQuiet SP Gold-Netzteilen zu Hauf bekannt, während die Platinum-Netzteile dies nicht zu haben scheinen.

Mir hat der Support nach längerem Hin und Her am Ende ein brandneues Platinum Netzteil zugeschickt, welches laut deren Tests letztendlich hätte funktionieren müssen (und ich glaube das auch). Ich hatte allerdings in der Zwischenzeit bereits auf ein Dark Power 1000W aufgerüstet, welches die Probleme komplett löste.

In jedem Fall wirst du dich von dem Netzteil verabschieden müssen. Das ist nicht nur nominal etwas zu schwach (damit ist beQuiet sowieso aus dem Schneider), sondern auch von der Baureihe (Energieeffizienz-Kategorie "Gold") her, meiner Erfahrung nach, absolut ungeeignet für höherklassigere Nvidia Ampere Karten, weil hier wie gesagt vermehrt von Problemen berichtet wurde, die ich selbst erlebt habe.
 
Zuletzt bearbeitet:
Joar danke für die Einführung. Interessant ist das gestrige Tests bei RDR2 keinen Fehlerfall provozieren ließen. Diese Sachen hängen stark vom abgebildeten content ab. Sowas nervt mich...
Joar ich kann diese Themen erstmal in den Griff kriegen wenn ich das PL auf 200 Watt begrenze. Wenn ich dann Bock habe darf mir mein Weib zum besonderen Anlass mal ne neue PSU Schenken :ugly:
 
Als kleinen Tipp:
Nimm mal dein RAM XMP komplett raus (ja, ich weiß, ist sehr langsam dann). Der beQuiet Support meinte damals, die Probleme mit meinem Gold-Netzteil träten nicht auf, wenn die das XMP rausgenommen hatten (mit deren Riegeln). Deren Erklärung war, dass bei höherer Last die Spannungsversorgung des RAM instabil werden könnte. Also das könnte irgendwie zusammenhängen - war jedenfalls deren Beobachtung. Also mach das mal testweise für ein paar Tage raus und schau ob die Kiste noch abstürzt. Es wäre einen Versuch wert.

Alternativ kannste dir einfach ein Straight Power Platinum mit >800W besorgen oder ein Dark Power oder halt eine andere Marke mit >750W. Dein aktuelles Gold mit 680W taugt nicht für die Grafikkarte.
 
Ja wenn dann wird es sowieso ein 850w seasonic prime. Also gleich was ordentliches. Wobei ich eigentlich nie Probleme hatte mit bequiet. Wie gesagt wenn ich Bock hab dann besorge ich es dann.
 
Mir wurde der PC während dem Timespy-Bench bei sehr starkem OC der 3090 FTW3 Ultra hart abgeschaltet...
NT war ein Seasonic Prime Ultra Titanium 1000W (SSR-1000TR) gerade mal 18 Monate jung

War zu seiner Zeit das beste und teuerste 1000W-NT von Seasonic :schief:
Probleme dieser Serie, dass Schaltung zu schnell auslöst, sind bekannt

Anderes NT (ein Corsair AXi) und gleiche OC-Settings = null Probleme
 
Denk auch son bisschen schon an RTX4000 also Lovelace. Wenn die RTX4090 550W ziehen soll (ja ohne Witz), dann könnten 850W sehr eng werden. Meine nur wegen Zukunftssicherheit. Würde nicht mehr unter 1000W gehen, wenn auch in Zukunft High-End-Grafikkarten angepeilt werden.
Wird es bei OC sehr wahrscheinlich...
Die kurzen, sehr hohen Strompeaks "killen" evtl. einen stabilen Lauf
 
Hi Leutz,

kurze Frage in die Runde.

Gibt es irgendwo jemand der aktuelle Erkenntnisse/neuste Benchmarks von Ampere Karten hat wo geschaut wird, was rBAR on im Vergleich zu rBAR off so bringt?

Stehe nämlich vor der Wahl bei meinem älteren z370 Board noch nen BIOS Update mit nem BETA BIOS durchzuführen, womit rBAR dann möglich wäre.
Ich scheue mich nur das BETA BIOS zu verwenden, da
1) das System 1A läuft
2) in diesem BETA BIOS alle nachfolgenden BIOS Updates inkludiert sind, die ich bisher vermied zu updaten.
--> Zum Teil einige Microcode Updates für die CPU (vermute hier sind die ganzen Microcode updates wegen Spectre/Meltdown dabei.)

Die mit raufzuspielen würde vermutlich die CPU Leistung verringern.

Jemand ne Meinung dazu?
 
Die Whitelist von Nvidia für Games die rBAR-Supporten ist relativ kurz.
Eventuell vergleichst Du die mal mit den Games die Du zockst, und versucht Dir darüber klar zu werden ob Du in diesen Spielen unbedingt 0-5% Mehrleistung brauchst, anstatt nach einer pauschalen Antwort zu suchen, die es leider nicht gibt. Denn die Mehrleistung ist immer noch deutlich von Auflösung und Settings abhängig.
Hier in 4K merke ich praktisch gar nix davon.
Und in Games die Ruckeln, wenn sie nachladen (z.b. die Steam-Version von Forza4), wird einfach nur die Frequenz der Ruckler beschleunigt (dafür wird die Dauer der Ruckel-Orgie kürzer^^). DAS ist was man merkt.

Man kann natürlich (wenn man möchte) auch über den Treiber rBAR-Support für alle Games forcieren.

Wenn Du sowieso im CPU-Limit hängst (da Du ja scheinbar Angst vor einer CPU-Leistungs-Minderung hast, die Dich im GPU-Limit nicht stören würde), bringt es natürlich gar nix.

Also kannst Du die Leiste dann auch noch mal abgleichen mit: Wo hänge ich überhaupt im GPU-Limit.
 
Zuletzt bearbeitet:
Gibt es irgendwo jemand der aktuelle Erkenntnisse/neuste Benchmarks von Ampere Karten hat wo geschaut wird, was rBAR on im Vergleich zu rBAR off so bringt?
Etwa wie bei AMD, aber ganz ehrlich, unabhängig von Low-Res-Benchmarks ist das alles nahezu innerhalb der Messtoleranz. Die paar FPS, wenn es überhaupt welche bringt, merkste im Leben nicht. Also jetzt wirklich. Einfach aktivieren und keinen Gedanken mehr daran verschwenden.
 
ne, dann versenkt er ja CPU-Leistung.
Aber warst Du das nicht @deady1000 oder war es @IICARUS der gerne den Meltdown-Fix für Windows gelinkt hat, damit man keine CPU-Leistung verschenkt, wenn man kein Bock auf Sicherheit hat?
 
Ich zocke aktuell weder im gpu noch im cpu Limit. Aktuell begrenze ich ganz entspannt auf 60fps im wqhd. Das war auch eher gar nicht der Punkt auf den ich ansprechen wollte. Sondern ich war eher auf die Meinungen interessiert ob ein Update sinnvoll/lohnenswert wäre. Mein Standpunkt selber tendiert eher zu Nein.

Das einzigste Game was mich hart getriggert hätte wäre bf2042. Da wäre ich klar im cpu Limit gewesen. Nun ist das game aber in einem ziemlich desaströsen Zustand. Daher kann ich eher behaupten das sich meine geforce eher langweilt.
 
Aber warst Du das nicht @deady1000 oder war es @IICARUS der gerne den Meltdown-Fix für Windows gelinkt hat, damit man keine CPU-Leistung verschenkt, wenn man kein Bock auf Sicherheit hat?
Von mir jedenfalls nicht.

BF2042 läuft auch aus irgendeinem im CPU-Limit. Gab da letztens noch ein Thema mit anderen User die auch davon betroffen sind.
 
ne, dann versenkt er ja CPU-Leistung.
Aber warst Du das nicht @deady1000 oder war es @IICARUS der gerne den Meltdown-Fix für Windows gelinkt hat, damit man keine CPU-Leistung verschenkt, wenn man kein Bock auf Sicherheit hat?
Ich war das wohl. Naja damals war Intel-Bashing noch cool. Letztendlich war es keine große Sache. Man merkts im Endeffekt ohne FPS-Zähler sowieso nicht. Bin da mittlerweile nicht mehr so pingelig seit ich ne CPU + Grafikkarte habe, mit denen man alles aufreißen kann. :ugly:
 
Ich nicht - er... ;)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Hat jemand eine TUF 3080 und kann mir seine Hotspot Temperatur eventuell bei Last nach ca. 5-10 Minuten angeben?

Bei mir liegt die bei hohen 90 bis 100+ und die GPU Temperatur bei ca. 70 Grad. Lüfterkurve ist recht aggressiv eingestellt. Habe das Gefühl als wenn das etwas zu viel ist. Karte ist nicht übertaktet. Es ist beim Spielen, als auch beim Benchmark (Heaven) so. Würde mich über Rückmeldungen freuen.
 
Zurück