Neuer Treiber sorgt für weniger Crashes bei RTX 3080

Nochmal:

,

Du kannst mir sicher erklären wie man so testen will....

Und:



Du kannst gerne Igor hier im Forum dazu fragen.

Der einzige der hier schwafelt, bist du. "mimimi du verstehst die Situation nicht". Tjo anscheinend kannst du nur diesen Satz wiederholen, aber keinerlei Erklärung oder Aufklärung liefern. :ka:

Dann kannst du mir erklären, warum EVGA, ASUS, alle einfach, egal wer, es dann released hat. Nicht weil Nvidia die gezwungen hat. Wenn man es nicht testen kann, dann kann man noch nicht verkaufen. Wenn es dann so ist, das Nvidia hier Dreck am stecken hat, weil der Treiber zum Beispiel zu spät zur Verfügung steht, dann wird das auch entsrpechend geregelt. (Finanziell)

Aber ob die Partner, schon veröffentlichen liegt in der Verantwortung der Partner.

GErade das Statement von Gigabyte gelesen und am Ende liegt die Wahrheit überall etwas dazwischen.

Am Ende bleibt, der Treiber funktionierte nicht einwandfrei, mit allen Varianten, die mtiunter auch, durch die BP in den Umlauf gebracht wurden und Nvidia hat hier ein Update gebracht.

Also, immerhin ein Fehler, der durch ein Softwareupdate behoben werden konnte. Wo jetzt die Abstimmung gehakt hat... Wer sich ein Urteil erlauben möchte, bitte ;).

Wenn es nicht an den Kondensatoren liegen sollte, dann war es ja lediglich ein Treiberfehler. Wie er schon bei etlichen Releases vor kam.
 
Zuletzt bearbeitet:
Wenn sich der Boardpartner an die LOM hält, dann kann es nicht Schuld der Boardpartner sein.
Nvidia gibt vor, was mindestens gebraucht wird. Wenn das nicht ausreicht, wessen Schuld ist das? :ka:

Wenn der Boardpartner die LOM unterschreitet, dann kann man ihn dafür hängen, aber nicht dafür, dass er sich nicht dran gehalten hat.
Aber die FW dementsprechend richtig einzustellen ist Sache der BP... Und da liegt scheinbar der Hund begraben. Kondensatoren hin oder her. Wenn man nur "Minimum" verbaut sollte man vielleicht beim Boost nicht so auf die Kacke haun'... Nvidia hätte den Launch der BP einfach einen Monat nach hinten verlegen sollen, dann hätten die das vermutlich auch bemerkt und entsprechend die FW besser eingestellt. Das "Problem" scheint meiner Meinung nach einzig und alleine aufgrund mangelnder Tests entstanden zu sein.

Die non OC Karten Boosten einfach zu hoch und werden instabil... Alles Einstellungssache der FW.
 
Dann kannst du mir erklären, warum EVGA, ASUS, alle einfach, egal wer, es dann released hat. Nicht weil Nvidia die gezwungen hat. Wenn man es nicht testen kann, dann kann man noch nicht verkaufen. Wenn es dann so ist, das Nvidia hier Dreck am stecken hat, weil der Treiber zum Beispiel zu spät zur Verfügung steht, dann wird das auch entsrpechend geregelt. (Finanziell)

Aber ob die Partner, schon veröffentlichen liegt in der Verantwortung der Partner.

Nochmal:
Die Boardpartner schrauben etwas nach Vorgaben von Nvidia zusammen und verlassen sich drauf, dass es funktioniert.
Der elende Treiber kam einfach viel viel zu spät. Das ist alles.

Und mach das mal als Boardpartner, zum Release wenn alle anderen launchen das eigene Portfolio zurückhalten mit dem Hinweis man hätte nicht ausreichend getestet. Nvidia hat die Zeitlinien gesetzt, vollkommen alleine.
Nvidia hat den Treiber sehr spät zur Verfügung gestellt und damit das Testfenster unmöglich gemacht.

Und ob die Boardpartner entschädigt werden oder nicht ist dem Endkunden mit GPU Problem vollkommen egal.

Nvidia hätte den Launch der BP einfach einen Monat nach hinten verlegen sollen, dann hätten die das vermutlich auch bemerkt und entsprechend die FW besser eingestellt.

Wäre eine Option gewesen.
Nur schaut man dann in die Foren: AMD kriegt Haue weil zum RDNA2 Start wohl keine BPs am Start sind :)
Aber du hast hier absolut recht. Den BPs mehr Zeit zum testen geben und man hat dieses Problem und den ganzen Affenzirkus überhaupt nicht.
EVGA behauptet das eine bezüglich der Caps, Gigabyte wieder was anderes, der Kunde ist total verunsichert und seine 700€ GPU wirft lustige Bildchen aus.

Alles vermeidbar gewesen.
 
Das war auch deutlich so zu sehen, scheiss egal ob da ein "Könnte, wäre, hätte" steht.

Das stand nur in der Überschrift hinter dem Wort Aufgedeckt:, im Video selbst mokierte er sich darüber, dass so etwas nur ihm auffalle, und sonst niemandem, da war von der eigentlichen Spekulation gar keine Rede mehr.
Die ganze Welt untersuchte daraufhin die Karten nach den Kondensatoren, was für ein Zirkus.
 
Ist es aber nicht, auch wenn Du das wiederholt behauptest. Laut ersten Tests hat die Performance sogar zugelegt.
Ist es doch, nur solltest Du auch mal lesen was ich schreibe und nicht jedes Mal einfach die Wahrheit ignorieren, nur, weil Sie Dir nicht gefällt, der Boost Takt wurde eingebremst, von der Performance habe ich doch gar nicht gesprochen.

Aber wenn Du es schon ansprichst, nein, nicht bei jedem hat durch die Begrenzung des Boost-Taktes die Performance zugelegt. Es gibt genügend andere User, bei denen ist die Performance geringfügig gesunken, man muss nicht immer nur einen Teil rausziehen und glauben, das ist dann die einzige Wahrheit.
 
Also man kann es echt übertreiben... meine Gaming OC boostet weit über dem, was Gigabyte angeben hat... das die jetzt nur 2025 Mhz - 1950 MHz schafft und nicht mehr, ey ... man kann es auch wirklich übertreiben. der8auer hat es in seinem Video ganz gut auf den Punkt gebracht.

Fazit ist eher: leg dich niemals mit der Schwarmintelligenz des Internets an =)
 
Diese Halbwissen nervt langsam. Da ist nichts billig oder falsch. Jeder hat vor und Nachteile und wird für den passenden Zweck verbaut. Mlcc sind günstiger, aber du brauchst mehr und musst mehr löten. Der CAP ist teurer, aber du hast weniger Arbeit zu löten und benötigst nur einen.

Wenn ich es richtig verstanden habe, sind die MLCCs die teurere Lösung, weil du schlicht mehr brauchst.
 
Ist es doch, nur solltest Du auch mal lesen was ich schreibe und nicht jedes Mal einfach die Wahrheit ignorieren, nur, weil Sie Dir nicht gefällt, der Boost Takt wurde eingebremst, von der Performance habe ich doch gar nicht gesprochen.

Aber wenn Du es schon ansprichst, nein, nicht bei jedem hat durch die Begrenzung des Boost-Taktes die Performance zugelegt. Es gibt genügend andere User, bei denen ist die Performance geringfügig gesunken, man muss nicht immer nur einen Teil rausziehen und glauben, das ist dann die einzige Wahrheit.

Hast du eine RTX 3080/3090 und kannst das in irgend einer weise belegen? Es gibt von usern die eine besitzen genau gegenteilige Berichte:


 
Hast du eine RTX 3080/3090 und kannst das in irgend einer weise belegen?
Aktualisierung: Bei Golem hat man den neuen Treiber direkt auf einer RTX 3080 Founders Edition ausprobiert und festgestellt, dass der maximale Boost um rund 50 MHz verringert wurde. Die Maßnahme dürfte laut Golem der Stabilität zugutekommen
Dagegen meldet PC World, dass der neue Treiber zwar die Stabilität verbessert, das aber wohl auch darauf zurückzuführen ist, dass beispielsweise in Horizon Zero Dawn der Boost-Takt etwas niedriger ist als mit dem Original-Treiber.

Also das Nvidia den Boost-takt eingebremst hat, sollte jedem klar sein!
:hmm:
 
Zuletzt bearbeitet:
Erschreckend wie das die meisten toll finden. Wenn ich so ne Karte hätte wäre die schneller wieder im Karton und auf dem Weg zurück wie man Nvidia rufen könnte.
Jetzt wird dem Kunden über den Treiber minimal Leistung weg genommen damit die 3080er Krücken laufen und alle beglückwünschen Nvidia noch für den tollen Treiber, unfassbar. :wall:
 
Lol, wasn das fuern update, fe crasht nicht, sowohl vor als auch nach neuem treiber :haha::haha::haha:
Generell sieht der Treiber aber gut aus, druecke den 3080 besitzern die Probleme hatten die Daumen das es jetzt laeuft.
 
Erschreckend wie das die meisten toll finden. Wenn ich so ne Karte hätte wäre die schneller wieder im Karton und auf dem Weg zurück wie man Nvidia rufen könnte.
Jetzt wird dem Kunden über den Treiber minimal Leistung weg genommen damit die 3080er Krücken laufen und alle beglückwünschen Nvidia noch für den tollen Treiber, unfassbar. :wall:

Unfassbar ist etwas ganz anderes. Aber hey, wenn Du eine Karte hast, dann schick sie lieber mir, als zurück. Wenn Du sie deswegen so schrecklich findest und eine Herabsetzung des maximalen Boosts, der im Betrieb bestenfalls 0,5 Sekunden lang anliegt, um 2,5% als "Krücke" bezeichnest.

Nvidia sollte sich echt in den Arsch beißen. Wenn sie den Parameter gleich korrekt gesetzt hätten, wäre das keinem irgendwie aufgefallen. Und kein Benchmark hätte andere Ergebnisse gebracht.

Der ganze Aufstand nur deswegen, weil jemand einen Tick zu optimistische Werte in eine Tabelle eingetragen hat, und man wohl hauptsächlich die FEs, aber eben nicht die Karten der Board-Partner getestet hat.

Ja, das ist ein Fehler, ein dummer Fehler, ein vermeidbarer Fehler.... Aber ehrlich, wie das hier hochstilisiert wird, ist schon sehr amüsant.
 
Für betroffene natürlich unschön, aber meist richten sich Karten in dieser Preisklasse an Enthusiasten und die sollten wissen, dass Produkte direkt zu Release von Mängeln betroffen sein können. Rechtfertigt natürlich nichts, ist aber auch nicht das erste Mal...egal ob PC Hardware, Software, oder Konsolen - frühe Revisionen sind selten die vernünftigste Wahl.

Was die Bauteile angeht - man liest überall ständig "kein Wunder, wenn man nur billiges Zeug verbaut" und "Nvidia ist kacke, war doch klar". So einfach ist die Sache aber auch nicht.

Erstmal haben die Nvidia eigenen FE Modelle gar keine Probleme und entsprechend hat Nvidia selbst auch erstmal nichts komplett falsch gemacht. Die Boardpartner hatten freie Wahl welche Teile sie verbauen und wäre das alles so offensichtlich gewesen, wie einige meinen, dann hätten nicht direkt mehrere namhafte Unternehmen auf die CAP Vollbestückung gesetzt...muss ja auch dort alle internen Tests bestanden haben. Wäre es ein no-go gewesen, hätte Nvidia diese Bauweise sicher untersagt, alles andere macht wenig Sinn.

Soweit ich weiß hat einzig ASUS komplett darauf verzichtet und einzig MLCCs verbaut. Ich habe selbst schon eine ASUS 3080 TUF, sowie eine MSi 3080 Gaming Trio verbaut und die ASUS hatte einzig MLCC, während die Trio 5 + 1 hatte. CAP Vollbestückung hatten auch vermehrt die "günstigen" Modelle auf Preisniveau der FE. Hier hat man ganz klar auf das falsche Pferd gesetzt, allerdings kommt es auch auf die Kombination und das Zusammenspiel, sowie die Qualität der Bauteile an und CAP direkt zu verurteilen ist auch falsch. Haben beide Vor- und Nachteile.

Bisher hatten weder die Trio mit ihren 5+1, noch die TUF irgendwelche Probleme in aktuellen Spielen und Benchmarks, Stresstests usw....weder unter 1440p, noch in 4k.

Lustigerweise hat MSi auf der Homepage bereits ein Bild auf 4+2 Bestückung geändert, haha. Wenn man drauf klickt, öffnet sich aber noch das 5+1 :D Die unaufällige Vorschau zeigt aber bereits 4+2 - ich denke ich wollte man auf Nummer sicher gehen und wird zukünftig in 4+2 fertigen.

Alles sehr unschön für Käufer von betroffenen Modellen und sicher auch ein Pluspunkt für AMD...dennoch wird es NVIDIA Fans wenig interessieren und nicht zum Kauf einer AMD bewegen. Ich selbst bin auch kein Fan von AMD Grakas...obwohl ich AMD den Erfolg echt gönne und zumindest deren CPUs inzwischen intel vorziehe :D

Was die Treiber angeht - ich sehe nichts falsches daran den Takt um 50 mhz zu reduzieren, wenn er zur Stäbilität beiträgt und die Performance nicht, oder allenfalls messbar beinträchtigt. Es ist eine schnelle und kostenlose Möglichkeit, die potentielle andere, zukünftige Schritte nicht ausschließt.

Mal abwarten.
 
Unfassbar ist etwas ganz anderes. Aber hey, wenn Du eine Karte hast, dann schick sie lieber mir, als zurück. Wenn Du sie deswegen so schrecklich findest und eine Herabsetzung des maximalen Boosts, der im Betrieb ungefähr 0,5 Sekunden anliegt, um 2,5% als "Krücke" bezeichnest.
Nein, habe leider keine, da ich nach diesem Fiasko mit den Krücken die Karten storniert habe.
Aber wenn Covid hoffentlich bald mal vorbei ist und wieder Messen usw.abgehalten werden dürfen bekomme ich von meinem Kollegen sicher wieder eine spottbillig zugeschustert und dann kann ich das ja mal testen ob die Krücken bis dahin verbessert wurden.
 
Er hat genau bewiesen, dass durch das MLCC Update nur eine Hand voll mehr Takt möglich war und damit die Ursache klar auf die zu hohen Boosttaktraten zurückzuführen ist und nicht auf die Wahl der Kondensatoren.
Und jetzt gabs ein Update das „eine Handvoll weniger Takt“ zulässt. Es ist eben diese Handvoll die es ausmacht. Hab nicht alles im Kopf was Igor geschrieben hat aber zu sagen das ist alles totaler Schwachsinn ist Schwachsinn. Sorry. Der Mann nimmt sich viel Zeit und hat sehr viel mehr Wissen als wir alle hier im Forum. Diese Arbeit so gar nicht wert zu schätzen find ich ein No Go. Man muss nicht alles in den Himmel loben. Nur so gehts halt auch nicht. Dann lieber einfach nichts dazu sagen.
 
Erschreckend wie das die meisten toll finden. Wenn ich so ne Karte hätte wäre die schneller wieder im Karton und auf dem Weg zurück wie man Nvidia rufen könnte.
Jetzt wird dem Kunden über den Treiber minimal Leistung weg genommen damit die 3080er Krücken laufen und alle beglückwünschen Nvidia noch für den tollen Treiber, unfassbar. :wall:
Erschreckend, dass solche Kommentare immer von Leuten kommen, die selbst keine dieser Karten besitzen. Ich bin im oben verlinkten Thread, drüben bei Computerbase, mal so grob die Beiträge überflogen und nahezu jeder Besitzer einer 3080 dort berichtet, dass die Karte a) stabiler läuft und in manchen Fällen sogar b) leicht performanter als vorher. Was genau ist daran jetzt "minimal Leistung weg genommen"?
Das ursprüngliche Problem hätte nicht sein müssen, darüber brauchen wir gar nicht diskutieren. Aber offensichtlich hat sich Nvidia dem angenommen und durch den neuen Treiber soweit behoben. Neben mehr Stabilität berichten jetzt sogar User davon, dass sie ein klein wenig mehr Performance haben. Also, wo ist jetzt das Problem? Die "Krücke" läuft jetzt scheinbar einwandfrei. Da verstehe ich solche Kommentare ehrlich gesagt nicht, auch wenn ich das gern würde. Aber wie Roman bereits in seinem Video angesprochen hat: Sobald irgendwo ein kleines Problem besteht, werden die Mistgabeln rausgeholt.
 
@zotac2012
und jetzt erklärst Du uns mal kurz, was es mit dem maximalen Boost-Takt auf sich hat und welche Bedeutung er hat. Und welche er nicht hat.
(Ich weiß es, ich will es nur von Dir hören!)
Wäre doch reine Zeitverschwendung und Liebesmüh, da Du ja nicht mal verstanden hast, was den Boost-Takt bremsen, absenken, verringern, herunterfahren nach unten korrigieren usw. usw. bedeutet und immer noch behauptest, Nvidia hat den Boost-Takt nicht gesenkt. Und die Performance würde sogar dadurch steigen laut Tests und so ein Bild zeichnest, als wäre das bei allen so.

Die Tests haben zwar eingeräumt das es bei manchen auch zu einer besseren Performance kommen kann, aber längst nicht bei allen. Aber das lässt man dann einfach mal weg, jo man kann es halt so lange drehen und verbiegen, bis es einem passt. Und wer nicht derselben Meinung ist, der hat nur Halbwissen und keine Ahnung. Zum Glück gibt es ja Dich, dann sind wir ja noch nicht ganz verloren!
 
Ist es aber nicht, auch wenn Du das wiederholt behauptest. Laut ersten Tests hat die Performance sogar minimal zugelegt.

Nach der Logik wäre weniger also mehr?
Warum dann nicht gleich 100, oder 200Mhz weniger?
Dann müsste die Karte ja immer schneller werden! ;)

Wenn eine GPU/Grafikkarte mit Werks-Takt, egal ob FE, oder Customs mit "OC" im Namen, bei Reduzierung des Boosts schneller ist, dann stimmt etwas grundlegendes mit dem gesamten (Kühlungs-)Design nicht...bzw. die Leistung ist bereits mehr als ausgereizt, und läuft an der "K-Grenze". ;)
 
Zurück