Geforce RTX 3080 & 3090: Abstürze sollen durch unpassende Kondensatoren ausgelöst werden

Warum nicht gleich vernünftig bestücken....(Ewig wird gemolken):motz:

Weil der typische Käufer lieber 100€ weniger ausgibt. Du darfst nicht vergessen, dass Foren keine Abbildung der Realität sind, d.h. die lustige Idee, dass 10GB irgendwie "knapp" wären, spielt in der Realität keine wirklich große Rolle und daher zahlt Otto Normalverbraucher halt lieber nicht 100€ mehr für 20GB Speicher, die er in der Praxis vermutlich nie benutzen wird.
 
Jeder der jetzt schon 11GB Vram hat wird kaum zu 10GB greifen.
Hinzu kommt das die neuen Konsolengeneration kommt und man jetzt schon munkelt das alles unter 16GB VRam zu wenig sein wird auf dem PC.
Es gibt genung beispiele in der vergangenheit wo die GPUs mit mehr Speicher länger zu benutzen waren als die mit wenig.

Daher warte ich auf mehr GPU Ram.

Für die Probleme mit den Taktraten bzw. den abstürtzen wird es Bios oder Treiberupdates geben.
Auch das ist nix neues....
 
niemand ist gearscht es wird ein neues bios veröffentlich und fertig :
Naja war klar... so boosten die Karten halt nicht mehr in den kritischen Bereich von 2000MHz und höher und fertig. Letztendlich wäre es eh niemandem aufgefallen, wenn man es von Anfang an so gemacht hätte. Ist jetzt nach dem Launch natürlich ein krasser Rohrkrepierer und zieht die Karten und vor allem die Boardpartner ganz schön in den Dreck. Hätte echt nicht sein müssen. Auch die 320W und 350W hätten nicht sein müssen. Die hätten die Karten einfach auf 250W cappen sollen und fertig. Viel bessere Effizienz und keine Boostproblematiken.

Keine Ahnung was die sich alles dabei gedacht haben... wahrscheinlich gar nichts.

Ein Bios der die Taktraten so frisiert das nix mehr passiert. Tolles Update. Dasselbe als wenn ich in einem Sportwagen einen Rasenmähermotor einbaue, und den vollen Preis blättern muß.......
So ein Schwachsinn.
Da oben passiert sowieso nichts mehr.
Der Sweetspot von Ampere liegt bei 1800MHz (+/- 50MHz) und auf 2000MHz will man sowieso nicht, weil das vielleicht 5% mehr FPS gibt, aber 100W mehr Leistungsaufnahme bedeutet. Darüber steigt es dann nochmal exponentiell.
 
Mal eine völlig andere Frage: WOZU braucht ein Spiel auf maximal 4K mehr als 10GB Ram? Doch nicht, weil es grafikmäßig soviel prächtiger ist als andere - nein, sondern weil ein paar dringend nötige Runden Optimierung bei der Grafikengine weggelassen wurden. Meine Güte, was waren das für Zeiten, als um jedes Byte gekämpft wurde.
Es waren die Zeiten, als man sowas hier --> ^^ eine Fledermaus in voller Pracht darstellte. Die Zeiten, in denen man "um jedes Byte" kämpfen kann sind schon lange vorbei, ansonsten wären moderne Spiele einfach nicht umsetzbar. Bei begrenzter Produktionszeit bzw. Budget muss man einen Kompromiss zwischen Umfang und Optimierung treffen. Und da die Rechenleistung deutlich schneller wächst als die verfügbare Manpower, ist es nur logisch immer weniger Zeit in die Optimierung zu stecken.

Liegt auch nicht immer nur an der Optimierung. Es kann schon mal vorkommen, dass man für das letzte Quäntchen Grafikpracht eine ganze Menge Speicher und Rechenleistung investieren muss, siehe Raytracing.
 
Naja war klar... so boosten die Karten halt nicht mehr in den kritischen Bereich von 2000MHz und höher und fertig. Letztendlich wäre es eh niemandem aufgefallen, wenn man es von Anfang an so gemacht hätte. Ist jetzt nach dem Launch natürlich ein krasser Rohrkrepierer und zieht die Karten und vor allem die Boardpartner ganz schön in den Dreck. Hätte echt nicht sein müssen. Auch die 320W und 350W hätten nicht sein müssen. Die hätten die Karten einfach auf 250W cappen sollen und fertig. Viel bessere Effizienz und keine Boostproblematiken.

Keine Ahnung was die sich alles dabei gedacht haben... wahrscheinlich gar nichts.


So ein Schwachsinn.
Na ja. Hat eben alles mit "Geschäft" zu tun. Die Gründe können vielfältig sein. Bis hin zu patentrechtlichen Gründen, Absprachen mit anderen Firmen, Marketing usw. Nicht alles das logisch aussieht ist es auch aus Firmensicht. Es gibt natürlich auch Rohrkrepierer, Fehlentscheidungen und einfach nur Murks. Es darf spekuliert werden.
Aber was hier, in Deutschland, in der Welt gedacht und praktiziert wird kann sehr unterschiedlich sein. Hier ist der Verbrauch bis anscheinend 420W ein Thema. In anderen Bereichen oder Ländern ist das wiederum völlig egal. Wenn der Strom 1/3 kostet oder die Umweltproblematik unterrepräsentiert ist redet wohl kaum einer über Wattzahlen.
Da kann der Rechner auch mit einem Schweißgerät vergleichbar sein.
Es hat sich eben sehr hochgeschaukelt, viele haben mitgespielt und nun die Ernüchterung. Der Hype war einfach überreizt, ob es sich trotzdem noch auszahlt, kann schon sein. Der Kunde ist ein merkwürdiges Tier.
 
Naja war klar... so boosten die Karten halt nicht mehr in den kritischen Bereich von 2000MHz und höher und fertig. Letztendlich wäre es eh niemandem aufgefallen, wenn man es von Anfang an so gemacht hätte. Ist jetzt nach dem Launch natürlich ein krasser Rohrkrepierer und zieht die Karten und vor allem die Boardpartner ganz schön in den Dreck. Hätte echt nicht sein müssen. Auch die 320W und 350W hätten nicht sein müssen. Die hätten die Karten einfach auf 250W cappen sollen und fertig. Viel bessere Effizienz und keine Boostproblematiken.

Keine Ahnung was die sich alles dabei gedacht haben... wahrscheinlich gar nichts.


So ein Schwachsinn.
Da oben passiert sowieso nichts mehr.
Der Sweetspot von Ampere liegt bei 1800MHz (+/- 50MHz) und auf 2000MHz will man sowieso nicht, weil das vielleicht 5% mehr FPS gibt, aber 100W mehr Leistungsaufnahme bedeutet. Darüber steigt es dann nochmal exponentiell.
Ganz erlich?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
ZU GUT. :daumen:

Nvidias Referenzdesign lässt den Boardpartnern die Wahl, ob sie ihre Grafikkarten mit POSCAPs (Conductive Polymer Tantalum Solid Capacitor) oder mit normalen MLCCs (Multi-layer Ceramic Chip Capacitor) bestücken wollen. Erstere sollen nun die Ursache des Problems sein, da sie für sehr schnellen Stromänderungen, die bei höheren Frequenzen vorkommen, schlechter geeignet sind als MLCCs.

Versteh ich ehrlich gesagt nicht so ganz. Das ganze scheint ja bekannt zu sein, wieso nimmt man dann die, die sowas auslösen können. Um 0,01 cent pro Karte sparen?
 
Tja Lederjacke mal ein bißchen daneben gehauen würde ich mal sagen :-)

Die hätten das wohl vorher erst mal selber Testen sollen bevor sie solche Empfehlungen rausgeben.

Aber gut AMD ist sowas mit der 7870 damals ja auch ähnlich gegangen war einer von denen die davon betroffen waren.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ganz erlich?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die Fans sind nicht wegen 15 MHz sauer, sondern wegen des Paperlaunches mit kaum verfügbaren Karten und dann der Probleme mit den Karten, wenn man sie einbaut. Dass die Karte von alleine auf 2040MHz boostet und zum Crash to Desktop führt hat wenig mit dem User zu tun. Nvidia und die Partner haben vorm Launch nicht genug getestet. Sie verdienen jeden Shitstorm in ihrer Richtung.
It just doesn't work!
 
Zuletzt bearbeitet von einem Moderator:
Ganz erlich?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Danke dafür, dem ist absolut nichts hinzuzufügen :lol:
 
nvidia_tot.JPG


Jetzt wird es klar, warum Nvidia so gerusht hat. 22.5 reale TFLOPs gegen fake Ampere 29.8 TFLOPs, 2050 - 2200MHz Takt und 5120 reale Streamprocessoren bei 80 CUs.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die Fans sind nicht wegen 15 MHz sauer, sondern wegen des Paperlaunches mit kaum verfügbaren Karten und dann der Probleme mit den Karten, wenn man sie einbaut. Dass die Karte von alleine auf 2040MHz boostet und zum Crash to Desktop führt hat wenig mit dem User zu tun. Nvidia und die Partner haben vorm Launch nicht genug getestet. Sie verdienen jeden Shitstorm in ihrer Richtung.
It just doesn't work!
Es ist kein Paperlaunch sonst hätten nicht tausende die karten bereits und wir reden hier von high end karten.
 
Zurück