Geforce RTX 3080 & 3090: Abstürze sollen durch unpassende Kondensatoren ausgelöst werden

Schien Dir aber enorm wichtig zu sein darauf hinzuweisen (gleich zweimal). Deswegen wollte ich Dir netterweise vorweg greifen und klar stellen das ich Dich niemals eingeschränkt habe / hätte wollen.Ich versuche einfach unfassbar nett zu sein und auf die Gefühle meiner Mitmenschen Rücksicht zu nehmen.

Du interpretierst da etwas viel hinein.

Und ja, wirklich unfassbar wie rücksichtsvoll du bist. Ganz toll:ugly:
 
Damit beweist du nur, das der Beitrag den du zitiert hattest, vollkommen richtig liegt.
In Sachen FPS pro Watt ist die 3080 effizienter als alles was es vorher gab, wenn auch manchmal nur um ein paar %.
Und wenn du die aufgedrehten Boardpartnerkarten heranziehen musst, um dein "Argument" zu polstern, dann zeigt das nur, das du unbedingt Recht bekommen willst, aber nicht das du Recht hast.

Ein hoher Strombedarf, macht etwas noch lange nicht ineffizient, denn wichtig ist nicht was es verbraucht, sondern was es dafür leistet und in der Hinsicht ist die 3080 eben besser als alles andere.
Effizienz bedeutet halt nicht besonders sparsam, sondern beschreibt den Wirkungsgrad.

Meine GTX 1080 Aorus Rev 2 nimmt ne Boardpower von bis zu 250W (Chip TDP 180W, aber da kommen bis zu 210W rum), nach deiner "Argumentation" wäre die damit effizienter, was sie aber eben NICHT ist, da sie, für den Verbrauch, eine Leistung abliefert, welche kaum 40% der 3080 erreicht oder anders ausgedrückt:
Die 1080 nimmt 70W weniger (-22%) Leistet aber auch weniger (-60%)
Dazu kommt dann eben noch, das diese Karte nichtmal RT Cores und Tensor Cores hat und somit RTX und DLSS ebenfalls nicht gehen, was wieder der 3080 in die Karten spielt, genauso wie der geringere und langsamere VRAM der 1080 der 3080 wieder einen Vorteil verschafft.

Ergo: die 3080 is im Vergleich dazu ein Effizienz und Featuremonster.

Das wird zwar bei den Turing Karten hoch zur 2080Ti immer weniger, ist aber dennoch vorhanden.

Das ist doch einfach nur Lachhaft, ja nimm die ganzen werte um dein "Argument" zu polstern. Durch Leute wie du können die Hersteller machen was sie wollen. Werfen ein Stück Scheiße auf die Straße und die Scheiße wird gekauft als wäre es ein Goldenes Eigenschaftsmonster.
 
Seite 6 und nur einmal It just works gelesen :D
Jetzt zieh ich mir Mal die YT Armee rein (endlich Zeit dazu) und bin gespannt wann die ganzen neuen BIOS/Treiber Fixe kommen, dann ist das Thema wahrscheinlich auch wieder durch. Der durchschnittliche Sohnemann, der sich von Papa die 3080 zu Weihnachten für seinen i5 7400 Rechner schenken lässt, wird von diesen wilden Momenten eher nicht tangiert.
 
Seite 6 und nur einmal It just works gelesen :D
Jetzt zieh ich mir Mal die YT Armee rein (endlich Zeit dazu) und bin gespannt wann die ganzen neuen BIOS/Treiber Fixe kommen, dann ist das Thema wahrscheinlich auch wieder durch. Der durchschnittliche Sohnemann, der sich von Papa die 3080 zu Weihnachten für seinen i5 7400 Rechner schenken lässt, wird von diesen wilden Momenten eher nicht tangiert.
Liegt wohl daran das kaum einer sone Karte hat :D
 
...und dass die Leute, bei denen alles funktioniert, sich deutlich weniger melden als jene, bei denen es nicht klappt. Ist doch völlig normal, von schlecht laufenden Dingen hört man relativ öfter als von gut laufenden.
 
Man ließt immer mal wieder dass die Asus TUFs ja auch crashen sollen...trotz MLCC Vollausbau. Hat da jemand iwelche guten Quellen die das belegen? Demnach würden die MLCCs die Probleme auch nicht beheben?

Aktuell habe ich das gefunden:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Und das ist der Grund warum man bei brandneuen Produkten erstmal Tests abwarten und nicht wie bescheuert Hals über Kopf sofort kaufen sollte. Ist bei Autos genauso, die ersten Modelle haben immer Kinderkrankheiten welche mit der Zeit erkannt und beseitigt werden.
Warum sollte man die Karte JETZT Sofort brauchen und nicht ein paar Wochen später? Als obs Games gäbe die das jetzt dringend benötigen...
Geduld wird belohnt, Ungeduld bestraft.
Eben! Ich warte grundsätzlich mit dem Kauf neuer Hardware immer ein paar Wochen ab.
Vorbestellen usw tu ich grundsätzlich nicht. Auch keine Spiele.
 
Man ließt immer mal wieder dass die Asus TUFs ja auch crashen sollen...trotz MLCC Vollausbau. Hat da jemand iwelche guten Quellen die das belegen? Demnach würden die MLCCs die Probleme auch nicht beheben?

Ich hab bisher auch nix gefunden, was valide wäre. Bin aber froh das es nur bei oc der Fall ist, freu mich trotzdem auf die Karte!

Ich denke bei dem Thema wird heißer gekocht als es nötig wäre. Nach aktuellen Stand der Dinge, tippe ich auf ein Caps/Treiber/Firmware Combo. CTD werden bei den letzten Treiberversion immer wieder berichtet, dazu noch ein möglicher buggy Boost 3.0 der sich wie oc verhält und in instabile Bereiche des Chips springt, die dann zum Teil durch die verwendeten Caps nicht mehr gehandelt werden können.

Und dann kommt noch der User ins Spiel, der u.U. nen 50€ Netzteil nutzt...
 
Zuletzt bearbeitet von einem Moderator:
Ich nehme mal an, diese Gewissheit beziehst du von einer alten Frau mit Krähe auf der Schulter, die das im Kaffeesatz gelesen hat?
Alle Anderen ohne Wissen von höheren Mächten warten einfach entspannt ab und entscheiden dann, welchem Konzern sie ihre nächste Graka abkaufen. Manchmal isses so einfach.
Da ich ein wirklich guten 21/9 Gsync Monitor habe stell sich nicht die Frage ob ich AMD kaufe.

Wer sich mit den bis Rohdaten der neuen AMD Gpus beschäftig stellt fest das die das es eher 3070 bzw. über 2080TI wird.
Die 3080 hat einen guten Leistungssprung gemacht. Das einzige was fehlte ist mehr Vram.

Quelle:
RTX 3080 29.8 TFLOPs 32Bit
RX 6900 XT (Navi 21) 22.5 TFLOPs 32Bit
 
Zuletzt bearbeitet:
Da ich ein wirklich guten 21/9 Gsync Monitor habe stell sich nicht die Frage ob ich AMD kaufe.

Wer sich mit den bis Rohdaten der neuen AMD Gpus beschäftig stellt fest das die das es eher 3070 bzw. über 2080TI wird.
Die 3080 hat einen guten Leistungssprung gemacht. Das einzige was fehlte ist mehr Vram.

Quelle:
RTX 3080 29.8 TFLOPs 32Bit
RX 6900 XT (Navi 21) 22.5 TFLOPs 32Bit
Sind doch heute viele Monitore auf Freesync und Gsync kompatibel.......
 
Wer sich mit den bis Rohdaten der neuen AMD Gpus beschäftig stellt fest das die das es eher 3070 bzw. über 2080TI wird.
Die 3080 hat einen guten Leistungssprung gemacht. Das einzige was fehlte ist mehr Vram.

RTX 3080 29.8 TFLOPs 32Bit
RX 6900 XT (Navi 21) 22.5 TFLOPs 32Bit
War es sonst nicht immer so das AMD von der reinen Rechenleistung der Karten besser war, aber in Spielen schlechter?
Naja, selbst wenn AMD "nur" die RTX 3070 schlägt finde ich das nicht schlimm.
Wenn die Karten effizient sind und mehr VRam haben, finde ich die attraktiver.
 
Ich denke bei dem Thema wird heißer gekocht als es nötig wäre.
Ja vor allem die (anglosachsischen) YT Kanäle stürzen sich wie die Geier drauf, dann führt das auch zu unnötigen Stilblüten.
Auf der anderen Seite führt in den USA jeder falsch angegebene Millimeter zu einer Klage, die haben ein anderes Verständnis für Produkte, das Ding wird so verkauft, das kostet Geld, das muss so funktionieren wie angegeben.
 
War es sonst nicht immer so das AMD von der reinen Rechenleistung der Karten besser war, aber in Spielen schlechter?
Naja, selbst wenn AMD "nur" die RTX 3070 schlägt finde ich das nicht schlimm.
Wenn die Karten effizient sind und mehr VRam haben, finde ich die attraktiver.

Nein war es nicht. AMD und nVidia hatten bezogen auf die Compute-Leistung die letzten Jahre exakt den gleichen theoretischen Durchsatz bezogen auf SP und Takt. Vega hatte lediglich das architektonische Problem, dass es in der Rasterizer-Leistung nicht mit seinen eigenen TFlops mithalten konnte und daher selbst mit 60 CUs und hohem Takt nicht gegen eine RTX 2080 mit nur 46 SMs und weniger Takt mithalten konnte. Mit Navi 10 hat AMD dieses Missverhältnis korrigiert.
Zumindest sieht es aktuell so aus, als wenn AMD tatsächlich konkurrenzfähig sein wird dieses Jahr im High End. Zu beachten ist jedoch, dass diese RDNA2 voll ausgefahren auch deutlich über 300 W TBP aufweisen wird und aktuell ist noch schwer einzuschätzen ob die vermeintlichen Taktangaben plausibel sind. Bei den bspw. für Navi21 angegebenen Werten von 2050 - 2200 MHz handelt es sich einerseits um einen Bereich und zudem könnte es sich dabei um absolute Peak-Werte handeln. Hier wird man abwarten müssen womit die Karten am Ende tatsächlich im Gaming gemittelt laufen. Es bleibt auf jeden Fall spannend; ich freue mich schon auf den November.
Ja vor allem die (anglosachsischen) YT Kanäle stürzen sich wie die Geier drauf, dann führt das auch zu unnötigen Stilblüten.

Ist das nicht immer so? Schlechte Nachrichten verkaufen sich besser und je schlechter desto besser. Youtube & Co haben da die Bild schon längst überholt.
Darüber hinaus wird der Sachverhalt derzeit wohl keine Basis für eine Sammelklage in den USA darstellen können.
Wenn es eine Mischung aus Caps/Treiber/Firmware ist, werden die letzten beiden Punkte schlicht durch Updates behoben werden können und Caps, da der Launch gerade erst erfolgte, scheint weitsichtigere Hersteller eher nicht zu betreffen (so auch nVidia selbst nach aktuellem Stand) und für die betroffenen Custom-Hersteller ist es schlicht ein RMA-Fall. Hier können sie für Ersatz sorgen oder aber den Kauf rückabwickeln.
Beispielsweise EVGA erklärte, dass von ihrem ersten Design mit ausschließlich POSCAPs lediglich ungewollt einige Karten bei Testern gelandet sind, denn sie hatten das Design schon umgestellt auf 4 + 2x10, wie auch auf der FE.

Interessant aber auch wie knapp hier einige kalkulieren und wie sich Hersteller von Fall zu Fall unterscheinden. Die sechs POSCAPs sind zweifelsfrei deutlich günstiger als ein vollständiger Satz MLCCs, jedoch versuchten einige Hersteller das Layout dennoch vollständig über die billigste Variante zu lösen, wohl schlicht weil es auf dem Papier (sprich im Bilanzsheet des Controllers) gut aussah. Beispielsweise ASUS dagegen mit ihrer TUF verwendete an der Stelle gar gar keine POSCAPs und das, obwohl deren TUF eher noch das "Butter&Brot"-Modell ist, denn die STRIX kommt erst noch. Wie RyzA schon erwähnte. Ein paar Tage oder Wochen abwarten kann nie schaden, wenn man nicht Beta-Tester spielen will (egal bei welchem Hersteller). Das gilt mittlerweile für nahezu jedes komplexere Produkt.

@Bluefire: Ergänzung zur TUF. Da derzeit ein Gemisch an Gründen vermutet wird, ist es verfrüht anzunehmen, dass die TUF wegen CAPs ein Problem hat. Hier können auch einfach Softwarebugs die Ursache sein (Treiber und/oder Firmware).
 
Zuletzt bearbeitet:
Da ich ein wirklich guten 21/9 Gsync Monitor habe stell sich nicht die Frage ob ich AMD kaufe.

Wer sich mit den bis Rohdaten der neuen AMD Gpus beschäftig stellt fest das die das es eher 3070 bzw. über 2080TI wird.
Die 3080 hat einen guten Leistungssprung gemacht. Das einzige was fehlte ist mehr Vram.

Quelle:
RTX 3080 29.8 TFLOPs 32Bit
RX 6900 XT (Navi 21) 22.5 TFLOPs 32Bit

Uhuh, Vorsicht mit der Ampere-Architektur. Für Spieleleistung (FP zu INT-Verhältnis) müsste man mit ungefähr 20,8 TFLOP/s für die 3080 rechnen!
Das hat sich inzwischen klar abgezeichnet, dass der Unterschied zwischen reinem Compute und Games mit diesem Faktor ganz gut hinkommt.
 
Uhuh, Vorsicht mit der Ampere-Architektur. Für Spieleleistung (FP zu INT-Verhältnis) müsste man mit ungefähr 20,8 TFLOP/s für die 3080 rechnen!
Das hat sich inzwischen klar abgezeichnet, dass der Unterschied zwischen reinem Compute und Games mit diesem Faktor ganz gut hinkommt.
RTX 30XX Fake SPs und Fake Terraflops,alles nur Marketing. Nach derzeitigen Infos müsste sich Nvidia sehr warm anziehen. Die AMD-Karte benutzt sparsamen GDDR6, den man mit dem Stromschlucker GDDR6X nicht vergleichen kann. Sie wird max bei 300W landen, eher drunter.
It just
doesn't work!
 
@BlubberLord: TFlops kann man nicht unmittelbar auf/über Fps abbilden. Das sollten doch schon die Vega's eindeutig belegt haben. ;-)
In typischen Spieletiteln liegt das INT:FP-Op-Verhältnis bei bestenfalls 1:2, tendenziell jedoch eher deutlicher in Richtung 1:3.
Ampere auf der RTX 3080 hat einen Basisdurchsatz von 14,9 TFlops über den reinen FP32-Block pro CUDA Core. Nimmt man nun das eher zu großzügige 1:2-Op-Verhältnis an, dann kann der kombinierte FP32/INT32-Block nur in 2/3 der Zeit FP32 berechnen (9,9 TFlops). Tendenziell bewegt sich die Op-Verteilung jedoch eher in Richtung 1:3 (11,2 TFlops). Die real in Spielen zur Verfügung stehende, theoretische Peak-TFlops-Leistung liegt also irgendwo zwischen 24,8 - 26,1 TFlops und wird zudem in Abhängigkeit des jeweiligen Titels schwanken, da hier deutliche Unterschiede vorliegen können.

Bei der Betrachtung handelt es sich dennoch weiterhin nur um eine theoretische Betrachtung, die sich nicht direkt auf Fps ummünzen lässt (was für RDNA2 in exakt der gleichen Art und Weise gilt). Beispielsweise BF1 kommt tatsächlich dem 1:2 nahe, während The Witcher 3 gar eher bei einem 1:5-Verhältnis zwischen INT- und FP-Operationen liegt. In Benchmarks sieht man dennoch keine direkt übertragbare äquivalente Leistungssteigerung RTX 3080 vs. 2080 Ti in 4K, PCGH in BF5 +32 %, in TW3 +32 %. Hier hängt es schlicht davon ab, was die Game-Engine sonst noch so alles macht und vor allem wie (PCGH testete leider nur BF5 und nicht BF1. Die Engine wird ähnlich sein, aber schlussendlich stellt sich hier schon die Frage, ob sich diese Frostbite-Version in BF1 nicht stellenweise bereits deutlich anders verhält als in BF5. Bereits eine weitere Unsicherheit, schlussendlich, wie gesagt, alles eher theoretisch ;-)).

Und bei AMD ist seit RDNA zu beachten, dass sie ihre offiziellen TFlops-Angaben auf einen höheren Takt anrechnen, als nVidia. Die RX 5700 XT rechnet gegen ihren offiziellen Boost-Takt von 1.905 MHz, der deutlich näher am Peak-Takt der Karte liegt als nVidia, die für bspw. ihre RTX 2080 nur gegen 1.800 MHz rechnen.
Schlussendlich kann man hier viel hin und her wenden. Am Ende wird man konkrete Tests abwarten müssen. Mit dem was sich bei RDNA2 abzeichnet sieht es zumindest gut aus bzgl. einer echten Konkurrenzsituation im HighEnd. Das 80 CU-Design sollte sich problemlos im Bereich einer RTX 3080 bewegen können. Ebenso klar ist auch, das Ampere für Pro-Workloads zweifelsfrei die bessere Wahl ist, denn an die hohe TFlops-Leistung, die die Architektur maximal bietet, kommt RDNA2 gesichert nicht heran, da sie weiterhin mit nur 2 Flops pro SP pro Takt aufwarten kann.
 
Zuletzt bearbeitet:
Sicher überreizen viele Herstellerdie Hardware mit entsprechenden Folgen wie Hitzeprobleme, Abstürze, Haltbarkeit usw.
Dies ist einfach den maximalen, oft theoretischen Werten geschuldet die beim Käufer die Kaufentscheidung auslösen.
Sehr oft wird ein Laborwert zur Entscheidung herangezogen oder ein minimaler Vorsprung im benchmark. Diese Unterschiede sind teilweise so winzig und nur durch die grafische Darstellung überhöht, daß es Banane ist welche Ware man kauft. Die Firmen möchten natürlich mit 0,3% Vorsprung an der Spitze der Tabelle stehen, dafür wird einiges riskiert.
Nehmen wir Wärmeleitpaste. Da hat jemand eine Temperatur die 20Grad zu hoch liegt und möchte mit der besten Paste dieses Problem lösen. Natürlich unmöglich, die Pasten liegen so dicht beieinander, daß der Unterschied marginal ist. Also besser eine Paste die ein halbes Grad schlechter ist, sich dafürbesser verteilen läßt. Der Effekt könnte größer sein.
Der Drill die Ware, die 2 Tabellenstufen besser ist zu favorisieren sitzt tief. Haben wir lange gelernt. Aber um wieviel ist sie in der Praxis wirklich besser? Oder ist sie tatsächlich sogar schlechter?
Ist ein Geschwindigkeitsvorsprung wirklich das einzige Kriterium? Oder ist einbauen, Treiber und loslegen kein zu unterschätzender Faktor? Werden die zugesagten Werte eingehalten? Wie sauber ist die Software gestrickt? Wie seriös ist die Firma? Wie oft tauchen Probleme auf?
Ein benchmark ist nur 1 Faktor auf den zuviel Wert gelegt wird. Etwas unter der Spitze kann viel besser sein in mancherlei Hinsicht.
 
hier, habter mal was positiveres:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück