• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

MLCC- versus Polymer-Kondensatoren bei RTX 3080/3090: Asus und Gigabyte äußern sich

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu MLCC- versus Polymer-Kondensatoren bei RTX 3080/3090: Asus und Gigabyte äußern sich

Das Thema Kondensatoren bei den jüngst veröffentlichten Nvidia-Grafikkarten Geforce RTX 3080 / RTX 3090 beschäftigt weiter Hersteller, Journalisten und Endkunden. Immer mehr Firmen äußern sich. Nun liegen Stellungnahmen von Asus und Gigabyte vor, bei weiteren Firmen haben wir bereits angefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: MLCC- versus Polymer-Kondensatoren bei RTX 3080/3090: Asus und Gigabyte äußern sich
 

Birdy84

Volt-Modder(in)
Wie kann es bei diesem Thema zu widersprüchlichen Aussagen kommen? Ich vermute mal Gigabyte hat Recht, wenn sie sagen, es liegt nicht nur an der Art Kondensator. Aber ich schätze auch, dass EVGA und Asus recht haben und die MLCCs als besser geeignet ansehen. Das ist ja auch das Ergebnis von Romans Video zu dem Thema. Heißt also letztendlich Gigabyte versucht eine Welle an Rücksendungen entgegenzuwirken.
 

cPT_cAPSLOCK

BIOS-Overclocker(in)
Wie kann es bei diesem Thema zu widersprüchlichen Aussagen kommen? Ich vermute mal Gigabyte hat Recht, wenn sie sagen, es liegt nicht nur an der Art Kondensator. Aber ich schätze auch, dass EVGA und Asus recht haben und die MLCCs als besser geeignet ansehen. Das ist ja auch das Ergebnis von Romans Video zu dem Thema. Heißt also letztendlich Gigabyte versucht eine Welle an Rücksendungen entgegenzuwirken.
Die Wahrheit liegt vermutlich, wie so häufig, irgendwo in der Mitte. Wenn man einfach mal auf mouser.de geht und sich die Preise anschaut, dann liegen MLCCs bei zwischen 0,6 ct und 20€ pro Stück POSCAPs bei zwischen 13,1 und 87 ct pro Stück. Es werden über 2000 Seiten an aktiven und lagernden MLCCs gelistet. Da liegen also gerade bei MLCCs extreme Preisunterschiede dazwischen und die Güteklassen und Anwendungsbereiche unterscheiden sich stark. Engineering ist keine Einbahnstraße. Häufig gibt es viele Möglichkeiten, das Ziel zu erreichen und mit Sicherheit sind die Abstürze bei Nvidia nicht ausschließlich den Kondensatoren geschuldet. Wer hinsichtlich PCB-Design alles richtig macht und die richtigen POSCAPs nimmt (bzw. gut selektierte Chips hat), der kommt damit möglicherweise auch über die Runden, wer weiß. In jedem Fll ist das Thema komplexer als „MLCCs gut, POSCAPs böse“, was man zur Zeit überall liest. Und das lese ich aus dem Gigabyte-Statement auch irgendwo raus.

gRU?; cAPS
 

Arikus

Software-Overclocker(in)
Sehr interessant, Gigabyte hat ja scheinbar mit 6 Polymer Kondensatoren ausgeliefert und dementiert die Probleme.
Während andere Hersteller Probleme festgestellt und sich dann für MLCC entschieden haben.

Wie kann es bei diesem Thema zu widersprüchlichen Aussagen kommen? Ich vermute mal Gigabyte hat Recht, wenn sie sagen, es liegt nicht nur an der Art Kondensator. Aber ich schätze auch, dass EVGA und Asus recht haben und die MLCCs als besser geeignet ansehen. Das ist ja auch das Ergebnis von Romans Video zu dem Thema. Heißt also letztendlich Gigabyte versucht eine Welle an Rücksendungen entgegenzuwirken.

Ich kann einem einzelnen Hersteller, der Probleme hat und sagt, dass es nicht an einem einzelnen Bauteil liegen kann, nicht glauben, wenn andere Hersteller Probleme erkannt und frühzeitig genau dieses Bauteil ausgetauscht haben.
 

Niknukem

Kabelverknoter(in)
Wie kann es bei diesem Thema zu widersprüchlichen Aussagen kommen? Ich vermute mal Gigabyte hat Recht, wenn sie sagen, es liegt nicht nur an der Art Kondensator. Aber ich schätze auch, dass EVGA und Asus recht haben und die MLCCs als besser geeignet ansehen. Das ist ja auch das Ergebnis von Romans Video zu dem Thema. Heißt also letztendlich Gigabyte versucht eine Welle an Rücksendungen entgegenzuwirken.

Wenn ich das noch richtig im Kopf habe hat Igor, dass auch erklärt. Die einen können größere Spitzen besser abfangen und die anderen schnelle kleine Spitzen besser abfangen. Also ist das Referenzdesign von Nvidia mit einer guten Mischung nicht verkehrt.
Da kommt es dann eben auf die Verteilung der Spitzen an und welche Koondensatoren stärker beansprucht oder besser benötigt werden.
Sehr interessant, Gigabyte hat ja scheinbar mit 6 Polymer Kondensatoren ausgeliefert und dementiert die Probleme.
Während andere Hersteller Probleme festgestellt und sich dann für MLCC entschieden haben.



Ich kann einem einzelnen Hersteller, der Probleme hat und sagt, dass es nicht an einem einzelnen Bauteil liegen kann, nicht glauben, wenn andere Hersteller Probleme erkannt und frühzeitig genau dieses Bauteil ausgetauscht haben.

Kann ja schon sein. Am Ende hat ja jeder eine eigene Kommunikation mit dem Kunden. Und so wie das Thema brennt versuchen es die einen So und die anderen So. Man möchte die Kunden beruhigen und dafür sorgen, dass die Karten gekauft werden. Vermutlich wird der eine erklären und der andere haut einfach die MLCC's drauf.
Mal schauen was besser kappt im Aberkauf :D
 

GC-FILTER

PC-Selbstbauer(in)
Also wäre die Essenz bis jetzt, Karten mit 4x POSCAPs und 2x bzw. 20 MLCC-Caps kaufen?

Da ich nicht so viel ausgeben will kommt für mich aktuell eh nur die Asus TUF über den Asus Shop oder die FE aus dem Nvidia Shop in Frage. Wenn ich das richtig sehe sind beide Karten ausreichend ausgerüstet oder? Die TUF hat doch nur MLCC und die FE meine ich 1 oder 2 mit MLCC besetzt oder?
 

Niknukem

Kabelverknoter(in)
Also wäre die Essenz bis jetzt, Karten mit 4x POSCAPs und 2x bzw. 20 MLCC-Caps kaufen?

Da ich nicht so viel ausgeben will kommt für mich aktuell eh nur die Asus TUF über den Asus Shop oder die FE aus dem Nvidia Shop in Frage. Wenn ich das richtig sehe sind beide Karten ausreichend ausgerüstet oder? Die TUF hat doch nur MLCC und die FE meine ich 1 oder 2 mit MLCC besetzt oder?

Ja genau, die FE hat in der Mitte 20 Mlcc und 4 CAPs und die TUF hat nur Mlcc verlötet.
 

FZShooter

Kabelverknoter(in)
Wiedermal typisch Gigabyte, alle anderen entschuldigen sich und geben Lösungswege an. Nur drecks Gigabyte sagt es sind Fakenews, dementiert, die anderen sind schuld und zeigt auch keine Lösungswege auf...
Hab ein X570 Mainboard von denen das grundlos random Bios Resets macht. Wenn man bei denen deswegen ne Anfrage stellt, kommt eine ähnliche arrogante Reaktion zurück.
Daher: Nie wieder Gigabyte!!!
 

Niknukem

Kabelverknoter(in)
Versteh ich nicht ganz. Selbst die FE und Asus TUF sind von dem Problem betroffen. Wobei ist da dann Gigabyte absolut schuldig?
Ich glaube da ist etwas angestaute Wut aus vorherigen Gigabyte Käufen.
Verständlich ist allerdings dass Evga sagt 6 CAPs funktionieren nicht und sie passen das an und Gigabyte sagt, dass ist nicht das Problem und 6 caps passen. Wenn ich das so richtig verstanden habe.
Weiß leider nicht wieviel caps und mlcc gigabyte jetzt wirklich verbaut hat.
Aber Hauptsächlich geht es wohl um die Kommunikationsart von GB.
 
Zuletzt bearbeitet:

CD LABS: Radon Project

Volt-Modder(in)
Ich frage mich ja, ob die aktuellen Diskussionen Panasonic helfen werden, in Zukunft mehr POSCAPs abzusetzen. Immerhin ist der Begriff, samt der Klarstellung, dass POSCAPs auf keiner der betroffenen Grakas sitzen, in aller Munde. (im Sinne des Sprichwortes; natürlich wortwörtlich nicht in aller Munde :D )
 

eXtreme1808

PC-Selbstbauer(in)
Ich habe die Gigabyte RtX 3080 Gaming OC mit den „bösen“ 6 POSCAPs. Hatte weder vor noch nach dem neuen Treiber Crashes.

Hier werden allerdings die stärkeren 470uF POSCAPs Kondensatoren benutzt.

Durch die ganzen Verschwörungstheorien der letzten Tage kann ich jedoch gut nachvollziehen, dass man jetzt lieber mit MCLL bestückte Karten kauft...
 

Lichtspieler2000

Freizeitschrauber(in)
Wiedermal typisch Gigabyte, alle anderen entschuldigen sich und geben Lösungswege an.

Warum sollte sich Gigabyte auch dafür entschuldigen, dass ihre Karte durch die minimal schlechtere Lösung vielleicht ein paar MHz weniger Takt machen? Solange die Karten den versprochenen Boost einhalten, ist weder die eine noch die andere Lösung besser.

Mal davon abgesehen dass die MLCCs anfälliger für hohe Temperaturen sind und man sich daher genaso für die großen Solids entscheiden kann.:fresse:

Hier werden allerdings die stärkeren 470uF POSCAPs Kondensatoren benutzt.

Das interessiert doch keinen.
 

4thVariety

Software-Overclocker(in)
Klartextübersetzungen:

EVGA:
Wir haben doch einfach nur gebaut was uns Nvidia gesagt hat. Dann haben wir es gefixt und die XC3 funktioniert wie sie soll, aber wir sagen nicht ob das so ist wie sich das der Kunde vorstellt. Das darf jeder selber zwischen den Zeilen interpretieren, wenn er sieht dass wir mit anderen Modellen weiter von 5 auf 4 POSCAPS reduzieren.

Gigabyte:
Wir bauen keinen Billigschrott, wir bauen was uns Nvidia sagt. Das liegt bestimmt nicht an den POSCAPS. Unsere POSCAPS sind so hochwertig, die kosten pro Stück das gleiche wie ein MLCCs und wir hoffen, dass niemand bemerkt, dass wir dabei unerwähnt lassen, dass wir ja unterschiedliche Stückzahlen brauchen.

Asus:
Wir schauen da schon noch mal drüber was uns da Nvidia schickt. Btw, fixed vor Erstauslieferung.


Für eine Firma gibt es jetzt den Daumen hoch und bei den anderen wäre schweigen Gold gewesen. Ach was sag ich, Schweigen wäre rtx-golD ultra gamIng V2 OC ftw gewesen.
 

theGucky

Komplett-PC-Käufer(in)
Roman "der8auer" Hartung macht ein Video dazu, hier eine Zusammenfassung:

Ich habe hier eine 3090 von Gigabyte und löte mal 2 Poscaps ab und dafür 20 MLCC dran und schau mal was dann passiert.
Test 1: 6 Poscaps. Die Karte lässt sich um 70Mhz von 1755 auf 1825Mhz übertakten, bei 1835Mhz crasht sie.
Test 2: 4 Poscaps. Die Karte crasht nach 30-60 sek bei 1825Mhz.
Test 3: 4 Poscaps + 20 MLCCs die Karte läuft stabil bei 100Mhz auf 1855Mhz. Bei +120Mhz auf 1875Mhz crasht sie.

Fazit: Poscaps mindern die OC Fähigkeit einer Karte und doch wird eine solche als GAMING OC verkauft.
Ab Werk können Karten mit Poscaps und schlechtem Binning auch innerhalb der CUSTOM Spezificationen crashen.

Die Gigabyte 3090 Gaming Oc von Roman hat einen Boost-Takt ab Werk von 1.755Mhz. die 3090 FE hat 1.410 /1695Mhz.
80Mhz mehr für ein Crash ist nicht soo viel.
Vielleicht spielt da ein Treiber nicht ganz mit und boostet die ein wenig höher, ähnliche Fälle gab es mit CPUs und Bios Boost z.b. von Asus.

P.S.
Gigaby will auch eine XTREME Version der 3090 verkaufen....aber bisher steht bei der Core Clock Zahl..TBD ich frage mich ob die schon immer da stand :D
Für 30Mhz mehr auf der GPU ab Werk zahlt man z.b. bei CK 140€ mehr.
 
Zuletzt bearbeitet:

sunburst1988

Software-Overclocker(in)
P.S.
Gigaby will auch eine XTREME Version der 3090 verkaufen....aber bisher steht bei der Core Clock Zahl..TBD ich frage mich ob die schon immer da stand :D
Für 30Mhz mehr auf der GPU ab Werk zahlt man z.b. bei CK 140€ mehr.

Als jemand der diese Karte Seit WOCHEN im Auge hat kann ich dir sagen: Ja, das stand da schon immer :D

Wenn ich so höre, was GB da veranstaltet wirde es dann aber wohl doch die Strix oder evtl AMP Extreme werden.
Funky OLED-Display hin oder her.

Edit: Zumal man, um die Bestückung zu checken, bei der Aorus die Backplate abbauen müsste.
 

biosat_lost

Komplett-PC-Aufrüster(in)
Roman "der8auer" Hartung macht ein Video dazu, hier eine Zusammenfassung:

Ich habe hier eine 3090 von Gigabyte und löte mal 2 Poscaps ab und dafür 20 MLCC dran und schau mal was dann passiert.
Test 1: 6 Poscaps. Die Karte lässt sich um 70Mhz von 1755 auf 1855Mhz übertakten, bei 1865Mhz crasht sie.
Test 2: 4 Poscaps. Die Karte crasht nach 30-60 sek bei 1855Mhz.
Test 3: 4 Poscaps + 20 MLCCs die Karte läuft stabil bei 100Mhz auf 1885Mhz. Bei +120Mhz auf 1905Mhz crasht sie.

Fazit: Poscaps mindern die OC Fähigkeit einer Karte und doch wird eine solche als GAMING OC verkauft.
Ab Werk können Karten mit Poscaps und schlechtem Binning auch innerhalb der CUSTOM Spezificationen crashen.

Die Gigabyte 3090 Gaming Oc von Roman hat einen Boost-Takt ab Werk von 1.755Mhz. die 3090 FE hat 1.410 /1695Mhz.
80Mhz mehr für ein Crash ist nicht soo viel.
Vielleicht spielt da ein Treiber nicht ganz mit und boostet die ein wenig höher, ähnliche Fälle gab es mit CPUs und Bios Boost z.b. von Asus.

P.S.
Gigaby will auch eine XTREME Version der 3090 verkaufen....aber bisher steht bei der Core Clock Zahl..TBD ich frage mich ob die schon immer da stand :D
Tja es ist halt eine Konstruktionsschwäche die so stark auftritt, wie die Summe der Beschaffenheit eines jeden Bauteils+ die Verarbeitung durch die Roboter und Menschen, der asic Compute der GPU... wohl bewirken, dass die Spannung innerhalb der Karte geringfügig höher ist, bzw. eine höhere benötigt wird?

Es gibt sicher welche, die die Kondensatorenlösung, die als am wenigsten geeignet angesehen wird( ich kenne mich leider nicht so mit Kondensatoren aus, würde aber japanische empfehen) verlötet hat und trotzdem ein Oc Verhalten hat, das man als normal empfinden würde.
Ob das Problem weg ist, wenn die Lösung die sich bisher als beste darstellte, verbaut sind, ist die Frage?
Aber so oder so, anzubieten die Karte doch für ein Biosflash einzuschicken, was ja scheinbar der Plan ist, zu diesem Zeitpunkt, damit sie ein 15 % niedrigeres Powertarget bekommt, bzw. alle Karten von vorneweg mit einem solchen zu versehen, kann wohl kaum eine Vorgehensweise sein.
Da war der Speicherskandal um die 970, der ja letztlich nur eine Hysterie war, irgendwie gar nichts gegen.

Denn diese Karte hat definitiv eine Konstruktionsschwäche die wahrscheinlich an dieser, ich nenne es mal " Bypasstelle" kompensiert wird oder nicht, was dann den Absturz zur Folge hat. Oder dies ist die Konstruktionsschwäche, was natürlich der bessere Fall wäre, die halt je nachdem zum Tragen kommt. So oder so man sollte das seitens der Boardhrsteller an mehreren Stellen kompensieren und dem vorbeugen.

Also meine erste Intuition, als ich real bei youtoube das PCB der 3080 sah, war erst " wahnsinn" direkt gefolgt von, dass es irgendwie lieblos, hastig und wohl unter den strengen Auflagen eines zu geringen Budgets gefertigt schien.
So geil das Teil auch war, die Phasenwandler waren ungewöhnlich schief und krumm, es war nicht die Verarbeitungsqualität die ich dachte zu kennen.
Ich dachte sofort danach, dass das sicher Quatsch sei, ich den Anblick neuester PCB´s wohl nicht gewohnt bin momentan.
Aber meine erste intuition war immer meine wertigste Wahrnehmung, ob das jetzt so ist mit der Verarbeitung oder nicht?!
 
Zuletzt bearbeitet:

Grestorn

BIOS-Overclocker(in)
Also meine erste Intuition, als ich real bei youtoube das PCB der 3080 sah, war erst " wahnsinn" direkt gefolgt von, dass es irgendwie lieblos, hastig und wohl unter den strengen Auflagen eines zu geringen Budgets gefertigt schien.

Oh wow. Warum bist Du hier und nicht im Engineering Team von NVidia? Oder warum berätst Du denn nicht zumindest die PCGH HW-Redakteure oder Igor? Du hast offenbar mehr Einblick als die alle, dass Du Dir alleine auf Grund des Bildes einer Karte Dir eine solche Aussage zutraust.
 
Zuletzt bearbeitet:

Roterfred

Freizeitschrauber(in)
Also ich würde erstmal mein Rückgaberecht in Anspruch nehmen und mal abwarten was die Zukunft so bringt. Lasse doch nicht meine neue teure Graka mit der Software drosseln.
 

biosat_lost

Komplett-PC-Aufrüster(in)
Oh wow. Warum bist Du hier und nicht im Engineering Team von NVidia? Oder warum berätst Du denn nicht zumindest die PCGH HW-Redakteure oder Igor? Du hast offenbar mehr Einblick als die alle, dass Du alleine auf Grund des Bildes einer Karte Dir eine solche Aussage zutraust.
Habe ich mich nicht gleichzeitig genug zusammengefaltet?
Es war meine erste Intuition und weshalb mein Schaffen letztlich nicht beachtet wird, da hab ich nun wirklich keinen Bock mehr drüber zu reden.
Ich habe einen klinischen Blick, nicht für sowas, aber keine Ahnung, ich kann auch Fossilien aus Metern als solche erkennen.

Das hat sicher nicht nur Vorteile, eher gar keine und ich traue mir diese Aussage auch nur zu weil mein Eindruck, der absolut hingegen dessen war, was ich erwartet hatte zu sehen, sich doch irgendwie ein klein wenig bestätigt hat.

Und trotzdem stelle ich noch immer in Frage, genau wie in dem Beitrag den du so obstruktiv mit deinem überflüssigen Sarkasmus zitierst, ob dieser zu werten ist.
Ich beziehe immer die Möglichkeit des Irrens mit ein, auch wenn die Erfahrung mich lehrte, dass ich eher das Gegenteil tun sollte. Mutmaßung und die Reaktion( u. Wirkung) darauf, sind ein Bestandteil der Intuition( zumindest dessen was ich darunter verstehe)und irgendwo wichtig wie nützlich, vor allem wenn man um Erklärungen ringt.
Dazu fällt mir ein Zitat ein das ich irgendwie passend finde.

Hochmut ist die Schwäche der Jugend, Zaghaftigkeit die des Alters und Vorsicht ist die bessere Seite des Mutes. Cicero
 
Zuletzt bearbeitet:

RedVapor

Freizeitschrauber(in)
Passt doch alles. Die wichtigen Release Benchmarks wurden mit den hohen Boosts gemacht die jetzt Geschichte sind. Trotzdem werden alle die googeln die Release Tests lesen und glauben sue bekommen eine höhere Leistung. Well played Nvidia, hatte nichts anderes erwartet.
 

-Shorty-

Volt-Modder(in)
Passt doch alles. Die wichtigen Release Benchmarks wurden mit den hohen Boosts gemacht die jetzt Geschichte sind. Trotzdem werden alle die googeln die Release Tests lesen und glauben sue bekommen eine höhere Leistung. Well played Nvidia, hatte nichts anderes erwartet.

Naja, die ersten Benches wurden mit FE Karten gemacht.

Ist eher die Frage weshalb nVidia seinen Boardpartnern an dem Punkt soviel Freiheit gelassen hat.
Wenigstens bei der "1500$" Karte hätte man da Vorgaben machen können.

ABER:

In Romans Test sehe ich allerdings keine gewaltigen Unterschiede, in beiden Fällen dümpelt die Karte im Boost zwischen 1890Mhz und 1935 Mhz. Also bei +30Mhz Baseclock nach dem Umbau, welche im selben Boost münden sehe ich keinen riesigen Vorsprung.


Viel spannender wäre, wie sich die Eigenschaften beim OC mit dem Curve Editor ändern, dort könnte ich mir eher noch Unterschiede vorstellen.
(vor Umbau <-> nach Umbau)
Das ist natürlich am Ende deutlich aufwendiger.

Verlieren diese Kondensator mit sinkender Leistung (UV) an Bedeutung oder sind die Schaltzeiten letztlich wichtiger?
 
Zuletzt bearbeitet:

SHOKK

Freizeitschrauber(in)
Passt doch alles. Die wichtigen Release Benchmarks wurden mit den hohen Boosts gemacht die jetzt Geschichte sind. Trotzdem werden alle die googeln die Release Tests lesen und glauben sue bekommen eine höhere Leistung. Well played Nvidia, hatte nichts anderes erwartet.
Junge Junge Junge... bei diesem Text fehlen einem einfach die Worte. Von welcher höheren Leistung sprichst du? Hast du dich erstmal informiert bevor du deine Gedanken hier verewigt hast?
 

Niknukem

Kabelverknoter(in)
Du musst auf den Artikel zum Thread klicken. :D

MfG
Raff
😜😂
Passt doch alles. Die wichtigen Release Benchmarks wurden mit den hohen Boosts gemacht die jetzt Geschichte sind. Trotzdem werden alle die googeln die Release Tests lesen und glauben sue bekommen eine höhere Leistung. Well played Nvidia, hatte nichts anderes erwartet.

Übel, no front. Jetzt denkt jeder die Karte macht 300 Fps in 4k und dann sind es am Ende nur noch 25 fps.
Mieser Trick.
 

biosat_lost

Komplett-PC-Aufrüster(in)
Wiedermal typisch Gigabyte, alle anderen entschuldigen sich und geben Lösungswege an. Nur drecks Gigabyte sagt es sind Fakenews, dementiert, die anderen sind schuld und zeigt auch keine Lösungswege auf...
Hab ein X570 Mainboard von denen das grundlos random Bios Resets macht. Wenn man bei denen deswegen ne Anfrage stellt, kommt eine ähnliche arrogante Reaktion zurück.
Daher: Nie wieder Gigabyte!!!
In der Regel ist alles gleichzeitig wahr.
 
M

Metamorph83

Guest
Roman "der8auer" Hartung macht ein Video dazu, hier eine Zusammenfassung:

Ich habe hier eine 3090 von Gigabyte und löte mal 2 Poscaps ab und dafür 20 MLCC dran und schau mal was dann passiert.
Test 1: 6 Poscaps. Die Karte lässt sich um 70Mhz von 1755 auf 1825Mhz übertakten, bei 1835Mhz crasht sie.
Test 2: 4 Poscaps. Die Karte crasht nach 30-60 sek bei 1825Mhz.
Test 3: 4 Poscaps + 20 MLCCs die Karte läuft stabil bei 100Mhz auf 1855Mhz. Bei +120Mhz auf 1875Mhz crasht sie.

Fazit: Poscaps mindern die OC Fähigkeit einer Karte und doch wird eine solche als GAMING OC verkauft.
Ab Werk können Karten mit Poscaps und schlechtem Binning auch innerhalb der CUSTOM Spezificationen crashen.

Die Gigabyte 3090 Gaming Oc von Roman hat einen Boost-Takt ab Werk von 1.755Mhz. die 3090 FE hat 1.410 /1695Mhz.
80Mhz mehr für ein Crash ist nicht soo viel.
Vielleicht spielt da ein Treiber nicht ganz mit und boostet die ein wenig höher, ähnliche Fälle gab es mit CPUs und Bios Boost z.b. von Asus.

P.S.
Gigaby will auch eine XTREME Version der 3090 verkaufen....aber bisher steht bei der Core Clock Zahl..TBD ich frage mich ob die schon immer da stand :D
Für 30Mhz mehr auf der GPU ab Werk zahlt man z.b. bei CK 140€ mehr.
Jaein, da steckt noch mehr dahinter, der 8auer kommt zum Schluss dass es drauf ankommt welches Produkt man verkauft und das Poscap per se nicht schlecht sind. Was sie auch nicht sind. MLCC und Poscaps haben unterschiedliche Vorteile und Nachteile. Eins der Nachteile von MLCC ist, dass sie nicht soviel aufnehmen können wie z.B. Poscaps, aber deutlich schneller abgeben können (hohe Frequenzen)...
Poscaps dagegen aber unter starken Wechsellastszenarien nicht mehr hinter her kommen, weil sie diese eben nicht ganz so schnell laden bzw. entladen können.

Im Ampere Fall waren die Schwankungen sehr stark, vermutlich durch ein sehr aggressives Boostverhalten, was nun bei "schlechteren Chips" wie OC wirkte... Der Treiber hat das gefixt, die Taktraten sind nun glatter und der durchschnitts Gametakt nach manchen Berichten sogar besser/höher, dafür der absolute Boostakt um ein paar MHz niedriger. Jetzt muss man aber als Kunde einfach nur noch verstehen, dass man mit einer vollen Poscaps Bestückung wohl eher eine "OC Krücke" hat, was aber dem Stock Betrieb kein bißchen weniger gut macht und bei dem Thema auch immer von der Chipgüte abhängt. -> Chiplotterie.
Sehr warscheinlich muss keiner mit Poscap Vollbestückung nun um die Karte fürchten, wenn er Sie innerhalb der Spezifikation benutzt.
 

theGucky

Komplett-PC-Käufer(in)
@biosat_lost Es kann durchaus sein, das die ersten Karten die du bei Reviewer siehst teils noch per Hand gelötet worden sind. Ob nun Elektronik mit Liebe gemacht ist....allerhöchstens die Founders mit Jensens Liebe....

@FZShooter Alle Firmen machen Abstriche hier und da. Anders kann man kein Geld oder nicht genug verdienen.
Bei meiner Asus Strix z.b. ist ein Lüfter (nach 3 Jahren) kaputtgegangen (habe ihn selber ausgetauscht), bei meine bequiet AIO ist 3 mal die Pumpe platt gegangen (jedes mal komplette AIO gewechselt). Und Razer macht Peripherie-Schrott... Das sind so meine Erfahrungen.
 

wotti

Kabelverknoter(in)
Für alle die überlegen ob sie kaufen.
Habe heute glücklicherweise meine Gigabyte 3080 gaming OC bekommen, 10 Minuten warzone, fatal error crash to desktop, neueste treiberversion.

Karte geht zurück, für 830€ darf da nicht einmal irgendwas sein ! Eine Frechheit :)
 
M

Metamorph83

Guest
Für alle die überlegen ob sie kaufen.
Habe heute glücklicherweise meine Gigabyte 3080 gaming OC bekommen, 10 Minuten warzone, fatal error crash to desktop, neueste treiberversion.

Karte geht zurück, für 830€ darf da nicht einmal irgendwas sein ! Eine Frechheit :)
hattest du eine Fehlermeldung? Welches Netzteil?

P.s. dass du doch noch zugeschlagen hast, nach dem hier 24.09.:

Eine Frechheit diese Launches seitens Nvidia, ich bin schon so auf AMD gespannt und hoffe auf ein passendes Pendant zur 3080. Dem grünen Verein mag ich nach dieser Kundenverarsche kein Geld mehr in den Rachen werfen.
 

jadiger

Software-Overclocker(in)
Roman "der8auer" Hartung macht ein Video dazu, hier eine Zusammenfassung:

Ich habe hier eine 3090 von Gigabyte und löte mal 2 Poscaps ab und dafür 20 MLCC dran und schau mal was dann passiert.
Test 1: 6 Poscaps. Die Karte lässt sich um 70Mhz von 1755 auf 1825Mhz übertakten, bei 1835Mhz crasht sie.
Test 2: 4 Poscaps. Die Karte crasht nach 30-60 sek bei 1825Mhz.
Test 3: 4 Poscaps + 20 MLCCs die Karte läuft stabil bei 100Mhz auf 1855Mhz. Bei +120Mhz auf 1875Mhz crasht sie.

Fazit: Poscaps mindern die OC Fähigkeit einer Karte und doch wird eine solche als GAMING OC verkauft.
Ab Werk können Karten mit Poscaps und schlechtem Binning auch innerhalb der CUSTOM Spezificationen crashen.

Die Gigabyte 3090 Gaming Oc von Roman hat einen Boost-Takt ab Werk von 1.755Mhz. die 3090 FE hat 1.410 /1695Mhz.
80Mhz mehr für ein Crash ist nicht soo viel.
Vielleicht spielt da ein Treiber nicht ganz mit und boostet die ein wenig höher, ähnliche Fälle gab es mit CPUs und Bios Boost z.b. von Asus.

P.S.
Gigaby will auch eine XTREME Version der 3090 verkaufen....aber bisher steht bei der Core Clock Zahl..TBD ich frage mich ob die schon immer da stand :D
Für 30Mhz mehr auf der GPU ab Werk zahlt man z.b. bei CK 140€ mehr.


Frage ist das so schwer ein Video wiederzugeben?

Test 1 war eine Stunde OC maximal möglich ohne Änderungen an Hardware!
Das waren zwischen 1890 und 1920 Mhz meist so 1900 Mhz.

Test 2 waren 2 Kondensatoren weniger also einfach Rauslöten, crash was für ein wunder auch.

Test 3 20 MLCCs Karte läuft dann mit 100 Mhz mehr zu Stock also plus 30 Mhz.
Was waren dann die 30 Mhz mehr? Es war exakt der gleiche Takt wie in Test 1!
Weil das Powerlimit auch nicht mehr Takt zu lässt, man bekommt nicht mehr Takt wenn du mehr Einstellst.

Wie kommst du auf solche Zahlen, jeder kann doch den Boost Wert sehen.
Ach du gehst einfach nur davon aus was man Einstellt, auf das muss man echt mal kommen.
Es spielt doch gar keine Rolle was man Einstellt es kommt darauf an was die Karte real für einen Takt hat!
Der Eingestellte Boost Takt ist nicht der Takt der erreicht wird und hat man die GPU Grenze erreicht wird man
sich auf den Kopfstellen können und bekommt nicht ohne mehr TDP mehr Takt.


Was wahrscheinlich passiert ist das einige GPUs ganz einfach keine OC Versionen sein dürfen.
Das die Hersteller nicht genug getest haben, mit den Kondensatoren hat das wenn überhaupt wenig zu tun.

Bei dir frag ich mich ob du überhaupt eine moderne GPU aus der nähe gesehen hast.
Nach den Angaben was du da machst, wie als ob Einstellungen der Takt sind bei GPUs der letzten Jahre.
Man hat da klar gesehen, das es nichts ausmacht. Man tut ja gerade so als ob man riesige OC Unterschiede hätte,
dabei ist dem nicht so. Stock ist da sowieso gar nichts und im OC hat man gesehen das die TDP das limit ist
und selbst unter LN2 Takten die Chips nicht viel höher.

Kann man sich also sparen, den unglaublichen Skandal. Das Hersteller GPUs verwenden die die OC Werte nicht erreichen
das ist das eigentlich Problem. Und das Hersteller sich auch noch hinstellen und so tun als sei ihr Produkt jetzt ganz toll.
Oh schau mal wir haben MLCC ist jetzt ganz toll, kommt zwar genau der gleiche Takt raus aber he wenn es die Umsätze
steigert.
Wir rein zufällig das genommen haben, dann tun wir jetzt so als ob es viel besser ist.
Wie als ob jetzt einer sagen würde ja eigentlich ist es egal, da verwandelt man doch so einen Ball.


Neuer Treiber und schon läuft das ganze,
wie war das gleich wieder bei 2080ti die hat VRAM Probleme. Was war es weniger wie 2% hatten RMA
das waren die Probleme die Wochen lang propagiert wurden.
Neue Nvidia GPU und schon kommen Leute mit Vermutungen, aber das die GPU selbst Probleme hat
also das logische das kann es nicht sein?
Das gab es zwar schon oft in der Vergangenheit das OC Modele Probleme hatten, aber nein da muss
es etwas ganz anderes sein.
 

Crackpipeboy

Freizeitschrauber(in)
Mir egal was für Caps, hauptsache kein Capslock. Ich muss sagen, meine 3080 läuft dauerhaft zwischen 1960-2050...eher immer so um 2010. Ich habe keine Abstürze, ich habe auch ein relativ kühles Gehäuse und habe eine Gigabyte Gaming OC. Die Karte rennt wie Sau muss ich sagen. Ich werde wohl einfach Glück haben, aber was auf die Karten eingeprügelt wird ist der Hammer. Ich fahre mit 500Mhz aufm Speicher und 20Mhz (noch Tesphase) aufm Chip. Bisher gibt es keine Probleme.
 

devilsfun

Schraubenverwechsler(in)
Fakt ist doch, dass alle Hersteller, bis auf Gigabyte auf das Thema eingehen. Hier wird versucht dem Kunden eine OC-Karte unterzujublen, welche es am Ende des Tages vielleicht nicht schafft. Egal ob man sich an die Vorgaben von Nvidia gehalten hat oder nicht.
 

eXtreme1808

PC-Selbstbauer(in)
Mir egal was für Caps, hauptsache kein Capslock. Ich muss sagen, meine 3080 läuft dauerhaft zwischen 1960-2050...eher immer so um 2010. Ich habe keine Abstürze, ich habe auch ein relativ kühles Gehäuse und habe eine Gigabyte Gaming OC. Die Karte rennt wie Sau muss ich sagen. Ich werde wohl einfach Glück haben, aber was auf die Karten eingeprügelt wird ist der Hammer. Ich fahre mit 500Mhz aufm Speicher und 20Mhz (noch Tesphase) aufm Chip. Bisher gibt es keine Probleme.
Unterschreibe ich so 😎👍🏻
Fakt ist doch, dass alle Hersteller, bis auf Gigabyte auf das Thema eingehen. Hier wird versucht dem Kunden eine OC-Karte unterzujublen, welche es am Ende des Tages vielleicht nicht schafft. Egal ob man sich an die Vorgaben von Nvidia gehalten hat oder nicht.
Da meine selbst bei 2070Mhz nicht schlapp macht, finde ich die Namensgebung gerechtfertigt.
Außerdem wird sie mit 1800Mhz Core Takt beworben. Und das schafft sie im „Schlaf“
 

devilsfun

Schraubenverwechsler(in)
Da meine selbst bei 2070Mhz nicht schlapp macht, finde ich die Namensgebung gerechtfertigt.
Außerdem wird sie mit 1800Mhz Core Takt beworben. Und das schafft sie im „Schlaf“

Gut, aber es scheinen ja auch Karten im Markt zu sein, egal von welchem Hersteller, die einfach einen schlechteren Chip haben, welcher dann, bei größerer Verlustrate auch schneller Strom aus den Kondensatoren braucht. Und daher weht ja der Wind.

Schön, dass deine Karte es schafft, aber wenn du jetzt die Kohle ausgegeben hättest und in der Chiplotterie verloren hättest, würdest du dich auch darüber aufregen.

Finde die Reaktion von Gigabyte einfach nicht OK.
 
Zuletzt bearbeitet:

eXtreme1808

PC-Selbstbauer(in)
Gut, ab es scheinen ja auch Karten im Markt zu sein, egal von welchem Hersteller, die einfach einen schlechteren Chip haben, welcher dann, bei größerer Verlustrate auch schneller Strom aus den Kondensatoren braucht. Und daher weht ja der Wind.

Schön, dass deine Karte es schafft, aber wenn du jetzt die Kohle ausgegeben hättest und in der Chiplotterie verloren hättest, würdest du dich auch darüber aufregen.

Finde die Reaktion von Gigabyte einfach nicht OK.
Ja das wäre durchaus ärgerlich.
Nur frage ich mich, welche Reaktion den wünschenswert wäre ?

Kommt schickt uns alle eure gekauften Karten und wir löten euch zwei GRuppen von MCLLs drauf ? 🙈
 
Oben Unten