MLCC- versus Polymer-Kondensatoren bei RTX 3080/3090: Asus und Gigabyte äußern sich

Also meine erste Intuition, als ich real bei youtoube das PCB der 3080 sah, war erst " wahnsinn" direkt gefolgt von, dass es irgendwie lieblos, hastig und wohl unter den strengen Auflagen eines zu geringen Budgets gefertigt schien.

Oh wow. Warum bist Du hier und nicht im Engineering Team von NVidia? Oder warum berätst Du denn nicht zumindest die PCGH HW-Redakteure oder Igor? Du hast offenbar mehr Einblick als die alle, dass Du Dir alleine auf Grund des Bildes einer Karte Dir eine solche Aussage zutraust.
 
Zuletzt bearbeitet von einem Moderator:
Also ich würde erstmal mein Rückgaberecht in Anspruch nehmen und mal abwarten was die Zukunft so bringt. Lasse doch nicht meine neue teure Graka mit der Software drosseln.
 
Oh wow. Warum bist Du hier und nicht im Engineering Team von NVidia? Oder warum berätst Du denn nicht zumindest die PCGH HW-Redakteure oder Igor? Du hast offenbar mehr Einblick als die alle, dass Du alleine auf Grund des Bildes einer Karte Dir eine solche Aussage zutraust.
Habe ich mich nicht gleichzeitig genug zusammengefaltet?
Es war meine erste Intuition und weshalb mein Schaffen letztlich nicht beachtet wird, da hab ich nun wirklich keinen Bock mehr drüber zu reden.
Ich habe einen klinischen Blick, nicht für sowas, aber keine Ahnung, ich kann auch Fossilien aus Metern als solche erkennen.

Das hat sicher nicht nur Vorteile, eher gar keine und ich traue mir diese Aussage auch nur zu weil mein Eindruck, der absolut hingegen dessen war, was ich erwartet hatte zu sehen, sich doch irgendwie ein klein wenig bestätigt hat.

Und trotzdem stelle ich noch immer in Frage, genau wie in dem Beitrag den du so obstruktiv mit deinem überflüssigen Sarkasmus zitierst, ob dieser zu werten ist.
Ich beziehe immer die Möglichkeit des Irrens mit ein, auch wenn die Erfahrung mich lehrte, dass ich eher das Gegenteil tun sollte. Mutmaßung und die Reaktion( u. Wirkung) darauf, sind ein Bestandteil der Intuition( zumindest dessen was ich darunter verstehe)und irgendwo wichtig wie nützlich, vor allem wenn man um Erklärungen ringt.
Dazu fällt mir ein Zitat ein das ich irgendwie passend finde.

Hochmut ist die Schwäche der Jugend, Zaghaftigkeit die des Alters und Vorsicht ist die bessere Seite des Mutes. Cicero
 
Zuletzt bearbeitet:
Passt doch alles. Die wichtigen Release Benchmarks wurden mit den hohen Boosts gemacht die jetzt Geschichte sind. Trotzdem werden alle die googeln die Release Tests lesen und glauben sue bekommen eine höhere Leistung. Well played Nvidia, hatte nichts anderes erwartet.
 
Passt doch alles. Die wichtigen Release Benchmarks wurden mit den hohen Boosts gemacht die jetzt Geschichte sind. Trotzdem werden alle die googeln die Release Tests lesen und glauben sue bekommen eine höhere Leistung. Well played Nvidia, hatte nichts anderes erwartet.

Naja, die ersten Benches wurden mit FE Karten gemacht.

Ist eher die Frage weshalb nVidia seinen Boardpartnern an dem Punkt soviel Freiheit gelassen hat.
Wenigstens bei der "1500$" Karte hätte man da Vorgaben machen können.

ABER:

In Romans Test sehe ich allerdings keine gewaltigen Unterschiede, in beiden Fällen dümpelt die Karte im Boost zwischen 1890Mhz und 1935 Mhz. Also bei +30Mhz Baseclock nach dem Umbau, welche im selben Boost münden sehe ich keinen riesigen Vorsprung.


Viel spannender wäre, wie sich die Eigenschaften beim OC mit dem Curve Editor ändern, dort könnte ich mir eher noch Unterschiede vorstellen.
(vor Umbau <-> nach Umbau)
Das ist natürlich am Ende deutlich aufwendiger.

Verlieren diese Kondensator mit sinkender Leistung (UV) an Bedeutung oder sind die Schaltzeiten letztlich wichtiger?
 
Zuletzt bearbeitet:
Passt doch alles. Die wichtigen Release Benchmarks wurden mit den hohen Boosts gemacht die jetzt Geschichte sind. Trotzdem werden alle die googeln die Release Tests lesen und glauben sue bekommen eine höhere Leistung. Well played Nvidia, hatte nichts anderes erwartet.
Junge Junge Junge... bei diesem Text fehlen einem einfach die Worte. Von welcher höheren Leistung sprichst du? Hast du dich erstmal informiert bevor du deine Gedanken hier verewigt hast?
 
Du musst auf den Artikel zum Thread klicken. :D

MfG
Raff
??
Passt doch alles. Die wichtigen Release Benchmarks wurden mit den hohen Boosts gemacht die jetzt Geschichte sind. Trotzdem werden alle die googeln die Release Tests lesen und glauben sue bekommen eine höhere Leistung. Well played Nvidia, hatte nichts anderes erwartet.

Übel, no front. Jetzt denkt jeder die Karte macht 300 Fps in 4k und dann sind es am Ende nur noch 25 fps.
Mieser Trick.
 
Wiedermal typisch Gigabyte, alle anderen entschuldigen sich und geben Lösungswege an. Nur drecks Gigabyte sagt es sind Fakenews, dementiert, die anderen sind schuld und zeigt auch keine Lösungswege auf...
Hab ein X570 Mainboard von denen das grundlos random Bios Resets macht. Wenn man bei denen deswegen ne Anfrage stellt, kommt eine ähnliche arrogante Reaktion zurück.
Daher: Nie wieder Gigabyte!!!
In der Regel ist alles gleichzeitig wahr.
 
Roman "der8auer" Hartung macht ein Video dazu, hier eine Zusammenfassung:

Ich habe hier eine 3090 von Gigabyte und löte mal 2 Poscaps ab und dafür 20 MLCC dran und schau mal was dann passiert.
Test 1: 6 Poscaps. Die Karte lässt sich um 70Mhz von 1755 auf 1825Mhz übertakten, bei 1835Mhz crasht sie.
Test 2: 4 Poscaps. Die Karte crasht nach 30-60 sek bei 1825Mhz.
Test 3: 4 Poscaps + 20 MLCCs die Karte läuft stabil bei 100Mhz auf 1855Mhz. Bei +120Mhz auf 1875Mhz crasht sie.

Fazit: Poscaps mindern die OC Fähigkeit einer Karte und doch wird eine solche als GAMING OC verkauft.
Ab Werk können Karten mit Poscaps und schlechtem Binning auch innerhalb der CUSTOM Spezificationen crashen.

Die Gigabyte 3090 Gaming Oc von Roman hat einen Boost-Takt ab Werk von 1.755Mhz. die 3090 FE hat 1.410 /1695Mhz.
80Mhz mehr für ein Crash ist nicht soo viel.
Vielleicht spielt da ein Treiber nicht ganz mit und boostet die ein wenig höher, ähnliche Fälle gab es mit CPUs und Bios Boost z.b. von Asus.

P.S.
Gigaby will auch eine XTREME Version der 3090 verkaufen....aber bisher steht bei der Core Clock Zahl..TBD ich frage mich ob die schon immer da stand :D
Für 30Mhz mehr auf der GPU ab Werk zahlt man z.b. bei CK 140€ mehr.
Jaein, da steckt noch mehr dahinter, der 8auer kommt zum Schluss dass es drauf ankommt welches Produkt man verkauft und das Poscap per se nicht schlecht sind. Was sie auch nicht sind. MLCC und Poscaps haben unterschiedliche Vorteile und Nachteile. Eins der Nachteile von MLCC ist, dass sie nicht soviel aufnehmen können wie z.B. Poscaps, aber deutlich schneller abgeben können (hohe Frequenzen)...
Poscaps dagegen aber unter starken Wechsellastszenarien nicht mehr hinter her kommen, weil sie diese eben nicht ganz so schnell laden bzw. entladen können.

Im Ampere Fall waren die Schwankungen sehr stark, vermutlich durch ein sehr aggressives Boostverhalten, was nun bei "schlechteren Chips" wie OC wirkte... Der Treiber hat das gefixt, die Taktraten sind nun glatter und der durchschnitts Gametakt nach manchen Berichten sogar besser/höher, dafür der absolute Boostakt um ein paar MHz niedriger. Jetzt muss man aber als Kunde einfach nur noch verstehen, dass man mit einer vollen Poscaps Bestückung wohl eher eine "OC Krücke" hat, was aber dem Stock Betrieb kein bißchen weniger gut macht und bei dem Thema auch immer von der Chipgüte abhängt. -> Chiplotterie.
Sehr warscheinlich muss keiner mit Poscap Vollbestückung nun um die Karte fürchten, wenn er Sie innerhalb der Spezifikation benutzt.
 
@biosat_lost Es kann durchaus sein, das die ersten Karten die du bei Reviewer siehst teils noch per Hand gelötet worden sind. Ob nun Elektronik mit Liebe gemacht ist....allerhöchstens die Founders mit Jensens Liebe....

@FZShooter Alle Firmen machen Abstriche hier und da. Anders kann man kein Geld oder nicht genug verdienen.
Bei meiner Asus Strix z.b. ist ein Lüfter (nach 3 Jahren) kaputtgegangen (habe ihn selber ausgetauscht), bei meine bequiet AIO ist 3 mal die Pumpe platt gegangen (jedes mal komplette AIO gewechselt). Und Razer macht Peripherie-Schrott... Das sind so meine Erfahrungen.
 
Für alle die überlegen ob sie kaufen.
Habe heute glücklicherweise meine Gigabyte 3080 gaming OC bekommen, 10 Minuten warzone, fatal error crash to desktop, neueste treiberversion.

Karte geht zurück, für 830€ darf da nicht einmal irgendwas sein ! Eine Frechheit :)
 
Für alle die überlegen ob sie kaufen.
Habe heute glücklicherweise meine Gigabyte 3080 gaming OC bekommen, 10 Minuten warzone, fatal error crash to desktop, neueste treiberversion.

Karte geht zurück, für 830€ darf da nicht einmal irgendwas sein ! Eine Frechheit :)
hattest du eine Fehlermeldung? Welches Netzteil?

P.s. dass du doch noch zugeschlagen hast, nach dem hier 24.09.:

Eine Frechheit diese Launches seitens Nvidia, ich bin schon so auf AMD gespannt und hoffe auf ein passendes Pendant zur 3080. Dem grünen Verein mag ich nach dieser Kundenverarsche kein Geld mehr in den Rachen werfen.
 
Roman "der8auer" Hartung macht ein Video dazu, hier eine Zusammenfassung:

Ich habe hier eine 3090 von Gigabyte und löte mal 2 Poscaps ab und dafür 20 MLCC dran und schau mal was dann passiert.
Test 1: 6 Poscaps. Die Karte lässt sich um 70Mhz von 1755 auf 1825Mhz übertakten, bei 1835Mhz crasht sie.
Test 2: 4 Poscaps. Die Karte crasht nach 30-60 sek bei 1825Mhz.
Test 3: 4 Poscaps + 20 MLCCs die Karte läuft stabil bei 100Mhz auf 1855Mhz. Bei +120Mhz auf 1875Mhz crasht sie.

Fazit: Poscaps mindern die OC Fähigkeit einer Karte und doch wird eine solche als GAMING OC verkauft.
Ab Werk können Karten mit Poscaps und schlechtem Binning auch innerhalb der CUSTOM Spezificationen crashen.

Die Gigabyte 3090 Gaming Oc von Roman hat einen Boost-Takt ab Werk von 1.755Mhz. die 3090 FE hat 1.410 /1695Mhz.
80Mhz mehr für ein Crash ist nicht soo viel.
Vielleicht spielt da ein Treiber nicht ganz mit und boostet die ein wenig höher, ähnliche Fälle gab es mit CPUs und Bios Boost z.b. von Asus.

P.S.
Gigaby will auch eine XTREME Version der 3090 verkaufen....aber bisher steht bei der Core Clock Zahl..TBD ich frage mich ob die schon immer da stand :D
Für 30Mhz mehr auf der GPU ab Werk zahlt man z.b. bei CK 140€ mehr.


Frage ist das so schwer ein Video wiederzugeben?

Test 1 war eine Stunde OC maximal möglich ohne Änderungen an Hardware!
Das waren zwischen 1890 und 1920 Mhz meist so 1900 Mhz.

Test 2 waren 2 Kondensatoren weniger also einfach Rauslöten, crash was für ein wunder auch.

Test 3 20 MLCCs Karte läuft dann mit 100 Mhz mehr zu Stock also plus 30 Mhz.
Was waren dann die 30 Mhz mehr? Es war exakt der gleiche Takt wie in Test 1!
Weil das Powerlimit auch nicht mehr Takt zu lässt, man bekommt nicht mehr Takt wenn du mehr Einstellst.

Wie kommst du auf solche Zahlen, jeder kann doch den Boost Wert sehen.
Ach du gehst einfach nur davon aus was man Einstellt, auf das muss man echt mal kommen.
Es spielt doch gar keine Rolle was man Einstellt es kommt darauf an was die Karte real für einen Takt hat!
Der Eingestellte Boost Takt ist nicht der Takt der erreicht wird und hat man die GPU Grenze erreicht wird man
sich auf den Kopfstellen können und bekommt nicht ohne mehr TDP mehr Takt.


Was wahrscheinlich passiert ist das einige GPUs ganz einfach keine OC Versionen sein dürfen.
Das die Hersteller nicht genug getest haben, mit den Kondensatoren hat das wenn überhaupt wenig zu tun.

Bei dir frag ich mich ob du überhaupt eine moderne GPU aus der nähe gesehen hast.
Nach den Angaben was du da machst, wie als ob Einstellungen der Takt sind bei GPUs der letzten Jahre.
Man hat da klar gesehen, das es nichts ausmacht. Man tut ja gerade so als ob man riesige OC Unterschiede hätte,
dabei ist dem nicht so. Stock ist da sowieso gar nichts und im OC hat man gesehen das die TDP das limit ist
und selbst unter LN2 Takten die Chips nicht viel höher.

Kann man sich also sparen, den unglaublichen Skandal. Das Hersteller GPUs verwenden die die OC Werte nicht erreichen
das ist das eigentlich Problem. Und das Hersteller sich auch noch hinstellen und so tun als sei ihr Produkt jetzt ganz toll.
Oh schau mal wir haben MLCC ist jetzt ganz toll, kommt zwar genau der gleiche Takt raus aber he wenn es die Umsätze
steigert.
Wir rein zufällig das genommen haben, dann tun wir jetzt so als ob es viel besser ist.
Wie als ob jetzt einer sagen würde ja eigentlich ist es egal, da verwandelt man doch so einen Ball.


Neuer Treiber und schon läuft das ganze,
wie war das gleich wieder bei 2080ti die hat VRAM Probleme. Was war es weniger wie 2% hatten RMA
das waren die Probleme die Wochen lang propagiert wurden.
Neue Nvidia GPU und schon kommen Leute mit Vermutungen, aber das die GPU selbst Probleme hat
also das logische das kann es nicht sein?
Das gab es zwar schon oft in der Vergangenheit das OC Modele Probleme hatten, aber nein da muss
es etwas ganz anderes sein.
 
Mir egal was für Caps, hauptsache kein Capslock. Ich muss sagen, meine 3080 läuft dauerhaft zwischen 1960-2050...eher immer so um 2010. Ich habe keine Abstürze, ich habe auch ein relativ kühles Gehäuse und habe eine Gigabyte Gaming OC. Die Karte rennt wie Sau muss ich sagen. Ich werde wohl einfach Glück haben, aber was auf die Karten eingeprügelt wird ist der Hammer. Ich fahre mit 500Mhz aufm Speicher und 20Mhz (noch Tesphase) aufm Chip. Bisher gibt es keine Probleme.
 
Fakt ist doch, dass alle Hersteller, bis auf Gigabyte auf das Thema eingehen. Hier wird versucht dem Kunden eine OC-Karte unterzujublen, welche es am Ende des Tages vielleicht nicht schafft. Egal ob man sich an die Vorgaben von Nvidia gehalten hat oder nicht.
 
Mir egal was für Caps, hauptsache kein Capslock. Ich muss sagen, meine 3080 läuft dauerhaft zwischen 1960-2050...eher immer so um 2010. Ich habe keine Abstürze, ich habe auch ein relativ kühles Gehäuse und habe eine Gigabyte Gaming OC. Die Karte rennt wie Sau muss ich sagen. Ich werde wohl einfach Glück haben, aber was auf die Karten eingeprügelt wird ist der Hammer. Ich fahre mit 500Mhz aufm Speicher und 20Mhz (noch Tesphase) aufm Chip. Bisher gibt es keine Probleme.
Unterschreibe ich so ???
Fakt ist doch, dass alle Hersteller, bis auf Gigabyte auf das Thema eingehen. Hier wird versucht dem Kunden eine OC-Karte unterzujublen, welche es am Ende des Tages vielleicht nicht schafft. Egal ob man sich an die Vorgaben von Nvidia gehalten hat oder nicht.
Da meine selbst bei 2070Mhz nicht schlapp macht, finde ich die Namensgebung gerechtfertigt.
Außerdem wird sie mit 1800Mhz Core Takt beworben. Und das schafft sie im „Schlaf“
 
Da meine selbst bei 2070Mhz nicht schlapp macht, finde ich die Namensgebung gerechtfertigt.
Außerdem wird sie mit 1800Mhz Core Takt beworben. Und das schafft sie im „Schlaf“

Gut, aber es scheinen ja auch Karten im Markt zu sein, egal von welchem Hersteller, die einfach einen schlechteren Chip haben, welcher dann, bei größerer Verlustrate auch schneller Strom aus den Kondensatoren braucht. Und daher weht ja der Wind.

Schön, dass deine Karte es schafft, aber wenn du jetzt die Kohle ausgegeben hättest und in der Chiplotterie verloren hättest, würdest du dich auch darüber aufregen.

Finde die Reaktion von Gigabyte einfach nicht OK.
 
Zuletzt bearbeitet:
Gut, ab es scheinen ja auch Karten im Markt zu sein, egal von welchem Hersteller, die einfach einen schlechteren Chip haben, welcher dann, bei größerer Verlustrate auch schneller Strom aus den Kondensatoren braucht. Und daher weht ja der Wind.

Schön, dass deine Karte es schafft, aber wenn du jetzt die Kohle ausgegeben hättest und in der Chiplotterie verloren hättest, würdest du dich auch darüber aufregen.

Finde die Reaktion von Gigabyte einfach nicht OK.
Ja das wäre durchaus ärgerlich.
Nur frage ich mich, welche Reaktion den wünschenswert wäre ?

Kommt schickt uns alle eure gekauften Karten und wir löten euch zwei GRuppen von MCLLs drauf ? ?
 
Zurück