Amperes Kondensatorproblem... - Das sagen die PCGH-Redakteure dazu

Dass dieser Sturm im Wasserglas mit den angeblich schuldigen Kondensatoren immer noch diskutiert wird, obwohl bekannt ist, dass genauso Karte mit zwei MLCC Gruppen häufiger abeschmiert sind, ist mir ein absolutes Rätsel. Nur ein einziger Redakteur (Thorsten) hat es erkannt, die anderen plappern wieder mal nur nach.
Es ist ja Thorstens Spezialgebiet. Abseits dessen ist es eben wie bereits gesagt ja wirklich so, dass das Ganze nach aktuellem Stand mit Kondensatoren zusammenhängt. Dass ein Zusammenhang besteht, bestreitet ja Thorsten auch nicht, wie man hieran...
Mich würde wirklich interessieren, ab wann Nvidias Firmware überhaupt so aggressive Turbomodi freigeschaltet hat, dass Keramikkondensatoren mit kleinerer Kapazität, aber schnellerer Ladung/Entladung so klar im Vorteil sind.
...auch gut sieht. Seine Devise lautet aber weiterdenken und in dem Punkto sind die Beiträge von Raff & Phil nun auch wirklich nicht schlecht. Die sonstigen sind außerdem auch eher knappe Statements als nachplappern...
 
Dass dieser Sturm im Wasserglas mit den angeblich schuldigen Kondensatoren immer noch diskutiert wird, obwohl bekannt ist, dass genauso Karte mit zwei MLCC Gruppen häufiger abeschmiert sind, ist mir ein absolutes Rätsel. Nur ein einziger Redakteur (Thorsten) hat es erkannt, die anderen plappern wieder mal nur nach.
Es plappert sowieso jeder nur nach.

Ein paar Leute hatten in der ersten Woche hier und da ein paar Instabilitäten, weil die Karten, statt wie beworben auf ~1750MHz auf 2050MHz boosten, aber alle so: "Ampere ist völlig unausgereift - die Hardware ist defekt - Rückrufaktion - bla bla", statt mal kurz ne Sekunde nachzudenken.

Die Karten waren einfach nicht für >2GHz ausgelegt und aus irgendeinem Grund trat das Problem auf, dass einige Karten ab Werk so hoch boosten wollten. Das war ein Fehler - Nvidia hätte so einen Treiber nicht mitliefern dürfen. Der Fehler war der Boostclock und nicht die Hardware bzw die verdammten Kondensatoren. Es ist ziemlich egal was da für Kondensatoren drauf sind.

Es wurde ja bereits getestet:
6x die billigen entfernt --> 60x MLCCs draufgelötet --> bringt ca 30MHz oberhalb von 2GHz bei 370W oder so.

Wow herzlichen Glückwunsch.

Das ist so eine Bullshitdebatte.
Hätte Nvidia die Karten auf 1900MHz(!) gecapped, dann würde heute NIEMAND etwas sagen.
Das wäre immernoch weit oberhalb von 1700MHz Boostclock.
Die Leute würden fröhlich übertakten und selbst merken, dass irgendwo ab 2GHz halt Schluss ist.
Da hätte man Nvidia nicht verantwortlich gemacht.

Stattdessen laufen sie jetzt aber mit ca 1900-1980MHz im Schnitt ab Werk und per Treiber hat man jetzt eben das falsche Limit berichtigt.

Das ist echt Kritik auf übelstem Niveu.

Du kaufst ein Auto, das mit 180km/h beworben wird, stellst aber fest, dass es irgendwie 250km/h fährt und dann beschwerste dich, dass es bei der Höchstgeschwindigkeit anfängt zu klappern. Der Mechaniker macht ein Limit bei 230km/h rein und du beschwerst dich, dass der Wagen jetzt langsamer fährt. Dass die Karre mal mit 180km/h beworben wurde ist dann ja egal. :klatsch:
 
Es plappert sowieso jeder nur nach.

Ein paar Leute hatten in der ersten Woche hier und da ein paar Instabilitäten, weil die Karten, statt wie beworben auf ~1750MHz auf 2050MHz boosten, aber alle so: "Ampere ist völlig unausgereift - die Hardware ist defekt - Rückrufaktion - bla bla", statt mal kurz ne Sekunde nachzudenken.

Die Karten waren einfach nicht für >2GHz ausgelegt und aus irgendeinem Grund trat das Problem auf, dass einige Karten ab Werk so hoch boosten wollten. Das war ein Fehler - Nvidia hätte so einen Treiber nicht mitliefern dürfen. Der Fehler war der Boostclock und nicht die Hardware bzw die verdammten Kondensatoren. Es ist ziemlich egal was da für Kondensatoren drauf sind.

Es wurde ja bereits getestet:
6x die billigen entfernt --> 60x MLCCs draufgelötet --> bringt ca 30MHz oberhalb von 2GHz bei 370W oder so.

Wow herzlichen Glückwunsch.

Das ist so eine Bullshitdebatte.
Hätte Nvidia die Karten auf 1900MHz(!) gecapped, dann würde heute NIEMAND etwas sagen.
Das wäre immernoch weit oberhalb von 1700MHz Boostclock.
Die Leute würden fröhlich übertakten und selbst merken, dass irgendwo ab 2GHz halt Schluss ist.
Da hätte man Nvidia nicht verantwortlich gemacht.

Stattdessen laufen sie jetzt aber mit ca 1900-1980MHz im Schnitt ab Werk und per Treiber hat man jetzt eben das falsche Limit berichtigt.

Das ist echt Kritik auf übelstem Niveu.

Du kaufst ein Auto, das mit 180km/h beworben wird, stellst aber fest, dass es irgendwie 250km/h fährt und dann beschwerste dich, dass es bei der Höchstgeschwindigkeit anfängt zu klappern. Der Mechaniker macht ein Limit bei 230km/h rein und du beschwerst dich, dass der Wagen jetzt langsamer fährt. Dass die Karre mal mit 180km/h beworben wurde ist dann ja egal. :klatsch:
Igor hat es sogar in seinem Video bei ich glaube Minute 16 gesagt. "Mit dem neuen Treiber machen die Kondensatoren nicht mehr wirklich einen Unterschied" aber das wird gekonnt ignoriert. :)
 
Du kaufst ein Auto, das mit 180km/h beworben wird, stellst aber fest, dass es irgendwie 250km/h fährt und dann beschwerste dich, dass es bei der Höchstgeschwindigkeit anfängt zu klappern. Der Mechaniker macht ein Limit bei 230km/h rein und du beschwerst dich, dass der Wagen jetzt langsamer fährt. Dass die Karre mal mit 180km/h beworben wurde ist dann ja egal
ja stimmt ^^
aber für Leute die overclocken wollen (bis in den genannten Grenzbereich), kommt jetzt ebend neben der Silicon-lottery noch ne Kondensator-lottery hinzu ^^ (wobei die Produktionen/Bestückungen ja angeblich angepasst wurden/werden)
soweit ich gelesen habe und nachplappern kann :P :D (btw. manche bekommen für nicht ausreichende Deklarierung von Nachplapperungen den Doktortitel aberkannt ;D) sind die Polymerkondensatoren auch nicht unbedingt billiger, wobei ich mich dabei auch frage, ob es einen großen Kostenunterschied in der Produktion macht, da man für die MLCCs ja 20 Lötpunkte braucht und bei den anderen vermutlich nur 2...

" Zudem bleibt auch noch das Problem der Alterung, denn Kondensatoren verschlechtern über ihre Lebensdauer ihre Eigenschaften. "

Da dürften viele Amperes der "ersten Generation", wenn sie denn 2 Jahre überleben, 2022/23 nur schwer weiterzuverkaufen sein...
das "Problem" bzw. Phänomen der erwähnten Alterung betrifft leider nicht nur die Kondensatoren auf den Ampere-Grafikkarten, sondern "alle", auch bei älteren GPUs und auch andere elektronische Bauteile altern, wie bereits erwähnt Speicher etc.
Pi mal Daumen gilt theoretisch nach Arrenhius-Gleichung, eine (Betriebs-) Temperaturerhöhung um 10 °C halbiert die theoretische Lebensdauer, eine Absenkung um 10 °C verdoppelt sie entsprechend, in Anhängigkeit des Temperatur-Ratings/der Auslegung der Komponente, z. B. 2000h@105°C
gerne verlinke ich dazu beispielhaft, für die Leute die glauben, Einbauzustand=Ausbauzustand der GPU nach Betriebszeit X bei Temperatur Y , den Artikel zur Lebensdauer von Elektrolytkondensatoren in Netzteilen
 
Zuletzt bearbeitet:
Igor hat es sogar in seinem Video bei ich glaube Minute 16 gesagt. "Mit dem neuen Treiber machen die Kondensatoren nicht mehr wirklich einen Unterschied" aber das wird gekonnt ignoriert. :)
Die machen immer noch einen Unterschied, die ganze Spannungsversorgung ist wichtig bei den Karten.
 
Es plappert sowieso jeder nur nach.

Ein paar Leute hatten in der ersten Woche hier und da ein paar Instabilitäten, weil die Karten, statt wie beworben auf ~1750MHz auf 2050MHz boosten, aber alle so: "Ampere ist völlig unausgereift - die Hardware ist defekt - Rückrufaktion - bla bla", statt mal kurz ne Sekunde nachzudenken.

Die Karten waren einfach nicht für >2GHz ausgelegt und aus irgendeinem Grund trat das Problem auf, dass einige Karten ab Werk so hoch boosten wollten. Das war ein Fehler - Nvidia hätte so einen Treiber nicht mitliefern dürfen. Der Fehler war der Boostclock und nicht die Hardware bzw die verdammten Kondensatoren. Es ist ziemlich egal was da für Kondensatoren drauf sind.

Es wurde ja bereits getestet:
6x die billigen entfernt --> 60x MLCCs draufgelötet --> bringt ca 30MHz oberhalb von 2GHz bei 370W oder so.

Wow herzlichen Glückwunsch.

Das ist so eine Bullshitdebatte.
Hätte Nvidia die Karten auf 1900MHz(!) gecapped, dann würde heute NIEMAND etwas sagen.
Das wäre immernoch weit oberhalb von 1700MHz Boostclock.
Die Leute würden fröhlich übertakten und selbst merken, dass irgendwo ab 2GHz halt Schluss ist.
Da hätte man Nvidia nicht verantwortlich gemacht.

Stattdessen laufen sie jetzt aber mit ca 1900-1980MHz im Schnitt ab Werk und per Treiber hat man jetzt eben das falsche Limit berichtigt.

Das ist echt Kritik auf übelstem Niveu.

bester Post den ich jemals hier gelesen habe :)
 
Es geht um die Instabilität der Karten selbst, die einen wieder zurück auf den Desktop befördert.

Die Karten sind doch jetzt stabil, mit dem neuen Treiber !?

edit: btw ist ein Hardwarefehler auszuschließen, wenn unter Windows bestimmte Tests und Taktraten abstürzen, mit dem alten Treiber, aber unter Linux genau das gleiche stabil läuft.

(@ 10:41)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Und mit dem neuen Treiber läuft's ja scheinbar auch mit Windows stabil.

Sie wurden aber so getestet, beworben und verkauft. Von daher sehe ich auch das etwas anders, auch wenn das nicht das große Problem ist.

Ach so ... und wenn eine Karte einmal so getestet wurde, darf man nie wieder etwas ändern ?
Du kaufst also eine Karte im Ursprungszustand und machst nie wieder ein Update, der Grafikkartentreiber ?

Ich gehe jetzt mal nicht davon aus, dass es so ist. Aber dann macht es keinen Sinn, was du da erzählst.
Weil die so getestet wurde, darf man nix ändern und die muss genau so laufen und nicht anders ?

Strange. :crazy:

Das Thema ist nicht erledigt und kann jederzeit wieder hochkochen, wenn Nvidia das mit den Treibern etwas schleifen läßt.

Veränderungen können immer Probleme bringen.

Siehe Windows updates, oder ganz allgemein neue Grafikkartentreiber.
Aber letztere spielst du ja nie auf, da du die Karten nur so betreiben möchtest, wie sie getestet wurden. ;)


btw:

Ich würde mich nicht wundern, wenn es rein gar nichts mit den Caps zu tun hatte, sondern irgendwas nur mit dem Treiber zu tun hatte, oder auch noch ganz andere Probleme vorliegen(längerfristig), wo noch gar keiner was von Berichtet hat.
Bin ja hier nicht der Werbefritze von Nvidia und verteidige auch nix, was kritikwürdig ist, wie z.B. dass sie den Partnern für ihre Custom Designs viel zu wenig Zeit zum Testen gelassen haben.

Aber wer weiß, was noch für Probleme auftauchen, z.B. Temperaturprobleme einzelner Komponenten, Verschleißprobleme usw. , wo bisher noch gar nicht von berichtet wurde, weil's noch gar keiner gemerkt hat.
Es kann ständig was Neues auftauchen. Da kann man dann drüber diskutieren, wenn's(falls überhaupt) so weit ist.

Aber sich über ein Problem aufzuregen, was bereits behoben wurde, durch einen simplen neuen Treiber, finde ich etwas unnütz, wenn man auch mal sieht, was die Karten leisten.

Ich mein ... von der Leistung kann ich mit meiner GTX 1660 Super aktuell nur träumen.
Und selbst dort ist nicht sicher, dass nicht durch irgendwelche Änderungen auf einmal Probleme auftauchen.

Hab aber aktuell im Rahmen der Möglichkeiten trotzdem Spaß mit dem Teil. :)

Zockt mal lieber ne Runde, als auf Biegen und Brechen ein Problem herbei zu diskutieren, wo gar keins mehr ist.

Schönen Sonntag @ all ! :daumen:


edit: Ach ... das Video oben war übrigens schon vom 28.9. (Montag) !
Mittlerweile scheint dieses Problem behoben.


edit2: Wo bleibt der 3080 Strix OC Test ? :D


edit3: Ach ... die 3090 Strix is eine absolute Top Karte, wo teure Komponenten verwendet werden. Es lag also nicht an den Kondensatoren, so wie ich das sehe.
 
Zuletzt bearbeitet:
Die Karten sind doch jetzt stabil, mit dem neuen Treiber !?
So wie es aussieht, ist die Instabilität immer noch drin, sie wird eben nur durch den Treiber behoben, das kann sich aber in Zukunft ändern. Nach dem., was man so weiß, läßt sich das ganze nur mit einem BIOS Update oder neuen Kondensatoren wirklich beheben. Für beides müßte der normale Nutzer seine Karte.


Ach so ... und wenn eine Karte einmal so getestet wurde, darf man nie wieder etwas ändern ?
Du kaufst also eine Karte im Ursprungszustand und machst nie wieder ein Update, der Grafikkartentreiber ?

Es geht hier um die Leistung und bei vielen Dingen auch noch um die Qualität der Komponenten. Da sollte das, was ich kaufe, auch dem entsprechen, was so allgemein in den Tests zu bewundern war. Die Hersteller schicken den Testern dafür ganz gerne Sondermodelle, sogenannte "Golden Samples", die mit der Realität nichts zu tun haben. Der Normalo kauft dann im Laden die deutlich schlechtere Version. Auch eine Taktik ist "Bait and Switch", dabei wird in einer Serie auf minderwertige Komponenten umgestellt. Gerne wird das bei SSDs gemacht, ich darf mich gerade mit einer San Disk Plus 2TB rumärgern, die ohne Warnung, von TLC auf QLC umgestellt wurde, mit verheerenden Ergebnissen. Wenn sich größere Dinge ändern, dann sollte man das auch kenntlich machen, Samsung macht dies zum Beispiel.

Das drosseln durch Software ist neue und sollte aus Prinzip nicht passieren. 1% mag nicht so schlimm sein (was ich auch geschrieben habe), aber wie sieht es mit 3, 5,7, 10, 15 oder 20% aus? Wann ist da die Schmerzgrenze erreicht?

Nur weil du dich verarschen lassen willst, muß das für den Rest nicht zutreffen.


Siehe Windows updates, oder ganz allgemein neue Grafikkartentreiber.
Aber letztere spielst du ja nie auf, da du die Karten nur so betreiben möchtest, wie sie getestet wurden. ;)

Ich kaufe sie mit den entsprechenden Parametern und die sollten dann auch so stimmen. Aber du ziehst das ganze ja gerne ins Lächerliche, laß dich ruhig verarschen, aber erwarte nicht von jedem, dass er das gleiche macht.
 
So wie es aussieht, ist die Instabilität immer noch drin, sie wird eben nur durch den Treiber behoben, das kann sich aber in Zukunft ändern. Nach dem., was man so weiß, läßt sich das ganze nur mit einem BIOS Update oder neuen Kondensatoren wirklich beheben. Für beides müßte der normale Nutzer seine Karte.

Die Instabilitäten wurden durch den Treiber verursacht.
Dieses Taktverhalten war sowieso absolut sinnlos und hat keine Mehrleistung gebracht.
Daher ist auch die "bessere" Spannungsversorgung mancher Karten irrelevant. Nur bei starkem OC wird sich wohl ein Unterschied zeigen, aber das ist nichts Neues und, dass im Einsteigersegement der GPU nicht die beste Spannungsversorgung angeboten wird ist wohl auch klar.
Letztendlich sind sowieso auch Karten mit MLCCs abgestürzt.
 
:nene: Da sag ich jetzt einfach mal nix mehr zu.

Mach dir n schönen Tag ! :)

Irgendwie scheinst du nicht zu verstehen, dass die Treiberlösung nichts permanentes ist und das Problem irgendwann wieder auftauchen kann.

Die Instabilitäten wurden durch den Treiber verursacht.
Dieses Taktverhalten war sowieso absolut sinnlos und hat keine Mehrleistung gebracht.
Daher ist auch die "bessere" Spannungsversorgung mancher Karten irrelevant. Nur bei starkem OC wird sich wohl ein Unterschied zeigen, aber das ist nichts Neues und, dass im Einsteigersegement der GPU nicht die beste Spannungsversorgung angeboten wird ist wohl auch klar.
Letztendlich sind sowieso auch Karten mit MLCCs abgestürzt.

Woher das Problem am Ende kommt ist eigentlich egal. Tatsache ist, dass diese Karten instabil sind und das darf eigentlich nicht sein. Tatsache ist offenbar auch, dass der Treiber das ganze nicht wirklich löst, sondern nur ein Workaround ist.
 
im Einsteigersegement der GPU nicht die beste Spannungsversorgung angeboten wird ist wohl auch klar.
hmm, ich denke grundsätzlich korrekt, aber zum Release hat man ne Trinity und TUF zum selben Preis bekommen und die unterscheiden sich in der Spannungsversorgung schon etwas...
in seinem aktuellen Video bewertet Builzoid die theoretische Qualität der Spannungsversorgung bzw. in Bezug auf der daraus vermuteten Eigenschaften der 3080er Karten in der folgenden Hierarchie (< entspricht schlechter):
Zotac < Palit < Gigabyte < MSI < Nvidia FE < TUF < Strix

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Letztendlich sind sowieso auch Karten mit MLCCs abgestürzt.
tja, das könnte vielleicht ein tatsächliches Kondensatorproblem sein, soweit ich es in den TDSs gesehen habe (sieht man auch in Buildzoids Video beim Digi-key Preisverglichsabschnitt...) haben die meisten Kondensatoren (egal ob POSCAP oder MLCC) ne +/- 20% Toleranz, so dass es im worst case, wenn alles welche mit -20% sind/wären (Montagskondensatoren ^^), vielleicht zu Problemen kommt/kommen kann, naja, nur ne Vermutung...

manchmal schon etwas belustigend wie die Sichtweisen aufeinander prallen, der eine fühlt sich verarscht, da Beta-Test am Endkunden und vermeintlich weniger Leistung als erhofft/gezeigt/vermutet und die andere Sichtweise mit tadaa stehts doch in der Spec, was willst Du überhaupt, (wir könnten sogar noch niedriger gehen :P) ^^

ansonsten wollte ich noch anmerken, ob nun 30 MHz mehr oder weniger, ist für die meisten wahrscheinlich nicht so relevant/ausschlaggebend, aber für Einige bedeutet dies xxx mehr Punkte in irgendnem Benchmark...
manchmal machen schon 10 MHz den Unterschied aus...

der 8auer hat ja auch ein Video gemacht, wo er bei einer Gigabyte einen Teil der Kondensatoren tauscht und was zum Thema sagt...
in dem darauf folgenden Video zu seinem Sockel, macht er auch (indirekt) ordentlich Werbung für PCGH ^^

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

ach Mist, schon wieder "nur" was nachgeplappert bzw. zumindest teilweise per Video vorplappern lassen ;D
 
Zuletzt bearbeitet:
ja stimmt ^^
aber für Leute die overclocken wollen (bis in den genannten Grenzbereich), kommt jetzt ebend neben der Silicon-lottery noch ne Kondensator-lottery hinzu ^^ (wobei die Produktionen/Bestückungen ja angeblich angepasst wurden/werden)
soweit ich gelesen habe und nachplappern kann :P :D (btw. manche bekommen für nicht ausreichende Deklarierung von Nachplapperungen den Doktortitel aberkannt ;D) sind die Polymerkondensatoren auch nicht unbedingt billiger, wobei ich mich dabei auch frage, ob es einen großen Kostenunterschied in der Produktion macht, da man für die MLCCs ja 20 Lötpunkte braucht und bei den anderen vermutlich nur 2...

Lötpunkte und Verlöten sind praktisch gratis, solange nicht der minimale Pitch allgemein schrumpfen muss. Aber in der Produktion werden sämtliche Punkte des ganzen PCBs in einem Siebdruckschritt vorbereitet und anschließend ebenfalls immer für die gesamte Karte bearbeitet. Man könnte auch ein paar tausend MLCCs auf allen noch freien Stellen der Platine verlöten und würde dafür beim Löten keinen Cent mehr bezahlen. Was aber ein kleiner Kostenfaktor ist: Eine Pick & Place Maschiene, die 20 kleine Bauteile in der gleichen Zeit platziert, die eine ältere Maschine für ein großes braucht. Umgelegt auf die Gesamtbestückungszeit für alle Bauteile des PCBs verringert sich der Durchsatz aber nicht extrem, wenn man sich einfach die Zeit für 19 zusätzliche Bauteile nimmt. Interessant wäre tatsächlich eher der Preis für die Kondensatoren in den Abnahmemengen der Hersteller – von den 1.000er Großhandelspreisen einiger europäischer Händler auf die Verträge eines chinesischen Großserienherstellers, der bis zu 60 Stück pro Karte und vermutlich mehrere 100.000 bis Millionen pro Monat verbaut, ist unmöglich.
 
Zuletzt bearbeitet:
werden sämtliche Punkte des ganzen PCBs in einem Siebdruckschritt vorbereitet
achja stimmt, danke, hatte mir mal ein Video aus einer PCB-Fabrik angeschaut, aber offensichtlich den Punkt schonwieder vergessen, da sieht man auch ne "moderne" Bestückungsmaschine

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


ja Kosten sind schwierig abzuschätzen und unmöglich genau zu bestimmen, ohne Insider zu sein...
 
Macht bitte einfach n Punkt hinter dem Thema und n Haken dran:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


PS: Die Glaskugel hat's ganz am Anfang des Threads im Grunde schon richtig gestellt.
Weiß nicht, warum manche immer noch gern weiter darauf herumreiten wollen(in Willi's neuestem Video war das ja wieder ein dolles Thema heute). Vielleicht sucht man ja auch einfach krampfhaft was, was man als Skandälchen hochspielen kann, um Nvidia eins auszuwischen.
Anders kann ich mir das gar nicht mehr erklären.

Oder sind manche einfach immun gegenüber Informationen ? ;)

PS: Nächstes Thema.

edit: Nehmt das Video von heute(MSI Trio) lieber gleich wieder raus. ;)
 
Zuletzt bearbeitet:
hmm, also bisher warst Du mir ja sympathisch, aber irgendwie missfällt es mir, wenn jemand krampfhaft versucht, dass man doch seinem Dogma folgen solle und die Diskussion einstellen soll, weil man selbst der Überzeugung/Meinung ist, dass das Thema für einen selbst abgehakt ist
weiterhin kann ich es schon fast nicht mehr lesen, wenn mal irgendwo Kritik/Skepsis geübt wird, es immer gleich heißt "Blalbla, das ist ja die übelste Kritik (und daher natürlich falsch/ungerechtfertigt... ;D), voll mit der Mistgabel gebasht dieser fiese Fanboy, um HerstellerXY künstlich eins auszuwischen!" :D

PS: Die Glaskugel hat's ganz am Anfang des Threads im Grunde schon richtig gestellt.
irgendwie hast Du ja recht, er hat da ein Bild verlinkt, wo die Aussage zu sehen ist (übersetzt):
"ich muss das noch ein bisschen "untersuchen", bevor ich überhaupt zu einer Schlussfolgerung kommen kann"
1601993607645.png


daher ist klar, wenn nicht hier abbrechen und abhaken, wo/wann dann? ^^

der Treiber hat alle Probleme gelöst, so meint mancher, aber ich glaube eher Betaphase v1.1 hat erst begonnen ^^
zudem gibt es Berichte, dass es trotz neuem Treiber bei machen zu CTDs kommt und es ggf. nicht nur ein reines Treiberproblem sein könnte und auch von der Anwendung abhängt...

also ich finde das ganze Kondensatorthema rel. interessant und finde eher, da sollte man zukünftig vielleicht mal genauer hinschauen und das weiterverfolgen, ob und welche welche Auswirkungen das haben kann...
vielleicht kacken ja schon in einem Jahr bei manchen Karten die MLCCs ab und man kan froh sein, keine/nicht nur welche zu haben...
zumindest solange es keine Oszi-Vergleichsbilder gibt, wo man die Unterschiede der unterschiedlichen Konfigurationen mal genauer sehen kann , sollte hier noch nichts abgehakt sein
 
Zurück