Geschmolzener Stecker bei RTX 4090: Lösung doch nicht so einfach wie gedacht?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Dazu noch das hier.
 
Diese Rückrufaktion wird wohl in die Millionen € gehen!
Von dem Imageschaden will ich gar nicht reden.
also doch lieber eine Sapphire RX 7900 XT(X)! :D
 
Zuletzt bearbeitet:
Egal, es braucht mal langsam Klarheit, damit die Spekulationen aufhören. Das nervt nämlich.
Die Klarheit hast Du erst, wenn Du weisst, was wirklich los ist. Vielleicht weiss dass noch nicht mal Nvidia. Mir persönlich ist lieber, wenn sie dann ein Statement abgeben, wenn sie wirklich was wissen, und es ansonsten bleiben lassen. Da offenbar in den letzten zwei Wochen immer weniger Stecker abgeraucht sind, ist das Problem vielleicht wirklich schon (fast) behoben, wenn / weil jetzt 'richtig eingesteckt' wird.
eine 0% Toleranz ist schlichtweg nicht möglich und wäre absolutes Wunschdenken!
genau, bei mir hat's auch schon gestunken :D
 
Zuletzt bearbeitet:
Als wenn jemand der Aussage von JonnyGuru geglaubt hätte und dann seelisch völlig entlastet die 2000+ € für die 4090 überwiesen hätte.
Natürlich ist der Stecker eine Fehlkonstruktion! Wer auch vor dem Kauf steht - unbedingt warten!
 
Diese Rückrufaktion wird wohl in die Millionen € gehen!
nichtmal ansatzweise.
Von dem Imageschaden will ich gar nicht reden.
wird bei weitem nicht so groß sein wie du glaubst :)
also doch lieber eine Sapphire RX 7900 XT(X)! :D
ja. Denke auch. Ist besser für dich. Viel Spaß mit der neuen AMD Karte.

p.s. bitte nicht nach verbrannten PCIe Steckern suchen :)

@PCGH: Geiler Clickbait Artikel. Der Sonntag sollte gerettet sein.
 
Diese Rückrufaktion wird wohl in die Millionen € gehen!
Von dem Imageschaden will ich gar nicht reden.
So wenig ich das gut finde - aber die Chancen sind sehr sehr hoch, dass da überhauptnix zurückgerufen wird und außer den paar Nasen in den Foren es auch keine Sau interessiert. Bei der 5090 ist all das wieder wie üblich vergessen (alleine schon deswegen wird da nichts zurückgerufen, denn DARAN könnten sich weit mehr Leute erinnern alleine schon weil da zigtausende statt einer Handvoll betroffen wären...).
 
Der Stecker ist für die Stromstärke zu knapp bemessen.
Der 12pin ist von der Kontaktfläche 1:1 ein 8Pin PCIe
8x 0,75mm² vs 12x 0,5mm²

Das Problem am ganzen ist, das der Strom sich nicht auf 12 Pins 1:1 verteilt.

Ein XT60 Stecker wäre besser
Oder gleich XT80
 
Der Stecker ist für die Stromstärke zu knapp bemessen.
Der 12pin ist von der Kontaktfläche 1:1 ein 8Pin PCIe
8x 0,75mm² vs 12x 0,5mm²

Das Problem am ganzen ist, das der Strom sich nicht auf 12 Pins 1:1 verteilt.

Ein XT60 Stecker wäre besser
Oder gleich XT80
Es kommt drauf an ob 450 oder 600w. Bei denn wenigen 450w kabeln kann durchaus das anstecken schuld gewesen sein. Bei denn 600w kanns wie du beschrieben ein größeres problem sein
 
naja als die aussage kam war erstmal 4 tage ruhe und keine rauchte ab^^
Ja klar...der Guru hat anscheinend seine Magie gewirkt.
Der Kram gehört auf der Stelle aus dem Verkauf genommen.
Ich bezweifle, dass es jemals in nur einem Monat solche Probleme in der Frequenz gegeben hat. Die Dunkelziffer sollte man da ebenfalls nicht außer Acht lassen.
Von alleine wird es garantiert nicht plötzlich weniger Steckerschmelzen geben.
Da kann auch der Guru nicht zaubern.
Es gibt für Viele gute Argumente für die 4090, daher bezweifle ich, dass dies Problem jemanden davon abbringenwird die Karte zu kaufen.
Doch, mich. Solange die Verantwortlichen das Problem nicht erörtert und gefixt haben, kaufe ich nicht.
 
Zuletzt bearbeitet von einem Moderator:
Der Stecker ist für die Stromstärke zu knapp bemessen.
Der 12pin ist von der Kontaktfläche 1:1 ein 8Pin PCIe
8x 0,75mm² vs 12x 0,5mm²

Das Problem am ganzen ist, das der Strom sich nicht auf 12 Pins 1:1 verteilt.

Ein XT60 Stecker wäre besser
Oder gleich XT80
Wie kommst du denn bitte auf solche mm² Werte? :hmm:

Mal ganz abgesehen davon dass ich zu bezweifeln wage, dass du besser beurteilen kannst
was so ein Stecker an Last verträgt als die, die diese Entwickelt haben.

Und nein, dass sind weder Nvidia noch die PCI-SIG.

Und was die ewigen Unkenrufe nach XT Steckern angeht, hast du überhaupt eine Ahnung ob diese
für entsprechende Einsatzgebiete innerhalb von Computern zugelassen oder praktikabel sind?

Selbst ohne solche XT Stecker gäbe es locker Dutzende Steckervarianten, die für solche Zwecke
eher geeignet sind... Insbesondere von Molex oder anderen Herstellern der IT Industrie selber.
Da könnte man genauso einen Molex Mega Fit mit 23A pro
Kontakt und bis zu AWG12 Kabeln nehmen...

Aber einen 60A 2 Pol Stecker? Ohne Sensepins? Das mag zwar in der Industrie angemessen sein,
aber sicher nicht in einem Consumer Produkt. Derart überzogene Leistungsdaten braucht kein
Mensch und verursacht nur sinnlose Kosten.

Davon mal abgesehen sind die Spezifikationen des Micro-Fit Standards an sich mehr als ausreichend
um theoretisch selbst 1000W weit unterhalb der Schmelztemperatur der Buchsen zu leisten...

Denn die Leistungswerte von 684W bei 9,5A, 12V sind für 30°C over Ambient Spezifiziert.
Bei 40°C OA sind wir dann schon weit jenseits von 750W.
Und selbst mit 8,5A (bei 12 Kontakten), wäre man immer noch über 600W.

Einzig die Tatsache, dass der Originalhersteller Molex keine solch hoch spezifizierten Kontakte
für diesen Steckertyp anbietet, sondern nur Lizenznehmer, könnte hier stutzig machen...
Aber auch da arbeiten keine Amateure. Hierzu gehört u.A. Amphenol.

Nur mal so als kleine Erinnerung, da ja viele scheinbar ein dürftiges Langzeit Gedächtnis haben.
Da kann man mal gut sehen zu was für abartigen Leistungen so ein Kabel fähig ist...

Hier ein Artikel mit Video von Igor und HWBusters zu Nvidias 30er Serie Kabel.
In diesem Fall von Seasonic. (Rating: 12x 9A @ 12V = 648W)


Oder anders ausgedrückt, hier muss schon was ganz merkwürdiges abgehen, bis so ein Kabel bzw.
Stecker schmilzt!

Zudem sollte man vielleicht auch mal ein Augenmerk auf die Grafikkarten selbst, das Gehäuse inklusive
Belüftung und die Testsoftware werfen, mit der die Last erzeugt wurde.
Denn wenn mir bei allen Videos von GN, JayZ und Co. etwas aufgefallen ist, dann der Testaufbau.

Scheinbar keine "echten" Games zum Testen benutzt und immer nur offener Aufbau.
Das ist gerade aus Thermischer Sicht kaum vergleichbar mit einer realistischen Situation, in der
die GPU und Stromversorgung die wechselnden Lasten eines Spiels handhaben müssen, während das Ganze
u.U. in einem schlecht belüfteten Gehäuse untergebracht ist, bei dem die GPU permanent heiße
Luft auf den Stecker pustet... :ka:
 
Zuletzt bearbeitet:
Das Thema wir größer gemacht als es ist, weil jeder Hater, Fanboy, Schwurbler und Hobbyelektriker gegen Nvidia herzieht

Die Fanboys, die das Thema kleinreden sind mind. in gleicher Zahl vetreten. Insofern gleicht sich das gut aus.

Ab wie vielen Fällen wäre das Thema z.B. für dich "groß" genug, dass Nv was unternehmen sollte? So könnte ich die Tage hochrechnen, bis endlich das kleinreden des "überhaupt nicht vorhandenen Problems" aufhört.

Naja, vielleicht löst es sich ja auch von selbst - jetzt wo man den Leuten erklärt hat wie sie einen Stecker richtig einstecken müssen. Weil das konnten die technisch komplett unversierten Käufer einer 2000$-Enthusiasten-Graka nämlich bisher gar nicht wissen... diese Anfänger.
 
Auch nach 4 Wochen betrieb täglich zwischen 3-4 Stunden keine Brand zu vermelden.

Teilweise sogar mit Stabilitäts-Marathons von 30 -45 Minuten unter Volllast mit 560 Watt im 3DMark Loop

hab aber auch keinen 0815 Adapter der mitgeliefert wurde verwendet, und mit knicken hab ich auch nichts am Hut da meine Gehäuse mehr als Ausreichend Breit ist und sogar noch Luft hat bis an den Rand.
 
Es gibt ja auch Fälle von "vermuteter/beginnender Verschmorung", zählt man die aktuell eigentlich auch schon dazu? (Bild-Quelle)

Von der potentiellen Dunkelziffer ganz zu schweigen, nicht jeder Betroffene wird auf Reddit (oder überhaupt) dazu was posten.
Definitiv, denn nicht jeder muss sein Ärger im Social Media breit treten, es gibt auch Händler und Hersteller, an die man sich wenden kann. Denn Social Media , erstatten nicht die Karte.

Für mich ist der Stecker fraglich, das so viel Leistung, über diese kleinen Pins, fließen soll.
Das wäre mir zu unsicher.
Da finde ich es von AMD besser, 3x 8 PIN zu nutzen.
 
Es werden dann erste Gerichtsurteile kommen, dann gibt es Klarheit.

Was soll da noch zu klären sein?

Die Dinger sind kurz nach der Auslieferung geschmolzen, mit dem beigelegten Zubehör. Damit ist klar, dass das unter die Gewährleistung/Garantie fällt. Man hat hier wohl nichtmal bei Beweislastumkehr ein Problem.

Wir reden ja hier von einem technischen Problem, das im worst case eine Gefahr für Leib und Leben darstellen kann wenn die Möhre tatsächlich abbrennen sollte (auch wenn das noch viel unwahrscheinlicher ist). Das DARF einfach nicht passieren, auch wenns nur 2 Karten pro Jahr weltweit wären. War ja vor dem 12pin-Stecker auch kein Problem das umzusetzen (ne 4090 mit 3x 8-pin und damit erlaubten 525W Powertarget ab Werk wäre praktisch gleich schnell gewesen - selbst wenn man die 75W des Slots nicht ausnutzt).

Lassen wir die Kirche mal im Dorf

1: sind die Stecker "nur geschmolzen, d.h. wir haben es mit Temperaturen von um die 100°C zu tun. Damit es brennt sind 300°C und mehr, nötig.
2: selbst wenn es zu so hohen Temperaturen kommt, sind die ganzen Kunststoffe im PC mit Flammschutzmitteln vollgepumpt. Man kann ja mal versuchen eine Steckkarte, Molexanschluß usw. (im Freien) mit dem Feuerzeug anzuzünden. Das wird einem nicht wirklich gelingen.
3: zusätzlich sitzt das Ding noch in einem Metallgehäuse.

Von daher liegt die Brandgefahr irgendwo bei Null. Sinnvoller ist es, sich darum zu kümmern, dass hinter dem Netzteilauslass nichts ist, das brennen könnte. Da ist es rein theoretisch möglich, dass Funken rausschlagen, wenn das Netzteil seinen Geist aufgibt..

Es würde schon reichen wenns so wenig wären wie die letzten 20 Jahre bei bekannten PCIe-Steckern - dann gäbe es diesen ganzen Zirkus hier gar nicht. Und das hinzukriegen ist kein Wunschdenken sondern war vor dem tollen neuen 12-Pin-Stecker schlichtweg Stand der Technik.

Dafür ist der PCIe Stecker ein Musterbeispiel für Ressourcenverschwendung. Beim 8 Pin Anschluss sind 2 Pins völlig und 2 weitere Pins quasi unnötig. Hat natürlich den gigantischen Vorteil, dass bei maximal 4,2 A pro Pin das Risiko für eine Überlastung extrem gering ist. Dafür hat man große Mengen Kupfer zum Fenster rausgeschmissen, weil die damit betrauen Ingenieure damals nicht weit genug gedacht haben. Man konnte sich auch nicht vorstellen, dass eines Tags Grafikkarten mit weit über 100W massentauglich werden.

So siehts aus. Das Thema wir größer gemacht als es ist, weil jeder Hater, Fanboy, Schwurbler und Hobbyelektriker gegen Nvidia herzieht und seitens der Redaktion nichts dagegen gemacht wird. Man lässt lieber das Geschwurbel stehen und macht alle mit alternativen Fakten verrückt.

Die verschmorten Anschlüsse kann man nicht wegdiskutieren.
 
Zurück