News Geforce RTX 4090: Auch Cablemods Custom-Stromstecker verschmort, Reaktion folgt prompt

G

Gast1675422605

Guest
Eine Bitte von der (noch) freundlichen Ente aus der Nachbarschafft, bleibt beim Thema und haltet euch bitte mit OT zurück.

[...]Also kann denn bitte nicht wenigstens einer an die Mods denken! ;)
Wird doch gemacht. Man muss das einfach unterhaltsam verstehen. PCGH selbst hat es ja mal treffend als Seifenoper beschrieben.

Das ist wie beim Pawlowschen Hund. Sobald die Worte Nvidia+Stecker in Kombination auftreten geht der Rage Mode an. Verschwörungen und Brände werden beschrieben - in Ausmaßen die ganze Innenstädte auslöschen können. Es ist wirklich unterhaltsam.

Was viel interessanter wäre, wäre mal sich mit dem Verhalten der Boardpartner im Fehlerfall auseinanderzusetzen (sprich RMA-Fall tritt ein, welcher Hersteller ist kundenorientiert und welcher windet sich mit allem raus?). Ich denke da hätten wir sinnvolleren Stoff für Aufreger und Erkenntnisse für die Zukunft. Nvidia selbst hat sich ja für seine FE Karten ohne Wenn und Aber zur RMA bekannt. Machen das die anderen auch?
 

BigBoymann

BIOS-Overclocker(in)
Ich finde es nachwievor höchst interessant wie unterschiedlich das Thema hier gesehen wird. Für mich bleibt es ein grundsätzliches Problem, dabei sehe ich allerdings anders als viele, nicht Nvidia als Hauptproblem, die können derzeit nicht mehr tun, als sie es tun. Kritisieren darf man gerne, dass Nvidia keine klaren Aussagen trifft die eine Gültigkeit für die Lebenszeit einer solchen Karte haben, aber aktuell gibt es in meinen Augen keine Vorbehalte, die Karten werden anstandslos getauscht, sowohl bei NV als auch bei den Boardpartnern.

Meine Sorgen, was passiert in einem Jahr, in zwei Jahren oder was passiert nach Ablauf der Garantie?

Dabei ist es mir erstmal sekundär, dass es ein Anwenderfehler ist. Dieser ist (die Aussagen 6 auf 100.000 sind natürlich totaler Käse, weil es wesentlich mehr Fälle sind und selbst 6 von 100k zu viel wären) zu häufig, als das man nicht über ein generelles Designproblem reden müsste. Das wird sich in meinen Augen so schnell nicht lösen lassen und ich kann mir vorstellen, dass man auch bei Nvidia in der nächsten Gen wieder zurück zu 8 PINs gehen wird, was in meinen Augen allerdings zwangsläufig dazu führen würde, dass man FEs nur noch bis zur 5080 bekommen wird, da ich mir nicht vorstellen kann, dass eine potenzielle 5090 weniger Gesamtleistungsaufnahme bekommt, als eine 4090!
Das Kabel funktioniert einwandfrei, wenn der User es richtig anschließt.
Ja, die Wahrscheinlichkeit ist sehr hoch. Allerdings ist es in meinen Augen schon problematisch, wenn es doch nicht ganz einfach erscheint den Stecker richtig zu setzen. Noch mal angemerkt, es gab auch bei 8 PINS (oder 24 PINS, oder oder oder) diese Verschmorungen, allerdings konnten diese immer recht eindeutig auf einen "Vollidioten" oder einen "billigen Stecker" reduziert werden. Bei dem 16 PIN ist es scheinbar nicht so einfach und da gibt es wahrscheinlich derzeit noch gar keine "billigen Stecker", diese werden erst nach und nach den Markt überfluten, wo dann aus zwei 4 PIN Molex steckern, ein 16 PIN GPU Stecker adaptiert wird.
In meinen Augen bleibt es dabei, man hat auf Kosten der Sicherheitstoleranzen (16 PINs haben ja nicht mehr PINs als 2 x 8 PIN) einen neuen Standard (wichtig, nicht Nvidia erhält eine Schuld) durchgedrückt, was sich jetzt eben darin widerspiegelt, dass man deutlich genauer arbeiten muss, beim Zusammenbau.

Was viel interessanter wäre, wäre mal sich mit dem Verhalten der Boardpartner im Fehlerfall auseinanderzusetzen (sprich RMA-Fall tritt ein, welcher Hersteller ist kundenorientiert und welcher windet sich mit allem raus?
Glaube bisher ist alles fein, für mich ist die Frage der Zukunft spannender, denn eine 4090 wird ja mitunter durch mehrere Hände gehen und was ist in zwei Jahren oder nach Ablauf der Garantie? Ist für mich (unabhängig davon, dass ich aktuell nicht zum Gamen komme) schon ein deutlicher Hinderungsgrund, auch wenn ich tendenziell jemand bin, der der Meinung ist nicht "zu blöd" zu sein, den Stecker richtig anzuschließen.
Der Witz ist ja eigentlich, dass es durchaus Stecker gibt die diese Anforderungen erfüllen. Ein XT-90 zum Beispiel, der kann auch noch mehr Power. Da nebendran noch die vier Datenpins, fertig.
Die vier Datenpins brauchste ja eigentlich nicht, sind bisher ziemlich nutzlos und dienen nur als Massepunkt!
 
Zuletzt bearbeitet:

Lowpinger

Freizeitschrauber(in)
vllt bin ich einfach zu dumm

welchen Vorteil soll dieser neue 12VHPWR Stecken gegenüber 3x8Pin haben?

wir wissen die 4090 zieht nicht mehr als 450W

3x 8Pin + PCIe Socket = 3x 150 + 75 = 525W

ich hab lieber 3x PCIe Kabel zur PSU die safe sind, als eine 12VHPWR Leitung die mir im schlimmsten Fall alles abfackelt
 

rum

Software-Overclocker(in)
Habe letztens eine Custom gesehen, bei der irgendwas mit 660W oder so stand. Hab den Artikel aber nicht gelesen, weil ich dafür halt 2 Stück meines aktuellen Netzteiles bräuchte.
Ansonsten sehe ich das eher entspannt. Scheint ja was mit dem "Einstecken" zu tun zu haben. Und wenn's wirklich nicht passen sollte, dann können sich NVidia und die PCIe-Stecker-Verantwortlichen Nicht-NVidianer ja nochmal über irgendwelche Maße oder das Wetter unterhalten ... ?
 

Bandicoot

PCGH-Community-Veteran(in)
Also ich habe das Bequiet 12VHPWR Kabel für mein Straight Power 11 850W Platinum gekauft. Er läßt sich aber auch mit Gewalt nicht so weit aufstecken das er einrastet. Ich kann sehen das die Verriegelung noch nach oben steht aber weiter geht er nun mal nicht drauf. Habe es mehrfach versucht ohne Erfolg. Ich bin mir sicher es geht nicht weiter. Vielleicht ist die Verriegelung auf der Grafikkarte nicht genau genug platziert. Ist eine Asus Tuf OC.

Ich hab das auch, eins fürs 850W und eins 750W. Die gehen wirklich schwer, sieht nicht vertrauenswürdig aus wenn das dran steckt. Beim 750er passt es gut.
 

owned139

BIOS-Overclocker(in)
welchen Vorteil soll dieser neue 12VHPWR Stecken gegenüber 3x8Pin haben?
Der native? Du hast nur 1 Kabel und keine 3-4 mit Y-Split.

ich hab lieber 3x PCIe Kabel zur PSU die safe sind, als eine 12VHPWR Leitung die mir im schlimmsten Fall alles abfackelt
Der Stecker ist genau so Safe wie die PCIE Kabel. Beide sind für jeweils 30 Steckzyklen konzipiert und beide fangen an zu schmoren, wenn du sie nur halb reinsteckst oder Fertigungsfehler vorliegen. Gibt genug Beispiele dafür auf Google.
Ignoriere die Schwurbler hier im Forum und lass dich nicht verrückt machen.

Ich kann auch nicht verstehen, wieso dagegen nicht vorgegangen wird @Incredible Alk, @chill_eule.
In den Threads dieses Forums wird so häufig Fakenews verbreitet.
 

JahJah192

Komplett-PC-Aufrüster(in)
Frage mich heute schon was passiert, wenn der Nachfolger der 4090, also 5090 dann noch mehr Saft aus dem Kabel zieht?
Bei unsachmäßiger Kabelbenutzung bleibt dann noch was übrig?:D
Die 5090 wird imho bestimmt gute 150+ Watt mehr ziehen.
Wenn die Kabel sehr steif erscheinen, dann wird man bestimmt endlich auf 2 mm² Flexkabel gesetzt haben. Hat lange gedauert, aber die halten locker die Belastung für die 4090 aus.
kann mir vorstellen die wird entweder von den Watt gleich oder gar sparsamer. Sieht man ja bei der 4090 von 100%-80% Power Target nimmt man 450 zu 380 Watt aber kaum Leistung (Messtoleranz 1-2 fps). Passende Aussage vom 8auer die befinden sich schon im Bereich des extrem overclocking wo man einfach nur noch Leistung verballert ohne lohnende fps Steigerung.
Hab meine undervolted 950mV 2730mhz, 100 Watt weniger, 3 fps weniger als Stock bzw. OC Stock der Suprim, von fps wahrscheinlich gleichauf mit der FE.
Kannst also easy 100 Watt abziehen ohne Leistungsverlust und im Vergleich zur 3090 ist die krass viel effizienter.
 

Lowpinger

Freizeitschrauber(in)
Der native? Du hast nur 1 Kabel und keine 3-4 mit Y-Split.

nein nein, ich meinte der "bisherige Standard" 2x8Pin bzw 3x 8Pin (3080Ti / 3090/Ti)

wieso hat man diesen "Standard nicht einfach weitergeführt? AMD machts doch auch

never change a running system, es hat doch funktioniert wieso ändert man es ohne iwelcher Vorteile?
 

owned139

BIOS-Overclocker(in)
nein nein, ich meinte der "bisherige Standard" 2x8Pin bzw 3x 8Pin (3080Ti / 3090/Ti)

wieso hat man diesen "Standard nicht einfach weitergeführt?
Sagte ich doch gerade? Weil du dann 3 Kabel oder mehr im PC hast und mit Nvidias nativem 12VHPWR Stecker nur eines.
Außerdem macht es die Platine kürzer, weil man nicht 3-4 Anschlüsse benötigt, sondern nur noch einen.
 

Lowpinger

Freizeitschrauber(in)
Sagte ich doch gerade? Weil du dann 3 Kabel oder mehr im PC hast und mit Nvidias nativem 12VHPWR Stecker nur eines.
Außerdem macht es die Platine kürzer, weil man nicht 3-4 Anschlüsse benötigt, sondern nur noch einen.

ok das mit der Platine ergibt Sinn

ob nun 1 Kabel oder 3 Kabel zu PSU juckt mich null (Kabelmanagement)
 

TrueRomance

Lötkolbengott/-göttin
Ich verstehe ehrlich gesagt nicht, wieso hier Leute beleidigt werden, deren 4090 abgeraucht ist. Wenn dieses Kabel so empfindlich ist, dann liegt das Problem nicht beim User.

Dieses Debakel erinnert mich an die tollen Automobilhersteller, die das Massekabel am Licht zu klein dimensioniert haben und der Spaß irgendwann wegschmort.

Überall wo Strom fließt, muss ein Hersteller doch gewährleisten, dass nichts schmort.

Und was soll das bitte, dass ein Kabel nicht zu stark geborgen werden darf? Natürlich sollte da nicht mit mechanischer Gewalt nachgeholfen werden aber ich habe noch nie darauf geachtet, dass die Kabel genug Platz haben. Dann müssen doch die Kabel steifer sein oder es bedarf einer Zugentlastung. Oder die Hersteller geben sich einfach Mal Mühe ohne zu versuchen den letzten 1/10 Cent zu sparen.


Hier haben die Hersteller der Adapterkabel daran schuld weil eben, wie beim Massekabel am Lampenträger im Auto, gespart wurde.

Tja, der Dumme ist dann der Kunde. Der jeweilige Hersteller des Adapterkabels ersetzt im Garantiefall nur das Kabel, nicht aber die Grafikkarte.

Aber der Kunde hat sich ja daran gewöhnt der Betatester zu sein. Wer zu Release kauft, muss mittlerweile damit rechnen, Geld zu verbrennen und das Risiko muss einkalkuliert werden.
 
G

Gast1675422605

Guest
Das mit dem Biegen kam zunächst durch die Theorie auf, dass die Lötverbindungen an den Adapterkabeln abbrechen könnten. Das hat meines Wissens nach nachher nie wieder jemand nachstellen können.
Was als Gefahr beim Biegen bleibt ist, dass sich die Litzen in den Steckergehäusen anders ausrichten können. Da können einzelne Adern weiter hinten liegen, oder oder vom Winkel her schräg werden.

Wenn man aber beim Biegen das Kabel etwas erwärmt und aufpasst, dass man nicht die Litzen aus dem Steckergehäuse hebelt, dann sollte das problemlos gehen - ging zumindest bei mir so. Und dieses Problem hatte ich schon bei den bisherigen PCIe- 8 Pin Kabeln. Kann sich noch wer an die ersten GB 3080 Gaming OC erinnern? Da waren herkömmliche Stecker mit lümmelnden Anschlüssen verbaut.

Wem der Stecker nicht passt, der muss wirklich was anderes kaufen. Wer nur Bedenken hat, weil er noch nie einen in der Hand hatte: macht euch keinen Kopf. Steckt den richtig ein bis er bündig sitzt und gut ist. Wenns richtig zäh geht muss man mal schauen ob nich irgendwo Gußgrate sind oder sowas. Geht schon zäher als normal, aber man muss kein He-Man sein.

@Ben das Ding naja, nachdem so viel vermutet wird, gibts halt auch ein paar Leute, die den Stecker aus der Praxis kennen. Und es wird so viel Blödsinn geschrieben, das kann man so nicht stehen lassen.
 

RaptorTP

Komplett-PC-Aufrüster(in)
@Lowpinger

Es geht ganz einfach um den Platz auf der PCB. Nur ein Stecker und eben auch nur einmal die Komponenten für die Spannung (bin kein Elektriker) ... aber ja ! Mir wäre das andere auch lieber, definitiv.

Werde auch keine Karte mit diesem Stecker kaufen.
 

RX480

Lötkolbengott/-göttin
Es geht ganz einfach um den Platz auf der PCB.
Irgendein Hersteller hatte bei der 4070Ti den Stecker dann versetzt, damit mehr Spielraum fürs Kabelbiegen da ist.
Warum net gleich so?
Kann mir Keiner erzählen das im NV-Headquarter alle am Big-Tower sitzen, sehr kleine geschickte Hände haben
und mit superGehör aufs Einrasten horchen. (OK... vllt. machts dort der versierte Admin für alle 0815-User)
 

Lowpinger

Freizeitschrauber(in)
leider wird der Stecker bei nvidia zum festen Standard werden, also egal ob die Karten der 40x0 oder der 50x0, alle werden den 12VHPWR Stecker nutzen

würde also für dich heißen keine nvidia Karten mehr?

ich würde es begrüßen wenn die Custom Designs wenigtens auf Oldschool 3x 8Pin setzen würden

Founder Editions: 12VHPWR / Customs: 3x 8Pin
 

RaptorTP

Komplett-PC-Aufrüster(in)
Jupp isso ... dann eben keine Nvidia Karten mehr. Vor allem nicht wenn man immer wieder vereinzelnd mitbekommt das sowas abschmort.

Verlasse auch den PCMR Hype Train. 3080 Ti war wohl erst mal länger meine schnellste Karte.

Weiß man denn bei welchen Karten das bisher passiert ist oder nur 4090er ?

Dann lieber eine Kabelpeitsche... bin ich ganz ehrlich
 
Oben Unten