News RTX 4080 Super: Karte mit fehlerhaftem 12VHPWR-Adapter aufgetaucht

Ist und bleibt eine völlige Falsch information forciert aus dem AMD Lager. Aber was will man von jemandem erwarten, der immer sinngemäß schreibt, dass Nvidia Karten billiges Klump sind. =)
Nein, das ist keine falsche Information.
Schau dir mal Roman Hartungs (8auer) Video zum 12VHP Kabel an.
Die Redundanz bzgl der maximalen Ampere ist nicht allzu hoch. Der alte 8pin Stecker hat eine viel höhere Redundanz und verkraftet weit mehr als die 150 Watt für die er spezifiziert ist.

Und jetzt denken wir mal weiter:
Die ATX3.x Netzteile sind so spezifiziert, dass sie eine gewisse Zeit auch die doppelte und dreifache Menge an Watt ggü ihrer normierten Leistung liefern können müssen, da viele Grafikkarten in ihrer Leistungsaufnahme starke Stromspitzen haben.

Und nun kombinieren wir das mit dem 12VHP Kabel, welches kaum Redundanz bietet.

Das Ergebnis: Probleme.

Das ist nunmal ein Fakt. Wenn ich meine 4090 mit OC durch den 3D Mark jage wird das Kabel bedenklich warm. Da habe ich jedes Mal Bauchschmerzen. Das sollte nicht sein
 
Nein, das ist keine falsche Information.
Schau dir mal Roman Hartungs (8auer) Video zum 12VHP Kabel an.
Die Redundanz bzgl der maximalen Ampere ist nicht allzu hoch. Der alte 8pin Stecker hat eine viel höhere Redundanz und verkraftet weit mehr als die 150 Watt für die er spezifiziert ist.
Keiner der beiden Stecker hat Redundanzen verbaut! Die haben Sicherheiten einkalkuliert.
Und jetzt denken wir mal weiter:
Die ATX3.x Netzteile sind so spezifiziert, dass sie eine gewisse Zeit auch die doppelte und dreifache Menge an Watt ggü ihrer normierten Leistung liefern können müssen, da viele Grafikkarten in ihrer Leistungsaufnahme starke Stromspitzen haben.

Und nun kombinieren wir das mit dem 12VHP Kabel, welches kaum Redundanz bietet.
Aufgrund von Lastspitzen in <ms Bereich schmort dir kein Stecker. Der Stecker bietet bei der 4090 auch einen Sicherheitsfaktor von ca. 1,5. Du hast also schon einen gewissen Puffer.
Das Ergebnis: Probleme.

Das ist nunmal ein Fakt. Wenn ich meine 4090 mit OC durch den 3D Mark jage wird das Kabel bedenklich warm. Da habe ich jedes Mal Bauchschmerzen. Das sollte nicht sein
Das Kabel warm werden wenn höhere Ströme fließen ist normal? Solange du die Anfassen kannst bist du vom Schmelzen weit weg.

Das der Stecker nicht klickt habe ich beim Adapter meiner 4080 auch. Ist schon ärgerlich aber man kann das bei einer Sichtprüfung noch sehen. Problematischer sehe ich aber, dass weiterhin relativ viele Fälle auftreten und auch Unternehmen schon ihren Stecker aus dem Verkehr ziehen. Hier liegt ja augenscheinlich ein Problem vor. Wenn schon 3/4 des spezifizierten Steckerleistung reicht um zu schmoren ist das nicht gut. Vielleicht sind für den Sicherheitsfaktor zu kleine Toleranzen notwendig die sich nicht mehr günstig in der Produktion realisieren lassen?
 
Also es gibt doch Partnerkarten, die den ganz normalen Stecker verwenden oder nicht? Habe von dem Stecker einige Male was gelesen. Der große Hauptteil scheint in Ordnung zu sein. Ich verstehe nur nicht ganz, was der große Vorteil des neuen Steckers sein soll.
 
Aufgrund von Lastspitzen in <ms Bereich schmort dir kein Stecker.
Das kommt ganz drauf an, wie häufig diese Spitzen vorkommen. Machen sie einen signifikanten Anteil der Last aus, oder sind die Peaks ausreichend hoch, so kann das durchaus eine Rolle spielen.
Das Kabel warm werden wenn höhere Ströme fließen ist normal? Solange du die Anfassen kannst bist du vom Schmelzen weit weg.
Das eigentliche Problem ist doch, dass die Wärme die im Stecker entsteht den Übergangswiederstand der Kontakte nur weiter erhöht, was wiederum dazu führt, dass dieser Höher wird, und dadurch wiederum mehr Wärme entsteht.
Eine Temp von 60 - 65°C am/im Stecker mag vielleicht noch nicht so heiß sein, dass der Kunststoff direkt schmilzt, aber sie ist schon out of Spec und sorgt bei längerem Betrieb unter hoher Last nur dafür, dass die Temp NOCH weiter klettert.

Zum Allgemeinen Thema:

Das muß ja auch alles kein Problem bei einer Brandneuen Karte sein.
Aber was soll mit den Karten denn in 5 Jahren sein?
Wenn die Stecker alle schon 20 - 30 Steckzyklen hinter sich haben, die Kontakte auch anfangen etwas aus zu leiern etc....
Und wenn die Games sone 4090 auch mal permanent voll auslasten, und nicht nur im Teillast Bereich unterwegs sind?

Klar, bis dahin hat man vielleicht ne neue GPU, und es juckt einen ggF. herzlich wenig. Aber z.B. meine 2080Ti sitzt auch bei meiner Frau im Rechner und darf noch ordentlich Ackern. Ich hätte keinen Bock mir dabei Gedanken um Qualm und Schmor am Stecker zu machen.
Also es gibt doch Partnerkarten, die den ganz normalen Stecker verwenden oder nicht?
Leider nein.... Bei der 4090, 4080 und 4080S gibt es NUR diesen Stecker, da er von nVidia vorgeschrieben wird.
Ich verstehe nur nicht ganz, was der große Vorteil des neuen Steckers sein soll.
Tja, damit bist du nicht allein... viele andere verstehen es auch nicht :schief:

Es wird gemunkelt, dass nV mit dem Kühlerdesign der FEs halt einfach keine Möglichkeiten hatte 3 oder gar 4 von den alten 8 Pin Steckern unter zu bringen, was ja durchaus logisch erscheint.

Aber warum er dann den Boardpartnern auch für diese Modelle "weg genommen" wurde steht ja dann auf einem ganz anderen Blatt.
 
Zuletzt bearbeitet:
Das Blöde ist er rastet gar nicht ein man kann ihn easy wieder raus ziehen und deswegen ist es kein Clickbait. Bevor man flamed mal den Artikel lesen und das Video schauen.
Er hat den Stecker doch gar nicht richtig reingesteckt.
Manchmal muss man das mit etwas Druck machen, damit die Nase übers Plastik drüber geht. War bei PCIe 24 Pol häufig so, auch bei 3x 8 Pin bei meiner damaligen 295X2. Im Artikel steht ja, dass es danach funktionierte. Gefühlt nach 15 bis 20 Versuchen, heißt vermutlich nach 2 oder 3.
 
Hat mich 10 Sekunden Googlen gekostet.
Ok, ein Aufmacher Video in dem Flammen zu sehen sind, obwohl noch nie etwas gebrannt hat und danach wenn man sich das Video anschaut, dass ein schon x Fach benutzter Adapter gegen einen anderen getauscht werden musste, weil er nicht mehr sauber passte. Das hat dich 10 Sekunden gekostet, für ein Video mit genau 0 Inhalt und 100% Clickbait.
Und jetzt zeig mir nen besseren HW-Experten, der das wiederlegt...
Was Widerlegen? In dem Video geht's überhaupt nicht um die ursprüngliche Problematik. Hast du das überhaupt angesehen?
Genau das ist das Problem, es werden Behauptungen auf Grundlage von nichts aufgestellt, geschweige denn dass es bis heute überhaupt relevante Fälle gibt.
 
Keiner der beiden Stecker hat Redundanzen verbaut! Die haben Sicherheiten einkalkuliert.
Stimmt, hab mich falsch ausgedrückt

Aufgrund von Lastspitzen in <ms Bereich schmort dir kein Stecker. Der Stecker bietet bei der 4090 auch einen Sicherheitsfaktor von ca. 1,5. Du hast also schon einen gewissen Puffer.
Nein, der Sicherheitsfaktor beträgt 1,1 bis 1,5 je Nachdem wie die Kabel ausgelegt sind. Beim 8pin sind es 1,9 bis 2,5.
Das ist schon ein gewaltiger Unterschied.

Wie schon gesagt wurde: Billiger muss es werden. Kunde kauft für 2000€ eine GPU und am Kabel wird 1€ gespart.
Das ist einfach absolut inakzeptabel und dreist.

Quelle: Roman Hartung
1707047311517.png
 
Der Punkt ist: ich kann mir besseres Vorstellen, als das mein neuer PC plötzlich das stinken anfängt und ich die Bude lüften muß (erfahrungsgemäß wird dann erstmal die erste Nacht das Fenster offen gelassen).
Nur ist das mit einer 4080 noch nie vorgekommen und bei einer 4090 mit ordnungsgemäßem Anschließen von Originaladaptern abseits von normalen Fehlertoleranzen auch noch nie.
Ergo muss man immer wieder dagegen reden, wenn jemand etwas erzählt, was nicht korrekt ist.
Schön, besonders jetzt im Winter. Dann darf man den Käse zurückgeben und hoffen, dass sich der Hersteller nicht ziert.
Sicher nicht, dafür gibt es keine Fälle mit einer 4080.
Es ist wahrscheinlicher dass dir ein Vogel auf den Schädel kackt, als dass deine 4080 abraucht. Aber immer wieder diesen Blödsinn zu suggerieren, scheinen sich manche zur Lebensaufgabe gemacht zu haben wie dieser Igor.
Erst schreibt er keine Panik um dann im nächsten Nebensatz wieder genau diese zu schüren, als Mit Entwickler einer Steckverbindung mit Platine die regelmäßig abgeraucht ist, ganz im Gegensatz zu ordnungsgemäß angeschlossenen Originaladaptern.
Nach ein paar Wochen kann man dann seine Karte wieder einbauen und das machen, was man mit seiner 2000+ € Investition vorhatte. Nicht zu vergessen, das der Rest des PCs erstmal anständig stinkt, wenn man dann wieder zocken will.
Hier stinkt es nach was ganz anderem. ;)
Was ist für dich so schwer zu verstehen, dass das für die Käufer einer RTX 4080 Super eine wichtige Information ist?
Dass man einen Stecker ordentlich einsteckt? Das gilt schon immer.
Steht in jedem Mainboard Manuell. Dort macht es übrigens ganz selten "Klick" und es hat sich kaum jemand beschwert.
Warum sollte man die Leute ins offene Messer laufen lassen? Würdest du es toll finden, wenn man das mit dir machen würde?
Ich kann auch darauf hinweisen, ohne wieder einen Clickbait nach dem anderen loszutreten.
Warum hast du überhaupt auf die News geklickt, wenn von vorn herein klar war, dass sie für dich komplett uninteressant ist? Wolltest du nur Stunk machen?
Ich wollte einfach sehen was stimmt oder nicht.
Hier werden ja wieder die gleichen unwahren Dinge verbreitet, rein aus Bösartigkeit einer Firma schaden zu wollen, die Marktführer ist. Das ist die Motivation aus der roten Ecke , da kannst du mir erzählen was du willst.
 
Zuletzt bearbeitet:
Das kommt ganz drauf an, wie häufig diese Spitzen vorkommen. Machen sie einen signifikanten Anteil der Last aus, oder sind die Peaks ausreichend hoch, so kann das durchaus eine Rolle spielen.
Kann man bei der Art und Weise wie die GPU Betrieben wird ausschließen. Weder erreicht sie Lastspitzen die bei der Dauer eine relevanz haben noch kann sie Regelungstechnisch im Mittel weit über ihrem Limit ziehen.
Das eigentliche Problem ist doch, dass die Wärme die im Stecker entsteht den Übergangswiederstand der Kontakte nur weiter erhöht, was wiederum dazu führt, dass dieser Höher wird, und dadurch wiederum mehr Wärme entsteht.
Eine Temp von 60 - 65°C am/im Stecker mag vielleicht noch nicht so heiß sein, dass der Kunststoff direkt schmilzt, aber sie ist schon out of Spec und sorgt bei längerem Betrieb unter hoher Last nur dafür, dass die Temp NOCH weiter klettert.
Nur das der Widerstand mit der Temperatur nur marginal ansteigen wird. Da haben unsauber sitzende Kontakte oder Korrosion weitaus mehr einfluss als die 10° die du mal höher bist.
Stimmt, hab mich falsch ausgedrückt


Nein, der Sicherheitsfaktor beträgt 1,1 bis 1,5 je Nachdem wie die Kabel ausgelegt sind. Beim 8pin sind es 1,9 bis 2,5.
Das ist schon ein gewaltiger Unterschied.

Wie schon gesagt wurde: Billiger muss es werden. Kunde kauft für 2000€ eine GPU und am Kabel wird 1€ gespart.
Das ist einfach absolut inakzeptabel und dreist.

Quelle: Roman Hartung
Anhang anzeigen 1451124
Eine Stock 4090 hat einen Sicherheitsfaktor von fast 1,5. Die 1,1 beziehen sich auf das maximum was keine Karte nutzt.
 
Eine Stock 4090 hat einen Sicherheitsfaktor von fast 1,5. Die 1,1 beziehen sich auf das maximum was keine Karte nutzt.
Steht sogar dabei...
Die 1,1 und 1,5 beziehen sich auf die AWG...
Und natürlich nutzen 4090 auch 600W. Spiele aktuell Yakuza Kiwami, da laufen 500-530W durch wenn ich will. Ist mir aber zu risky mit dem Stecker. Im 3D Mark oder anderen Benchmarks natürlich auch mehr, eben bis 600W
 
Steht sogar dabei...
Die 1,1 und 1,5 beziehen sich auf die AWG...
Und natürlich nutzen 4090 auch 600W. Spiele aktuell Yakuza Kiwami, da laufen 500-530W durch wenn ich will. Ist mir aber zu risky mit dem Stecker. Im 3D Mark oder anderen Benchmarks natürlich auch mehr, eben bis 600W
Liest du eigentlich deine Quelle bzw. schaust du die Videos?
Das AWG bezieht sich auf den 4x8pin. Erkennst du auch am Sternchen... Im Video bezieht sich die 1,1 auf die 600W des Steckers vs den max Strom den die Kontakte dürfen, 660W. Wenn man das mit den 450W der 4090 vergleicht bist du bei etwas unter 1,5. Wird auch so im Video kommuniziert.
Mal abseits davon dass ich von Stock rede und nicht OC, darfst du gerne mal einen Screen liefern wo du 600W ziehst im 3D Mark :)
 
Das AWG bezieht sich auf den 4x8pin. Erkennst du auch am Sternchen... Im Video bezieht sich die 1,1 auf die 600W des Steckers vs den max Strom den die Kontakte dürfen, 660W.
Stimmt. Mein Fehler

Mal abseits davon dass ich von Stock rede und nicht OC, darfst du gerne mal einen Screen liefern wo du 600W ziehst im 3D Mark :)
Es ist völlig egal ob du von Stock redest oder nicht.
Das Kabel ist für 600W Spezifiziert und hat damit gerade mal einen Sicherheitsfaktor von 1,1, also 660W.
Die 1,5 für eine RTX4090 sind komplett egal, der Stecker ist für 600W Spezifiziert. Ein Sicherheitsfaktor von 1,5 hat demnach der 450W Connector (falls es keine Änderungen der Kabel gibt, außer den Sense belegung). Bei dem wären es folglich ein Sicherheitsfaktor von 1,5 (eigentlich 1,467) bzw 210W
Das ist absolut inakzeptabel für das 600W Kabel.
4x8pin haben auch eine 600W Spezifikation, können mit den dünnen Kabeln auch 284Watt mehr liefern und mit den dicken sogar 552W. Das ist sinnvoll, v.a. in Anbetracht von Stromspitzen


Und hier bitte, dein 3D Mark run, damit du es glaubst.
1707061409054.png
Jetzt kommen noch Strompitzen hinzu, die unvermeidbar sind und nicht auslesbar, da diese zu schnell passieren. PCGH hat sich eben wegen zu schnellen Verbrauchswechseln, die nichtmehr Softwareseitig auslesbar sind, Equipment angeschafft und an der Hardware die (teils deutlich höheren) Verbrauchsspitzen messen zu können.
Diese Spitzen waren vor allem bei der Ampere generation extrem ausgeprägt, da gibts sogar einen PCGH Vergleich der 4090 und 3090 (Ti?) mit verschiedenen Netzteilen.

Tut mir leid, aber ich kann beim besten Willen nicht verstehen wie man diesen Stecker verteidigen kann. Er hat gerade mal einen Sicherheitsfaktor von 1,1. Und es geht hier um einen verdammten Stecker für ein paar € an dem gespart wurde. Da gibts nicht zu verteidigen. Und dass der Sicherheitsfaktor gerade mal 1,1 beträgt, wie du selbst geschrieben hast, ist nunmal ein Fakt.
 
Zuletzt bearbeitet:
Es ist völlig egal ob du von Stock redest oder nicht.
Das Kabel ist für 600W Spezifiziert und hat damit gerade mal einen Sicherheitsfaktor von 1,1, also 660W.
Die 1,5 für eine RTX4090 sind komplett egal, der Stecker ist für 600W Spezifiziert. Ein Sicherheitsfaktor von 1,5 hat demnach der 450W Connector (falls es keine Änderungen der Kabel gibt, außer den Sense belegung). Bei dem wären es folglich ein
Du willst es nicht verstehen. Es ist für das Produkt erstmal völlig Wumpe ob die Spec dir 600W erlaubt. Entscheident sind die technischen Daten des Endproduktes. Nvidia gibt dafür 450W an. Folglich bist du bei >1,46 Sicherheitsfaktor. Je nachdem wie viel Puffer die Pin Hersteller einplanen kann das aber nochmal deutlich höher liegen.
Sicherheitsfaktor von 1,5 (eigentlich 1,467) bzw 210W
Das ist absolut inakzeptabel für das 600W Kabel.
4x8pin haben auch eine 600W Spezifikation, können mit den dünnen Kabeln auch 284Watt mehr liefern und mit den dicken sogar 552W. Das ist sinnvoll, v.a. in Anbetracht von Stromspitzen
Was sollen denn die Stromspitzen deiner Meinung nach machen?
Und hier bitte, dein 3D Mark run, damit du es glaubst.
Anhang anzeigen 1451183
Ich sehe zwar weder einen 3D Mark noch welche GPU läuft aber ok du hast zumindest einmal 600W drin gehabt. Wenn das über den ganzen Bench geht wäre das in der Tat bedenklich, ist das aber nur ein kurzer Zeitraum, wird das kaum eine Rolle spielen.
Jetzt kommen noch Strompitzen hinzu, die unvermeidbar sind und nicht auslesbar, da diese zu schnell passieren. PCGH hat sich eben wegen zu schnellen Verbrauchswechseln, die nichtmehr Softwareseitig auslesbar sind, Equipment angeschafft und an der Hardware die (teils deutlich höheren) Verbrauchsspitzen messen zu können.

Diese Spitzen waren vor allem bei der Ampere generation extrem ausgeprägt, da gibts sogar einen PCGH Vergleich der 4090 und 3090 (Ti?) mit verschiedenen Netzteilen.

Tut mir leid, aber ich kann beim besten Willen nicht verstehen wie man diesen Stecker verteidigen kann. Er hat gerade mal einen Sicherheitsfaktor von 1,1. Und es geht hier um einen verdammten Stecker für ein paar € an dem gespart wurde. Da gibts nicht zu verteidigen.

Ich wiederhole die Frage von oben: Was sollen Peaks bitte eine Rolle für den Stecker spielen?
Das der Stecker insbesondere im Anbetracht was die min. Requirements für die Bauteile ziemlich nah an den zulässigen freigegebenen Leistung des Steckers sind darf man auch kritisieren. Denn das erfordert eine sehr niedrige Toleranz für Abweichungen, die wir bei solchen Steckern vermutlich nicht sehen werden. Selbst jetzt sehen wir ja das Ergebnis dass zeigt, dass die Fehlerrate für die Stecker vgl. hoch ist, das kann auch für keinen weder Hersteller noch Konsumenten von Interesse sein.
Aber man sollte aufhören irgendwelche Dinge hineinzudichten die so eben nur Halbwahrheiten sind.
 
Etwas argwöhnisch schaue ich dennoch in meinen Rechner, ob sich während einer Spielsession dort etwas tut - Rauch, Schmelze o.Ä... Aber das wird bei der 4070 TiS wohl nich passieren - hoffentlich. Obwohl es bei meiner 3070 Ti OC vorher mit 3 x 8 PIN auch nicht wirklich vertrauenserweckend aussah...
Du hattest vorher 3 und jetzt nur noch einen Stromstecker??? Also ich würde da schon an's Testament denken...:D

Gruß
 
Du willst es nicht verstehen.
Nein, du willst es nicht verstehen.
Ein für 600W spezifiziertes Kabel das nur 660W leistet ist ein massives Downgrade gegenüber den 8pin Kabeln, weil ein paar € gespart werden sollen.
Das ist inakzeptabel, egal was du denkst

Ich sehe zwar weder einen 3D Mark noch welche GPU läuft aber ok du hast zumindest einmal 600W drin gehabt.
Welche GPU zieht denn sonst 600W?
Selbst eine 79xtx kommt nicht so hoch.
Und wo soll das denn sonst gewesen sein? In Assassin's Creed 1 oder was?
Jag halt deine 4090 mal durch und schau nach was die frisst.

Wenn das über den ganzen Bench geht wäre das in der Tat bedenklich, ist das aber nur ein kurzer Zeitraum, wird das kaum eine Rolle spielen.
Oh man... Es pendelt halt hin und her, unter 500W sieht man aber nicht. Ehr so 550W-580W inkl peaks auf 600W

Das der Stecker insbesondere im Anbetracht was die min. Requirements für die Bauteile ziemlich nah an den zulässigen freigegebenen Leistung des Steckers sind darf man auch kritisieren. Denn das erfordert eine sehr niedrige Toleranz für Abweichungen, die wir bei solchen Steckern vermutlich nicht sehen werden. Selbst jetzt sehen wir ja das Ergebnis dass zeigt, dass die Fehlerrate für die Stecker vgl. hoch ist, das kann auch für keinen weder Hersteller noch Konsumenten von Interesse sein.
Da sind wir ja doch einer Meinung.

Aber man sollte aufhören irgendwelche Dinge hineinzudichten die so eben nur Halbwahrheiten sind.
Was für hineindichten?
Der Stecker soll 600W können und hat damit nur einen Sicherheitspuffer von 10% was deutlich weniger als der 8pin ist. Das ist ein Fakt den du auch bestätigst.
 
Zuletzt bearbeitet:
Nein, du willst es nicht verstehen.
Ein für 600W spezifiziertes Kabel das nur 660W leistet ist ein massives Downgrade gegenüber den 8pin Kabeln, weil ein paar € gespart werden sollen.
Das ist inakzeptabel, egal was du denkst
Blöd nur dass du mit 450W auch 3x8 Pin nehmen darfst und sogar im Worst Case sogar nach Spec schlechter dastehen kannst.
Aber da du auf den 600W so rumreitest liefer doch bitte mal GPUs welche für 600W spezifiziert ist.
Welche GPU zieht denn sonst 600W?
Selbst eine 79xtx kommt nicht so hoch.
Und wo soll das denn sonst gewesen sein? In Assassin's Creed 1 oder was?
Jag halt deine 4090 mal durch und schau nach was die frisst.
Hab nur ne 4080 und habe die extra mal voll aufgedreht und da kommt max. genau das raus was ich freigeben darf was 352W sind. Bin aber überrascht dass es anscheinend Karten gibt die über 30%+ Powerlimit erlauben.
Oh man...


Da sind wir ja doch einer Meinung.


Was für hineindichten?
Der Stecker soll 600W können und hat damit nur einen Sicherheitspuffer von 10% was deutlich weniger als der 8pin ist. Das ist ein Fakt den du auch bestätigst.
Hineindichten heißt: Der Stecker ist mist weil er nur 1,1 Sicherheitsfaktor hat. Nur dass das erstmal völlig egal ist. Niemand muss den Stecker voll ausreizen und bisher hat Nvidia das auch nicht. Nur weil eine Spec das erlaubt muss man es nicht machen. Und wenn die aktuelle Sicherheitsmarge ein solches Problem wäre dann könnte man einen Testaufbau aufsetzen der reproduzierbar ein schmoren verursacht. Dass bisher aber niemand sowas erreicht hat lässt sich das als Ursache wohl ausschließen.
Das wir aber immer wieder solche Fälle sehen muss untersucht werden. Evtl reicht es das QM zu verbessern evtl sind die Fehler aber auch nicht einfach abstellbar womit dann auch die Sicherheitsmarge nach oben muss. Sowas lässt sich aber Pauschal nicht vorhersagen.
 
Blöd nur dass du mit 450W auch 3x8 Pin nehmen darfst und sogar im Worst Case sogar nach Spec schlechter dastehen kannst.
Aber da du auf den 600W so rumreitest liefer doch bitte mal GPUs welche für 600W spezifiziert ist.
Nein, 3x8pin gibts schon bei 6900xt Modellen die irgendwas um die 350W haben. Zudem bieten 3x8pin sehr viel mehr Sicherheitsreserve.

Darum geht es aber doch garnicht. Der Stecker wurde nicht für 1 Generation erfunden oder soll man jetzt jede Gen den Stecker tauschen?
Es werden sicherlich noch GPUs kommen die 600W Stockleistung haben. Schau dir mal die steigerung von GTX10 über RTX20 bis RTX40 an. Wenn der trend so weitergeht braucht es bald ein 900W Stecker.

Hab nur ne 4080 und habe die extra mal voll aufgedreht und da kommt max. genau das raus was ich freigeben darf was 352W sind. Bin aber überrascht dass es anscheinend Karten gibt die über 30%+ Powerlimit erlauben.
Jup gibts, 33% eben. Bei der 4090 sind das sicher die TUF und STRIX Modelle (mit/ohne OC Version), die Gigabyte Gaming (OC) und AORUS. Sicherlich noch weitere, bei denen bin ich mir aber sicher.
Ich habe die TUF, bei der geht das wie gesagt:
1707078115912.png

Bei der 4080 müsste die Zotac Extreme mit eines der höchsten Powerlimits haben, hab mich damals diesbezüglich informiert, da ich anfangs nur eine 4080 wollte.
Wenn du entsprechend eine 4080 mit dickerem PL hättest, würdest du da auch auf mehr Watt kommen logischerweise.


Hineindichten heißt: Der Stecker ist mist weil er nur 1,1 Sicherheitsfaktor hat. Nur dass das erstmal völlig egal ist. Niemand muss den Stecker voll ausreizen und bisher hat Nvidia das auch nicht. Nur weil eine Spec das erlaubt muss man es nicht machen.
Das ist jetzt nicht dein Ernst oder?
C'mon, dass das eine lächerliche Aussage ist, weißt du selbst

Das wir aber immer wieder solche Fälle sehen muss untersucht werden. Evtl reicht es das QM zu verbessern evtl sind die Fehler aber auch nicht einfach abstellbar womit dann auch die Sicherheitsmarge nach oben muss. Sowas lässt sich aber Pauschal nicht vorhersagen.
Bin ich deiner Meinung
 
Nein, der Sicherheitsfaktor beträgt 1,1 bis 1,5 je Nachdem wie die Kabel ausgelegt sind.
Der Sicherheitsfaktor zur maximalen Leistungsaufnahme innerhalb der Spezifikation. Dort sind weitere Sicherheitsfaktoren eingeplant, die über die Spezifikation hinausgehen, oder denkst du das Teil explodiert, wenn kurz mehr wie 600 Watt über den Stecker laufen?...
Beim 8pin sind es 1,9 bis 2,5.
Das ist schon ein gewaltiger Unterschied.
Die Rechnung ist schlicht und ergreifend so blödsinnig.
Natürlich habe ich innerhalb der Spezifikation der Kabel einen größeren Sicherheitsfaktor, wenn ich satte 4 Stecker verbaue. Aber das ist doch kein sinnvoller Vergleich.
Es geht doch gerade darum nur noch einen Stecker zu verwenden, wo vorher 3x 8 Pin nötig waren bzw. nimmt man es genau 4x 8 Pin.
Ich kann auch 6x 8 Pin verbauen und dann über einen Sicherheitsfaktor reden.
Nur brauche ich das einfach nicht.
Wie schon gesagt wurde: Billiger muss es werden. Kunde kauft für 2000€ eine GPU und am Kabel wird 1€ gespart.
Das ist einfach absolut inakzeptabel und dreist.
Es ist einfach falsch was du schreibst.Da wird nicht nur 1 Euro gespart.
Und wo soll das Problem liegen, alles bis 600 Watt liegt in der Spezifikation und bietet genügend Sicherheitsfaktor, der immer außerhalb der Spezifikation draufgerechnet wird. Wozu soll ich einen Arsch voll Kabel verbauen, wenn das gar nicht nötig ist.
Quelle: Roman Hartung
Ich kann auch auf einer 3050 6GB nen 8 Pin Connector verbauen, weil mir der Sicherheitsfaktor der übers Mainboard laufenden Stromversorgung unsympathisch ist. Bringen tut's trotzdem nichts und machen tut's auch keiner.
Sinnwidrig.
Tut mir leid, aber ich kann beim besten Willen nicht verstehen wie man diesen Stecker verteidigen kann.
Wie konnte man dann 15 Jahre lang auf 300 Watt Karten nur 2x 8 Pin verbauen.
Hatte doch kaum Sicherheitsfaktor...:rollen:
Er hat gerade mal einen Sicherheitsfaktor von 1,1.
Nein, das hängt davon ab, welche Karte du damit betreibst. Wenn wir schon bei dieser Grundschulrechnung bleiben. Hängst du eine 4070 Super dran, liegt der Sicherheitsfaktor zur max Spezifikation bei knapp Faktor 3.
Hängst du eine stark übertaktete 4090 ran und reizt die Spezifikation aus, hast du immer noch genügend Spielraum, da der Stecker im Notfall auch 1500 Watt aushalten kann. Siehe Gamers Nexus. Da ist nichts auf Kante genäht.
Auch der 8 Pin verträgt elektrisch deutlich mehr als spezifiziert ist und dennoch würde jeder abraten das dauerhaft so zu betreiben.
Und es geht hier um einen verdammten Stecker für ein paar € an dem gespart wurde. Da gibts nicht zu verteidigen.
Doch, wenn die Kritik inhaltlicher Bullshit ist, muss man das verteidigen.
Wo blieb denn die Kritik bei den 200 Watt 4070 Karten mit nur einem 8 Pin?
Da ist nach den alten Standards noch weniger Sicherheitsfaktor drauf. Interessiert aber niemanden. Und daran merkt man es. Es geht nur um Clickbaiting.
Und dass der Sicherheitsfaktor gerade mal 1,1 beträgt, wie du selbst geschrieben hast, ist nunmal ein Fakt.
Das hängt davon ab was ich an den Anschluss hänge.
Es ist überhaupt kein Problem die Spezifikation mit OC auszureizen.
Man könnte auf einer RTX Titan auch 2 von den Steckern verbauen, dann kann man sich mit Sicherheitsfaktoren gegenseitig erschlagen.

Oder dann 5 oder 6 8 Pin. Nur wozu?
 
Zuletzt bearbeitet:
Zurück