News 12V-2×6: AMD und Intel experimentieren mit neuen Steckern

Stimmt, deswegen sind die Foren dieser Welt auch am überquellen vor lauter Meldungen, alleine bei PCGH gibt es ganze, lass mich kurz schauen, 0 Meldungen. Wahnsinn.

Anhang anzeigen 1472395

Das Thema wurde damals völlig unnötig viel zu heiß hochgekocht. Dann gab es noch den Fail von CableMods und seitdem ist völlig ruhe.
In Anbetracht dessen das hier bei PCGH, oder auch bei Computerbase, sehr viele Leute eine 4090 nutzen, liest man diesbezüglich wirklich kaum bis gar nichts.
Ich finde es dennoch gut das man diesbezüglich so umfangreich berichtet hat, dass Nvidia mit einer Anpassung darauf reagiert hat zeigt auch das da was nicht stimmt.
Sicherheit ist extrem wichtig, wer dahingehend fahrlässig konstruiert hat meiner Meinung keinen Grund zu meckern.
 
Also in Zeiten in denen wir auf Energieeffizienz bezüglich des Umweltschutzes schauen, finde ich die Entwicklung der Grafikkarten (mehr FPS durch immer höheren Verbrauch) mehr als fragwürdig. Dann lieber kleinere Sprünge, mehr durch Architektur und Technik, als durch die Wattkeule.

just my 2 cents
Mir wäre es zwar auch lieber, wenn die Leistungaufnahme nicht immer weiter steigen würde, aber man muss nicht die 400-500W Monster kaufen. Man kann sich bewusst für ein kleineres Modell mit geringerer Leistungsaufnahme entscheiden - bei welchem man zudem noch Undervolting betreiben kann.
Vorteil: Man spart Geld bereits beim Kauf.

Solange sich die großen Modelle mit steigender Wattzahlen (gut) verkaufen, wird dieser Markt auch weiterhin bedient.
 
Das Thema wurde damals völlig unnötig viel zu heiß hochgekocht.
"BRAND-AKTUELL" und immer noch Schrott:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Man könnte den 12vhpwr auch einfach auf maximal 300W herabspezifizieren und hat die Problemlösung parat. Zwei Stecker sind imho auch noch in Ordnung. Das einzige Problem ist halt, dass der Stecker an sich halt nicht sooo durchdacht ist, schaut man sich mal Platzverhältnisse in modernen PCs an. Da ist der 8pin doch deutlich besser, was Biegeradien angeht.

Warum nich gleich nen 12-pin mit den Größenverhältnissen (Fachwort ist mir gerade entfallen) des 8-pin? also Pinstärke, Kabelstärke, etc. etc.? Oder man überarbeitet halt mal die GPUs und lässt sie eben weniger ziehen. Oder der Stecker wird halt woanders hin verlegt: An die Stirnseite der GPU. Damit haste genug Platz, solang du nicht unter matx gehst.
 
Warum nich gleich nen 12-pin mit den Größenverhältnissen (Fachwort ist mir gerade entfallen) des 8-pin? also Pinstärke, Kabelstärke, etc. etc.?
Es könnte eigentlich recht einfach sein.
Den dann noch auf 500W freigegeben - Problem solved.

Ich warte eigentlich auch drauf, das eben sowas in der Richtung passiert.

Allein schon die Anschaffung für ein Netzteil.
Ich will diese Stecker im besten Fall komplett umgehen.

allein folgende Tatsache:

8pin (der gute mit richtigem Pinabstand & Stärke) ist für 150W freigegeben.
"eines einzelnen 8-poligen PCIe-Kabels und -Anschlusses 12,5 A, also 150 W (+12 V x 12,5 A)"

2x 8pin (also 16!!) würden 300W versorgen dürfen.

Wie kann dann ein popeliger Stecker mit 12pins für 600W freigegeben sein.
Diese Tatsache alleine steckt den ganzen Quatsch in Frage.

Ein 12pin der bis 600W freigegeben sein sollte, müsste daher einen größeren Pinabstand sowie Stärke haben + Querschnitt der Litzen.

Ganz grob & Milchmädchen mäßig naiv kann hier eigentlich niemand widersprechen.

Die einzige Frage warum der Stecker von einem "Gremium aus Experten"
Wer hat den Stecker entwickelt? Richtig die PCI-SIG.
so grob fahrlässig auf die Gamer losgelassen wurde und NUR Nvidia sich denkt: ach wird schon passen.
Den Adapter lassen wir zusätzlich in irgend einer Hinterhofklitsche machen. What can go wrong ?!

WHY ?! PCI-SIG ... WHY ?! NVIDIA ?! ...
 
Es könnte eigentlich recht einfach sein.
Den dann noch auf 500W freigegeben - Problem solved.

Ich warte eigentlich auch drauf, das eben sowas in der Richtung passiert.

Allein schon die Anschaffung für ein Netzteil.
Ich will diese Stecker im besten Fall komplett umgehen.

allein folgende Tatsache:

8pin (der gute mit richtigem Pinabstand & Stärke) ist für 150W freigegeben.
"eines einzelnen 8-poligen PCIe-Kabels und -Anschlusses 12,5 A, also 150 W (+12 V x 12,5 A)"

2x 8pin (also 16!!) würden 300W versorgen dürfen.

Wie kann dann ein popeliger Stecker mit 12pins für 600W freigegeben sein.
Diese Tatsache alleine steckt den ganzen Quatsch in Frage.

Ein 12pin der bis 600W freigegeben sein sollte, müsste daher einen größeren Pinabstand sowie Stärke haben + Querschnitt der Litzen.

Ganz grob & Milchmädchen mäßig naiv kann hier eigentlich niemand widersprechen.

Die einzige Frage warum der Stecker von einem "Gremium aus Experten"

so grob fahrlässig auf die Gamer losgelassen wurde und NUR Nvidia sich denkt: ach wird schon passen.
Den Adapter lassen wir zusätzlich in irgend einer Hinterhofklitsche machen. What can go wrong ?!

WHY ?! PCI-SIG ... WHY ?! NVIDIA ?! ...
Najaa, hätte man die Stecker so gemacht, wie es hätte sein sollen, hätte das bestimmt schon viele vor dem Verschmoren bewahrt. Deshalb auch keine 500W sondern 300W. Laut genau diesem Timestamp an diesem Video vom Roman kann man die Unterschiede sehen. Deshalb auch die 300W, was immerhin genug wäre, um bei 600W noch immer mit zwei Steckern auszukommen und dennoch ausreichend Reserven über lässt, um es wirklich sicher zu machen.

Um es aber auch nochmal anzusprechen: Hin oder her wie die gefertigt sind: Diejenigen, die solche unsauber gefertigten Stecker auf Karten bringen und das nicht mal gegenchecken, gehören eigentlich dafür zur Rechenschaft gezogen. Wer also? Richtig, die Boardpartner und halt auch NV selbst, wenn solche out-of-Spec-Stecker bei denen verbaut werden. Igor hatte ja auch bereits berichtet, dass viele Dinge zuerst wohl gar nicht spezifiziert wurden, was ich gar nicht nachvollziehen kann. Und dann werden die Dinger doch ganz anders gefertigt? Also bitte.

Um damit nochmal auf den eigentlichen Punkt zurückzukommen: Deshalb 300 statt 500 Watt als Maximum. Damit man sämtliche Fehler, die begangen wurden, da mal aus der Formel heraus bekommt.
 
Zurück