News 12V-2×6: AMD und Intel experimentieren mit neuen Steckern

Mit PCIe 5.1 hat das ganze natürlich nichts zu tun.
Der neue 12v-2x6 Stecker sieht dem alten 12VHPWR oder auch oft, fälschlicherweise als PCIe-Stecker bezeichnet, sehr ähnlich. Würde mich nicht wundern, wenn beide Stecker kompatible sind.
Sind kompatibel, das war auch beabsichtigt, um Adapter zu vermeiden.
Der 12V-2x6 ist ein minimal verbesserter 12VHWPR. Hätten das Ding also bspw. auch als 12VHWPR v2 nennen können, aber weil der Ruf schon ruiniert war, hat man sich wohl für die Umbenennung entschieden.
 
Kann mich wegen des 12VHPR Steckers nicht beschweren. Funktioniert bei mir ohne Probleme.
Da ging mir der 6+2 PCIe Stecker mehr auf die Nerven wenn man die vollen 8 pins gebraucht hat und die 2 pins nicht so wollten wie ich.
 
..., was wiederum an nicht ganz eingesteckten Steckern lag und letztlich zu schmelzenden Kunststoffen führte

in 2024 nachdem Gamers Nexus nochmal ein 1h Video rausgehauen hat, wie schrottig dieser Stecker immer noch ist ?

Sorry Leute, einfach was vom neuen Gerücht von Steckern bei AMD & Intel berichten anstatt sowas ohne jede Art von Recherche (persönliche Empfindung) vom Stapel zu lassen.

Der Stecker ist Müll. Ihr schiebt es mit der Aussage auf die User. Den DAU wird es immer geben. Aber das ändert doch nichts an der Tatsache der Stecker-Fehlgeburt selbst.

Es gibt Gründe warum Intel & AMD ihn nicht nutzen. Ganz einfach.
 
Warum nicht wie im PKW zwei Stehbolzen auf der Karte (M4/5) am Netzteil dann einen Ringschuh und jut is.

Oder wie in der Waschmaschine mit Flachstecker auch die Silikonkabel und Kabelschuhe funktionieren da gut.

Verstehe den ganzen Micro-Crimp-Deluxe Quatsch nicht, wenn es auch einfacher und billiger geht... :ka:
Die Leute sind ja schon zu blöd einen Stecker ordentlich reinzudrücken und du kommst mit Kabelschuhen? XD
 
Die Leute sind ja schon zu blöd einen Stecker ordentlich reinzudrücken

Genau sowas verhärtet sich dann in den Köpfen der User.
Da wird Nvidia noch verteidigt.

Die größten & längsten Grakas aller Zeiten. Aber hauptsache der Stecker ist super kompakt und wie groß dann der Hinterhof Adapter samt Tape ausfällt, ist ebenfalls egal.

An Ironie eigentlich nicht zu toppen.
 
Aber hauptsache der Stecker ist super kompakt und wie groß dann der Hinterhof Adapter samt Tape ausfällt, ist ebenfalls egal.
das lag an schlecht gefertigten adaptern und nicht wirklich an nvidia ;).

die sind genormt und wurden so abgenommen von der SIG.

meine 4070 Ti (non-S) hat keine Probleme und das ding wird nichtmal handwarm bei avatar fop in wqhd ... also wo ist das problem.

wer seine 4090 ungezügelt laufen läßt, sollte wissen was er tut.
 
Ich gehe dem Schrott so lang wie möglich aus dem Weg.
Selbst wenn ich wohl selbst nie eine 4090 im Rechner haben werde. (sinnfrei zu teuer)

Ein ~1800€ Karte samt Hinterhof-Adapter für eine Graka dessen Stecker "stock" abschmorren kann, ist ok ?

"mir doch egal, ich hab eine 4070 Ti" ... aha

Ich kann dieses "shut up an take my money" Verhalten nicht mehr nachvollziehen.
Viel Spaß mit den Karten. Ich freue mich auf andere Stecker und werde definitiv diese Karten bevorzugen.

Hab eine 4070 im Rechner. Natürlich mit 8pin. Könnte meine letzte Nvidia sein.

Mega Gau: der neue/andere Stecker für AMD / Intel hat am Ende wieder den 12VHPWR um diesen ins Netzteil zu stecken ?

Dann muss ich wohl für paar Jahre auf Retro Gaming ausweichen (wenn die 4070 zu schwach wird)
 
Warum hacken eigentlich alle auf Nvidia Rum?
Wer hat den Stecker entwickelt? Richtig die PCI-SIG. Und wer ist Mitglied bei der PCI-SIG? Nicht nur Nvidia sondern auch AMD und Intel also haben sie genau so Aktiv am 12VHPWR mit gewirkt. Nvidia ist nur der blöde der ihn zu erst eingesetzt hat. Und ich lege meine Hand dafür in das Feuer das AMD und Intel den 12V-2x6 auch in der nächsten Gen nutzen werden.
 
Naja ganz so schlimm wie hier alle tuen ist der Stecker nun auch nicht.
Aber er hat weniger Sicherheitsreserven als der alte Mollex was schonmal schlecht ist für ein Endanwender Produkt.
Durch die neuen Großen Karten wurde er viel häufiger nahe des Terminals gebogen. (Das mag der alte Molex auch nicht so).
Defekte Adapter von Nvidia und CableMod haben die sache nicht besser gemacht.
Es kamen also viele Faktoren zusammen. Die lösung mit einfach 2 EPS Steckern finde ich eigentlich wirklich am besten gerne auch 3 falls man der Meinung ist man braucht 1KW GPUs-
 
Nvidia ist nicht (alleine) für den Mist verantwortlich..aber weil nur Nvidia die Stecker verbaut hatte denken alle an Nvidia ...und zu lasten von Nvidia kommts halt noch dazu dass ihre Grafikkarten gottlos groß sind das man teilweiße keine andere möglichkeit Hatt als die Kabel zu biegen ...und das liegt wirklich alleine an Nvidia ..
 
Der Stecker ist Müll.
Stimmt, deswegen sind die Foren dieser Welt auch am überquellen vor lauter Meldungen, alleine bei PCGH gibt es ganze, lass mich kurz schauen, 0 Meldungen. Wahnsinn.

1729236163504.png


Das Thema wurde damals völlig unnötig viel zu heiß hochgekocht. Dann gab es noch den Fail von CableMods und seitdem ist völlig ruhe.
 
Sind kompatibel, das war auch beabsichtigt, um Adapter zu vermeiden.
Der 12V-2x6 ist ein minimal verbesserter 12VHWPR. Hätten das Ding also bspw. auch als 12VHWPR v2 nennen können, aber weil der Ruf schon ruiniert war, hat man sich wohl für die Umbenennung entschieden.

Der Text im Artikel ist aber dazu sehr schlecht:

Während sich Nvidia festgelegt hat, bei Geforce-Grafikkarten den 12VHPWR-Stecker in seiner verbesserten Form zu verwenden, experimentiert man laut einem Bericht bei AMD und Intel mit neuen 12V-2×6-Steckern.

Das klang eher so, als würde AMD, den verbesserten 12VHPWR Stecker auch nicht benutzen wollen und 12V-2x6 etwas ganz anderes ist.

Zur Klarstellung, der 12VHPWR v2 Stecker ist also der 12V-2x6 Stecker !
 
100A bei max 65V reichen? https://www.ti.com/product/LM5143 (ist nur ein Beispiel....)
Wenn du mit den Dingern (die von 0,6 bis 55V Ausgang ne Riesenrange haben) eine stabile und im Millivoltbereich regelbare Ausgangsspannung von ca 1V hinkriegst...

Ich würde eher drauf tippen dass man da zweistufig erst von 48 auf 12 und dann von 12 auf 1 runter müsste - oder eben mittelfristig speziell dafür ausgelegte Komponenten entwickeln müsste die die 48V Eingang direkt in "GPU taugliche" saubere 1V runterbrechen können. Vielleicht gibts sowas auch schon, ich bin in dem Thema nicht besonders gut belesen.
 
Also in Zeiten in denen wir auf Energieeffizienz bezüglich des Umweltschutzes schauen, finde ich die Entwicklung der Grafikkarten (mehr FPS durch immer höheren Verbrauch) mehr als fragwürdig. Dann lieber kleinere Sprünge, mehr durch Architektur und Technik, als durch die Wattkeule.

just my 2 cents
 
Also in Zeiten in denen wir auf Energieeffizienz bezüglich des Umweltschutzes schauen, finde ich die Entwicklung der Grafikkarten (mehr FPS durch immer höheren Verbrauch) mehr als fragwürdig. Dann lieber kleinere Sprünge, mehr durch Architektur und Technik, als durch die Wattkeule.

just my 2 cents
Die 4090 ist Stock die Effizienteste Karte auf dem Markt was FPS pro Watt angeht. Also eigentlich ist Nvidia sogar genau richtigen weg gegangen.
Gut dazu sei gesagt mit etwas UV bzw. einem Niedrigeren takt allgemein wird die Karte nochmals Effizienter.
Eine 250 Watt 4090 ist laut meinen (nicht 100% akkuraten test immer noch schneller als eine 4080 @ default) und eine 7900xtx.
 
Also in Zeiten in denen wir auf Energieeffizienz bezüglich des Umweltschutzes schauen, finde ich die Entwicklung der Grafikkarten (mehr FPS durch immer höheren Verbrauch) mehr als fragwürdig. Dann lieber kleinere Sprünge, mehr durch Architektur und Technik, als durch die Wattkeule.

just my 2 cents
Wer schaut da bitte drauf? Siehe auf den straßen welche gefährte da herumfahren...
 
Zurück