News Nvidia Geforce RTX 5000: Blackwell schon wieder mit neuen Stromsteckern?

Wenn das so weitergeht, kann Nvidia bald beim Steckerchaos von USB mithalten :schief:
AMD und Intel tun gut daran, sich dem Wahnsinn nicht anzuschließen, die beobachten das aus Zweiter reihe und kichern leise vor sich hin...
 
Alle guten Dinge sind 3. Das es am Ende doch wieder über Adapter funktionieren muss, ist aber auch Klar. Weder AMD noch Intel wollen den -zurecht- bewerten 8Pin ersetzen.
 
So lange man auf dem Molex MicroFit Design bleibt, ist alles oberhalb von 450W "eng". Das zeigen die aktuellen Stecker und das wird auch der neue Standard nicht beheben können.
Was bedeutet in diesem Zusammenhang "eng" und wie kommst du zu diesem Schluss?
Ja und auch da häufen sich die Probleme aktuell eher auf den ASUS Derivaten.
Welche Zahlen hast du? In den Foren ist es ja total stumm.
 
Fortschritt bedeutet ja nicht zwingend immer Mehrleistung.
Mir würde eine schöne, überarbeitete Sapphire RX 7900XTXH genügen. Gleiche Leistung aber mit nur 2 Quirlen, kürzerem PCB und einem max. Verbrauch von 250W. Das nenne ich mal ECHTEN Fortschritt.
Gruß T.
Nun ja es geht um Rechenleistung also mehr Fps erfordern mehr Rechenleistung, das ist Fortschritt, der Rest ist nur nettes Beiwerk denn eine Karte die jahrelang auf 50 Watt optimiert wurde bringt mir nichts wenn sie nur 30 fps schafft.

Rdna 4 wird dir Rx7900Xt Leistung +10% bei 250-260 Watt liefern, das ist realistisch. Mir ist es egal was kommt, ich bin gerade sehr zufrieden und habe nicht vor die nächste Generation mitzunehmen.

Nimmt man jede Generation mit, bestätigen wir nur diese absurden Preise noch weiter. Aber 2024 geht es eh bergab nicht nur in diesem Sektor.
 
Welche Auswüchse? Es ist doch nun schon sehr lange bekannt, dass der Stecker ein Update erfährt.
Im Sommer 2023 war das bekannt.

Diese News hier ist vom Juli 2023. Seit wann beschwert man sich über Verbesserungen?
https://www.pcgameshardware.de/Graf...-2x6-ersetzt-12VHPWR-Stromversorgung-1423467/
Und es wird garantiert nicht das letzte Update sein. Wie oft musste denn der alte 6/8 Pin überarbeitet werden? Will da aber auch nicht weiter drauf herumreiten. War wie schon gesagt anfangs Murks, ansonsten würde nicht schon über die 3. Version nach etwas über einem Jahr spekuliert werden.
 
Nur weil ein paar Daus zu blöd waren/sind ist nVidia nun gezwungen den Stecker zu ändern. So wird eher ein Schuh draus.

Das waren keine DAUs, sondern durchaus normale Nutzer. Das ganze konnte potentiell jedem passieren. Bei dir hat es funktioniert - freu dich - bei anderen gab es Probleme. Warum gibt es eigentlich immer das Bedürfnis die Schuld (die in dem Fall niemanden trifft) beim Opfer (in dem Fall dem Kunden) abzuladen?

Intel und AMD behalten nicht ohne Grund den traditionellen Stecker bei.

Die klassischen 8 oder 6 PIN Stecker haben sehr hohe Toleranzen, die sehr weit über die tatsächliche Leistungsaufnahme von 150 Watt pro Stecker hinausgehen.

Nvidia dachte sich, dass diese Toleranzen herabgesetzt werden könnten, und verbaute daher einen neuen Stecker. Dieser Stecker ist aber überdurchschnittlich fehleranfälliger als die klassischen Stecker.

Besser wäre es die alten Stecker beizubehalten und die Toleranzen zu akzeptieren.

Der 8 Pin PCIe Stecker war von Beginn an eine Ressourcenverschwendung (die Umwelt liegt dir doch so am Herzen) und außerdem brauchte es sowieso mal moderne Funktionen. Von daher war ein neuer Standard überflüssig. Ich persönlich hätte einfach den 4 und 8 Pin EPS für Grakas verwendet, aber man kann auch etwas neues Designen.

Scheint ja gut zu laufen, bei den vielen News überall.

Aber warum überhaupt ?

never change a running system.

Klar, dann hätten wir aber noch beim alten AT Standard bleiben müssen, statt 1997 auf ATX umzusteigen. USB wäre auch Teufelszeug, es lebe die Parallele Schnittstelle. Dann hätte man noch beim uralten 8 Bit ISA Bus bleiben müssen - never change a running system.

Das wäre allerdings dann irgendwann doch sehr begrenzt gewesen, besonders bei 8Bit ISA würden die 0,96MB/sec bei einer RTX 4090 doch eine gewisse Grenze darstellen...

Denn ich wette darauf, dass in Kürze Netzteile ohne 8-PIN PCIe Kabel auf dem Markt sein werden.

Da halte ich dagegen, das wird noch dauern. Solange AMD und Intel noch Karten anbieten, die den Stecker noch nicht haben, wäre das sowieso Selbstmord für den Netzteilhersteller. Dann wird noch eine Mehrjährige Übergangsphase stattfinden und dann wird man sich den alten 8Pin noch zusenden lassen können.

Bis wir die ersten Netzteile ohne 8Pin sehen werden, dürften noch weit über 5 Jahre vergehen, eher Richtung 10.

Echt jetzt?

Ich meine, ich kann den Wunsch nach einem Stecker für alles ja nachvollziehen! Allerdings ist das NV Marketing echt schlecht, wenn sie jetzt meinen, dass die Umbenennung des Steckers marketingtechnisch noch irgendwen abholt (außer unseren guten Blackvodoo). Generell fühlt sich die Steckernorm gerade so ein bischen an wie die USB-3 Welt, irgendwie heißt alles gleich und man braucht ein Examen um den Unterschied feststellen zu können.

In meinen Augen kann Nvidia da machen was sie wollen (und mittlerweile sehe ich dann auch Nvidia als verantwortlich); der Standard bleibt auf Kante genäht und um Ende russisches Roulette. So lange man auf dem Molex MicroFit Design bleibt, ist alles oberhalb von 450W "eng". Das zeigen die aktuellen Stecker und das wird auch der neue Standard nicht beheben können.

Wenn Sie es wenigstens schaffen würden, den Stecker mit einer "geplanten" Abschaltvorrichtung zu versehen (CableMod Prototyp bei Igor) wäre die Messe wahrscheinlich gelesen und da es nunmal nur in Ausnahmefällen dazu kommt, wäre somit alles sicher und niemand würde mehr irgendwas melden können. Allerdings würde man damit dann eingestehen, dass der Standard gescheitert ist,

Die allermeisten Leute interessiert das nicht. Die sind nicht in Enthusiastenforen unterwegs, sondern einfach zufrieden, wenn ihr PC läuft, wie er soll. da die Schäden von der Garantie abgedeckt sind, schlägt das auch keine hohen Wellen.

Einfach den Stecker verbessern und in zwei Jahren wird sowieso kaum jemand drüber reden.

Ich bin da eher bei Fertigrechnerherstellern. Und die sparen an jedem Cent. Darum also Netzteile mit mehr als einem 12V-2×6 bauen, wenn man damit alle Grafikkarten anschließen kann? Die Forderung wird kommen.

In Fertigrechnern gibt es auch teilweise keine 24 Pin ATX Stecker. Natürlich wird, wenn das Netzteil eigens konstruiert wurde, nur das verbaut, was auch genutzt wird. Es geht aber im Netzteile, die sich der Endkunde im Laden kaufen kann.

NVidia soll einfach mal wieder ordentliche, stromsparende Grafikkarten unter 300 Watt anbieten, so einfach ist die Lösung des Ganzen.
Eine Rückbesinnung auf die legendäre 1000er Ära und die Sache ist geritzt.

Die GTX 1080Ti hat den Strom auch zum Fenster rausgeheizt und 250W verbraucht, was damals am oberen Ende war. Zusätzlich hatte Nvidia keine ernstzunehmende Konkurrenz, heute ist das anders.

Dann gehörst du also zu der Sorte Käufer, der jedes Mal ohne mit der Wimper zu zucken auch für 50% Mehrleistung, 50% Mehrverbrauch dann auch bereitwillig 50% Aufpreis zahlt?
Dein Logik ist echt stumpfsinnig.
So funktioniert das in der Wirtschaft eben NICHT.
Das ist eine unsachgemäße Spirale einseitig in eine Richtung.
Man muss schon auf ein homogenes Gleichgewicht oder sogar eine Verbesserung hinarbeiten wollen.
Nur weil in einem Land der Sprit so billig ist, muss man ja nicht 30L-Autos als neuen Maßstab nehmen wollen, nur weil man es kann.
2016 haben wir uns über 250W Klopper aufgeregt, dann kam der 350 Watt Klopper, nun der 450 Watt Klopper, nächstes Jahr vielleicht ein 550Watt Klopper.
Merkst du was?
Nur weil jemand dämlicherweise eine viel zu stromdurstige Grafikkarte für den Weltmarkt produziert, mus sja nicht der rest sich daran anpassen udn alles drum herum neu erfinden, damit die rechnung irgendwie wieder aufgeht.
Eigentlich mus ssich der Produkzenz, also NVidia, an die gegebenheiten anpassen, was vorhanden ist.

Es wird verkauft, was sich die Leute zulegen und die Leute kaufen nunmal hauptsächlich Nach Leistung und dem Preis. Wer sich eine High End Karte kauft, der will nunmal Leistung und die hat ihren Preis. Wenn Nvidia mit einer 600W Karte besser dasteht, als mit einer 300W Karte, dann wird der Stromverbrauch steigen, statt zu sinken.

Hubraum kann nur durch mehr Hubraum ersetzt werden. Ohne Treibstoff keine Power.

Dann kam der Turbolader...

Wenn das so weitergeht, kann Nvidia bald beim Steckerchaos von USB mithalten :schief:

Die alten Stecker werden einfach ausgemustert und das war es. Von daher gibt es da kein Steckerchaos.

AMD und Intel tun gut daran, sich dem Wahnsinn nicht anzuschließen, die beobachten das aus Zweiter reihe und kichern leise vor sich hin...

AMD wollte auch umsteigen und mußte das im letzten Moment ändern,. von daher kichern die eher nicht.
 
Was bedeutet in diesem Zusammenhang "eng" und wie kommst du zu diesem Schluss?
MicroFit ist in der höchsten Ausbaustufe bis 10,5A bei 30° Celsius getestet. Bei 6 Phasen würde dies unter ziemlich optimalen Bedingungen bedeuten, 63 A sind über die Steckkontakte möglich (wohlgemerkt, dass nur AWG 18 spezifiziert ist und damit wohl sogar nur 8 A (also nur 48 A in Summe) möglich sein sollen); bedeutet bei 12V sind 756Watt möglich; wohlgemerkt bei 30°Celsius. Nimmt man mal Umrechnungsfaktoren für Temperaturverhältnisse nach DIN VDE 0298-4:2013-06 hinzu (wohlgemerkt geht es hierbei eigentlich um Kabel); kann man bei 60° Umgebungstemperatur (was an dem Stecker wohl leicht erreicht wird mit einem Umrechnungsfaktor von 0,8 (ca.) rechnen, damit bleiben noch 604,8W!

Bei 600W Spezifikations sieht man wie eng das ganze sein kann, abseits eines offenen Gehäuseaufbaus, wo man die Temperaturen vieleicht im Griff hat. Das schlimme an der Sache ist ja, je höher die Temperatur, je höher der Widerstand und je schneller steigt die Temperatur, Teufelskreis.

Ja, das Kabel kann sicher 600W liefern, ist aber im Gegensatz zu vorherigen Standards ziemlich auf Kante genäht, was ganz sicher (in meinen Augen) mit dem Microfit Standard zusammenhängt, der eben den Platz zwischen den PINs zusätzlich stark vermindert.

Welche Zahlen hast du? In den Foren ist es ja total stumm.
Keine absoluten, denke diese gibt es nicht. Aber relativ betrachtet gab es diese Menge an News und Meldungen einfach nicht. Auch die alten Molexstecker konnten abrauchen, aber bei der Vielzahl an Kabeln ist nicht einmal im Ansatz soviele Meldungen vorhanden und der alte Molex ist eben seit wievielen Jahren Standard und demnach in einer hohen Vielzahl an Rechnern verbaut.

Die allermeisten Leute interessiert das nicht. Die sind nicht in Enthusiastenforen unterwegs, sondern einfach zufrieden, wenn ihr PC läuft, wie er soll. da die Schäden von der Garantie abgedeckt sind, schlägt das auch keine hohen Wellen.
Wobei die Käufer einer solchen Karte sicherlich viel häufiger (relativ) im Enthusiastenbereich unterwegs sind als mit Karten der Region 4060/4070.

Einfach den Stecker verbessern und in zwei Jahren wird sowieso kaum jemand drüber reden.
Wie gesagt, sehe ich da technisch betrachtet keine Option. MicroFit ist der Fehler und man hat nur die Möglichkeit die Spezifizierung runterzusetzen, 400W wären sicher kein Problem und auch bei extrem hohen Temperaturen stabil machbar. Aber mit 600W wüsste ich keinen Ansatz (außer Abschaltautomatik) wie es jemals gehen soll.
 

Nvidia Geforce RTX 5000: Blackwell schon wieder mit neuen Stromsteckern?​

Na aber Hallo wird ja mal Zeit....hat ja lang genug gedauert! Ich hab ne AMD Karte gekauft weil ich auf GPU-Stromstecker als Ein-PIN verfahren im Bananenformat Warte! Auch im gleichen Durchmesser.

Meine Erste Idee, einfach nen Kaltgerätestecker (also Schuko bei uns), hinten aus der Grafikkarte zu führen Ist noch zu früh. Die GPUs haben noch nicht genug Leistung und Bild-Skallierung-KI-Gedöns hat die Entwicklung dahin schon noch mal Gebremst...!
 
Zitat:Es handelt sich jedoch noch nicht um die endgültigen Spezifikationen und das finale Design, sondern erst einmal um einen Teil des unveröffentlichten Entwurfs

So schnell wird man zum Hardware beta tester🤮
 
Nimmt man mal Umrechnungsfaktoren für Temperaturverhältnisse nach DIN VDE 0298-4:2013-06 hinzu (wohlgemerkt geht es hierbei eigentlich um Kabel); kann man bei 60° Umgebungstemperatur (was an dem Stecker wohl leicht erreicht wird mit einem Umrechnungsfaktor von 0,8 (ca.) rechnen, damit bleiben noch 604,8W!.
Wie du richtig sagst geht es bei dieser Rechnung um Kabel. Der Stecker ist bis 105 Grad spezifiziert. Deine Rechnung ist somit nicht korrekt. Die Kabel müssten sich um mehr als 30 Grad gegenüber der Temperatur im Gehäuse erhitzen. Davon ist man weit entfernt. -> Kein Problem.
Bei 600W Spezifikations sieht man wie eng das ganze sein kann, abseits eines offenen Gehäuseaufbaus, wo man die Temperaturen vieleicht im Griff hat.
Dafür sehe ich keine Anhaltspunkte. Woher nimmst du dein Wissen?
Das schlimme an der Sache ist ja, je höher die Temperatur, je höher der Widerstand und je schneller steigt die Temperatur, Teufelskreis.
Wer hat Temperaturen die dies zeigen gemessen?
Ja, das Kabel kann sicher 600W liefern, ist aber im Gegensatz zu vorherigen Standards ziemlich auf Kante genäht,
Ich kann dir nicht folgen.

Auch die alten Molexstecker konnten abrauchen, aber bei der Vielzahl an Kabeln ist nicht einmal im Ansatz soviele Meldungen vorhanden
Von welchen Meldungen sprichst du? Es existieren selbst weltweit kaum Fälle, Deutschlandweit nicht einmal zweistellig.
Wie gesagt, sehe ich da technisch betrachtet keine Option. MicroFit ist der Fehler und man hat nur die Möglichkeit die Spezifizierung runterzusetzen, 400W wären sicher kein Problem und auch bei extrem hohen Temperaturen stabil machbar.
Wer hat diese hohen Temperaturen denn gemessen? Seite?
 
Der 8 Pin PCIe Stecker war von Beginn an eine Ressourcenverschwendung (die Umwelt liegt dir doch so am Herzen) und außerdem brauchte es sowieso mal moderne Funktionen. Von daher war ein neuer Standard überflüssig. Ich persönlich hätte einfach den 4 und 8 Pin EPS für Grakas verwendet, aber man kann auch etwas neues Designen.
Du hast zu jedem Kommentar eine Meinung...Wir nennen das bei uns in der Region Vielredner.
 
Ich hoffe AMD und Intel bleiben bei den klassischen Steckern, die haben sich bewährt und funktionieren ohne Probleme.
Lol. Mal gegoogelt ? "melted pcie cable"

Ohne Probleme sieht für mich anders aus. :lol:

1708380668742.png
1708380717089.png
 
Wie du richtig sagst geht es bei dieser Rechnung um Kabel. Der Stecker ist bis 105 Grad spezifiziert. Deine Rechnung ist somit nicht korrekt. Die Kabel müssten sich um mehr als 30 Grad gegenüber der Temperatur im Gehäuse erhitzen. Davon ist man weit entfernt. -> Kein Problem.

Also wenn meine GPU bei 100°C Hotspot ist und meine CPU bei 93°C, steht! Dann zeigt mein Bi-Metall Thermometer im inneren des Gehäuses ein Luft Temp von etwa 35°C bei 20°C Raum.....
Die Kabel müssten sich um mehr als 70°C gegenüber dem Gehäuse erhitzen.

Aber weit entfernt ist richtig^^ Meine Kabel zur GPU bei 411Watt maxed out sind nur wenig wärmer als das Gehäuseinnere Laut Wärmebildkamera

Ich glaube wenn das Gehäuseinnere 100°C erreicht, bekommen wir schon Vorher ganz andere Probleme...
 
Intel und AMD behalten nicht ohne Grund den traditionellen Stecker bei.

Die klassischen 8 oder 6 PIN Stecker haben sehr hohe Toleranzen, die sehr weit über die tatsächliche Leistungsaufnahme von 150 Watt pro Stecker hinausgehen.

Nvidia dachte sich, dass diese Toleranzen herabgesetzt werden könnten, und verbaute daher einen neuen Stecker. Dieser Stecker ist aber überdurchschnittlich fehleranfälliger als die klassischen Stecker.

Besser wäre es die alten Stecker beizubehalten und die Toleranzen zu akzeptieren.

Gut auf den Punkt gebracht!

Die neuen 12VHPWR-Stecker sind kleiner und daher wird mehr Strom durch kleinere Kontaktflächen geleitet als zuvor. Das bedeutet, dass eine lockere Verbindung, z.B. durch einen falsch montierten Stecker, zu übermäßiger Hitzeentwicklung und in der Folge zu geschmolzenen Steckern führen kann.


Igor hatte zu den ganzen problemen ja auch schon mehrerer Videos gemacht, die sehr interessant sind.
Oder zuletzt auch bei Roman, der einen wirklich schockierenden Vorfall hatte, von Haus aus vom Hersteller so eingebracht.
Ein eingebrachtes Sicherheitsfeature zeigt an, dass die Karte eben nicht sicher ist. Ganz doll...
Genau das Video ist es, was dem ganzen Problem das Sahnehäubchen aufsetzt und spätestens damit dann jeden Ignoranten verstummen lassen sollte.
So eine vielleicht irgendwann selbstzündende Tretmine würde ich doch niemals in meinen PC einsetzen wollen.
Das ist so wie zu hoffen, dass die gekauften Musik-CD's und Festplatten niemals zur Lebenszeit den Geist aufgeben werden, weil man hoffentlich vorher selber den Löffel abgibt. Puh, dann hat man aber nochmal Glück gehabt, oder doch nicht? Auslegungssache. hehe ^^ ;-)
Na jedenfalls gibt NVidia ja jetzt theoretisch zu, dass man dann mit dem bereits dritten Versuch bei der kommenden 5000er Serie dann ja mit etwas Glück endlich ein funktionierendes System entwickelt haben könnte.
Ich setze solange weiterhin auf 2x8Pin.
Mich betrifft es aber ohnehin nicht, weil ich nicht mehr als etwas über 200W "ausgeben" möchte.
Und die 2 Kabel tun mir nun echt nicht weh, solange ich dadurch absolut "safe" bin.
 
Oder zuletzt auch bei Roman, der einen wirklich schockierenden Vorfall hatte, von Haus aus vom Hersteller so eingebracht.
Schockierend aufbereitet. Schockierenden Vorfall gab es nicht einmal im Ansatz.
Genau das Video ist es, was dem ganzen Problem das Sahnehäubchen aufsetzt und spätestens damit dann jeden Ignoranten verstummen lassen sollte.
Eine LED monierte fehlenden Kontakt. Kabeltausch ( das abgenutzte weg) und das Thema war erledigt.
Na jedenfalls gibt NVidia ja jetzt theoretisch zu, dass man dann mit dem bereits dritten Versuch bei der kommenden 5000er Serie dann ja mit etwas Glück endlich ein funktionierendes System entwickelt haben könnte.
Es gibt ein Update, das ist der 12V-2x6. Dritter Versuch?
Dein Beitrag ist inhaltlich eine 6. Problem maximal peinlich tot geritten.
 
Vom 07.02.2024 Computerbase
Grafikkarte: AMD Readon RX 6900 XT Phantom Gaming 16GB

Anscheinend zwei von drei Stecker angeschmolzen.
Wenn man nicht alles aufbläst erfährt nur keiner was....und dann gibts keine Klicks.
Ja der 8 Pin hatte auch seine Probleme, aber dafür das das ding seit gefühlt 25 Jahren auf dem Markt ist scheint es rein Subjektiv betrachtet deutlich weniger Fehler zu geben.

Man könnte jetzt sagen es gibt kein Problem mit dem 12VPHWR stecker/buchse, das ist alles nur für die Klicks.
Dann kann ich aber auch sagen es gab nie Probleme mit den AMD Treibern ist alles nur für die Klicks.

Ich bleibe bei der Meinung das der Stecker zu nah auf kannte genäht ist .
Bis zu 600 Watt bei einer 4090 bei einer Buchse die Spezifiziert ist für knapp 700 Watt. Dann ist das für den Endanwender bereich einfach zu knapp.
Ich bin der Meinung das die Revision 2 mit den verkürzten Sens Pins + 2 Buchsen auf 600 Watt Boliden das Problem lösen sollte.
Aber mal schauen.
 
Zurück