Nur weil ein paar Daus zu blöd waren/sind ist nVidia nun gezwungen den Stecker zu ändern. So wird eher ein Schuh draus.
Das waren keine DAUs, sondern durchaus normale Nutzer. Das ganze konnte potentiell jedem passieren. Bei dir hat es funktioniert - freu dich - bei anderen gab es Probleme. Warum gibt es eigentlich immer das Bedürfnis die Schuld (die in dem Fall niemanden trifft) beim Opfer (in dem Fall dem Kunden) abzuladen?
Intel und AMD behalten nicht ohne Grund den traditionellen Stecker bei.
Die klassischen 8 oder 6 PIN Stecker haben sehr hohe Toleranzen, die sehr weit über die tatsächliche Leistungsaufnahme von 150 Watt pro Stecker hinausgehen.
Nvidia dachte sich, dass diese Toleranzen herabgesetzt werden könnten, und verbaute daher einen neuen Stecker. Dieser Stecker ist aber überdurchschnittlich fehleranfälliger als die klassischen Stecker.
Besser wäre es die alten Stecker beizubehalten und die Toleranzen zu akzeptieren.
Der 8 Pin PCIe Stecker war von Beginn an eine Ressourcenverschwendung (die Umwelt liegt dir doch so am Herzen) und außerdem brauchte es sowieso mal moderne Funktionen. Von daher war ein neuer Standard überflüssig. Ich persönlich hätte einfach den 4 und 8 Pin EPS für Grakas verwendet, aber man kann auch etwas neues Designen.
Scheint ja gut zu laufen, bei den vielen News überall.
Aber warum überhaupt ?
never change a running system.
Klar, dann hätten wir aber noch beim alten AT Standard bleiben müssen, statt 1997 auf ATX umzusteigen. USB wäre auch Teufelszeug, es lebe die Parallele Schnittstelle. Dann hätte man noch beim uralten 8 Bit ISA Bus bleiben müssen - never change a running system.
Das wäre allerdings dann irgendwann doch sehr begrenzt gewesen, besonders bei 8Bit ISA würden die 0,96MB/sec bei einer RTX 4090 doch eine gewisse Grenze darstellen...
Denn ich wette darauf, dass in Kürze Netzteile ohne 8-PIN PCIe Kabel auf dem Markt sein werden.
Da halte ich dagegen, das wird noch dauern. Solange AMD und Intel noch Karten anbieten, die den Stecker noch nicht haben, wäre das sowieso Selbstmord für den Netzteilhersteller. Dann wird noch eine Mehrjährige Übergangsphase stattfinden und dann wird man sich den alten 8Pin noch zusenden lassen können.
Bis wir die ersten Netzteile ohne 8Pin sehen werden, dürften noch weit über 5 Jahre vergehen, eher Richtung 10.
Echt jetzt?
Ich meine, ich kann den Wunsch nach einem Stecker für alles ja nachvollziehen! Allerdings ist das NV Marketing echt schlecht, wenn sie jetzt meinen, dass die Umbenennung des Steckers marketingtechnisch noch irgendwen abholt (außer unseren guten Blackvodoo). Generell fühlt sich die Steckernorm gerade so ein bischen an wie die USB-3 Welt, irgendwie heißt alles gleich und man braucht ein Examen um den Unterschied feststellen zu können.
In meinen Augen kann Nvidia da machen was sie wollen (und mittlerweile sehe ich dann auch Nvidia als verantwortlich); der Standard bleibt auf Kante genäht und um Ende russisches Roulette. So lange man auf dem Molex MicroFit Design bleibt, ist alles oberhalb von 450W "eng". Das zeigen die aktuellen Stecker und das wird auch der neue Standard nicht beheben können.
Wenn Sie es wenigstens schaffen würden, den Stecker mit einer "geplanten" Abschaltvorrichtung zu versehen (CableMod Prototyp bei Igor) wäre die Messe wahrscheinlich gelesen und da es nunmal nur in Ausnahmefällen dazu kommt, wäre somit alles sicher und niemand würde mehr irgendwas melden können. Allerdings würde man damit dann eingestehen, dass der Standard gescheitert ist,
Die allermeisten Leute interessiert das nicht. Die sind nicht in Enthusiastenforen unterwegs, sondern einfach zufrieden, wenn ihr PC läuft, wie er soll. da die Schäden von der Garantie abgedeckt sind, schlägt das auch keine hohen Wellen.
Einfach den Stecker verbessern und in zwei Jahren wird sowieso kaum jemand drüber reden.
Ich bin da eher bei Fertigrechnerherstellern. Und die sparen an jedem Cent. Darum also Netzteile mit mehr als einem 12V-2×6 bauen, wenn man damit alle Grafikkarten anschließen kann? Die Forderung wird kommen.
In Fertigrechnern gibt es auch teilweise keine 24 Pin ATX Stecker. Natürlich wird, wenn das Netzteil eigens konstruiert wurde, nur das verbaut, was auch genutzt wird. Es geht aber im Netzteile, die sich der Endkunde im Laden kaufen kann.
NVidia soll einfach mal wieder ordentliche, stromsparende Grafikkarten unter 300 Watt anbieten, so einfach ist die Lösung des Ganzen.
Eine Rückbesinnung auf die legendäre 1000er Ära und die Sache ist geritzt.
Die GTX 1080Ti hat den Strom auch zum Fenster rausgeheizt und 250W verbraucht, was damals am oberen Ende war. Zusätzlich hatte Nvidia keine ernstzunehmende Konkurrenz, heute ist das anders.
Dann gehörst du also zu der Sorte Käufer, der jedes Mal ohne mit der Wimper zu zucken auch für 50% Mehrleistung, 50% Mehrverbrauch dann auch bereitwillig 50% Aufpreis zahlt?
Dein Logik ist echt stumpfsinnig.
So funktioniert das in der Wirtschaft eben NICHT.
Das ist eine unsachgemäße Spirale einseitig in eine Richtung.
Man muss schon auf ein homogenes Gleichgewicht oder sogar eine Verbesserung hinarbeiten wollen.
Nur weil in einem Land der Sprit so billig ist, muss man ja nicht 30L-Autos als neuen Maßstab nehmen wollen, nur weil man es kann.
2016 haben wir uns über 250W Klopper aufgeregt, dann kam der 350 Watt Klopper, nun der 450 Watt Klopper, nächstes Jahr vielleicht ein 550Watt Klopper.
Merkst du was?
Nur weil jemand dämlicherweise eine viel zu stromdurstige Grafikkarte für den Weltmarkt produziert, mus sja nicht der rest sich daran anpassen udn alles drum herum neu erfinden, damit die rechnung irgendwie wieder aufgeht.
Eigentlich mus ssich der Produkzenz, also NVidia, an die gegebenheiten anpassen, was vorhanden ist.
Es wird verkauft, was sich die Leute zulegen und die Leute kaufen nunmal hauptsächlich Nach Leistung und dem Preis. Wer sich eine High End Karte kauft, der will nunmal Leistung und die hat ihren Preis. Wenn Nvidia mit einer 600W Karte besser dasteht, als mit einer 300W Karte, dann wird der Stromverbrauch steigen, statt zu sinken.
Hubraum kann nur durch mehr Hubraum ersetzt werden. Ohne Treibstoff keine Power.
Dann kam der Turbolader...
Wenn das so weitergeht, kann Nvidia bald beim Steckerchaos von USB mithalten
Die alten Stecker werden einfach ausgemustert und das war es. Von daher gibt es da kein Steckerchaos.
AMD und Intel tun gut daran, sich dem Wahnsinn nicht anzuschließen, die beobachten das aus Zweiter reihe und kichern leise vor sich hin...
AMD wollte auch umsteigen und mußte das im letzten Moment ändern,. von daher kichern die eher nicht.