Geschmolzener Stecker bei RTX 4090: Lösung doch nicht so einfach wie gedacht?

eine 0% Toleranz ist schlichtweg nicht möglich und wäre absolutes Wunschdenken!

Man minimiert Brandrisiken wo man kann, baut Schutzschaltungen, nimmt nicht brennbaren Kunstoff etc. etc.

Aber wenn für dich 1 Fall ein no go darstellt, dann kannst du keinen Computer mehr betreiben. Ein gewisses Restrisiko gibt es immer.

Denn sonst hätte man auch nen 8 Pin Stecker schon lange verbieten müssen.
Anhang anzeigen 1408005Anhang anzeigen 1408006Anhang anzeigen 1408007Anhang anzeigen 1408008Anhang anzeigen 1408009
Um nur einige Beispiele zu zeigen!

Wenn man verschmorte Stecker sucht! dann wird man sie im Internet auch finden. Egal ob der neue 12+4 Pin Anschluss oder der alte 8 Pin.

Sind dir die Hintergründe dieser Schadensbilder bekannt?
In meiner nun doch schon ein paar Jahre währenden PC-Laufbahn sind mir verschmorte 4-/6-/8-/8-Pin-Stecker immer nur begegnet, wenn es auf den damit angeschlossenen Geräten zum Kurzschluss kam. Für ATX-Mainboard-Stecker gibt es eine sehr kleine Zahl von Schäden, wo sehr viele Grafikkarten (=> Mining) in einem Mainboard ohne Zusatzstromanschluss für die Versorgung der PCI-E-Slots betrieben wurden, aber auch dass ist eine klare Überschreitung des spezifizierten Betriebs. Die jetzt rund um die RTX 4090 auftretenden Fälle sind dagegen die ersten mir bekannten, bei denen nach Plan funktionierende Hardware eine dafür vorgesehene Stromversorgung überfordert und auch wenn nur ein kleiner Teil der Nuzter betroffen ist: Verglichen mit dem kurzen Verkaufszeitraum, des hohen Preises und somit begrenzten Absatzzahlen der Karten und der Tatsache, dass diese ihr Power Limit bei weitem nicht immer ausreizen können, liegen schon sehr viele Meldungen vor.


Der Stecker ist für die Stromstärke zu knapp bemessen.
Der 12pin ist von der Kontaktfläche 1:1 ein 8Pin PCIe
8x 0,75mm² vs 12x 0,5mm²

Das Problem am ganzen ist, das der Strom sich nicht auf 12 Pins 1:1 verteilt.

Ein XT60 Stecker wäre besser
Oder gleich XT80

Spezifiziert sind für den 12VHPWR mindestens 1,3 mm² (AWG16) bei 12 Adern. Der 8-Pin trägt 6 (zwei sind nur Sense!) Adern zu je 0,8 mm³ (AWG18). Betrachtet man nur die 12-V-Zuleitung (Masse ist unkritischer, da sie mit dem vielen Leitungen im Mainboard kurzgeschlossen sein darf) ergeben sich 8,1 mm² Gesamtquerschnitt in einem neuen Stecker gegenüber zusammen 7,2 mm² bei einigen bisherigen Karten mit drei 8-Pin-Anschlüssen.
 
Keiner hier will NVidia freisprechen und aus der Verantwortung nehmen. Jede Menge, wie z.B. Chatstar, würde am liebsten sehen, dass NVidia zu Kreuze kriecht und Aber-Millionen an Kosten tragen muss. Das ist schon extrem hämisch in meinen Augen.
Wie gesagt, ja es gibt solche und solche. Aber aktuell überwiegen doch eher die plusminus, owneds usw.
 
Wobei das Ganze ja nicht NVs Aufgabe ist. Man geht hin und nimmt einen von der Industrie (ja, zu der man selber auch gehört) zertifizierten Standard, sehe da aktuell erstmal keinen Fehler seitens NV.

P.S.
Was nicht bedeutet, dass ich die aktuelle Lage gut finde, man muss und sollte mal endlich was sagen, selbst wenn das ist "wir untersuchen immer noch, wissen aber nicht was es ist" ist das besser als das aktuelle Schweigen. So zerstört man durchaus Vertrauen und das Ganze doch relativ sinnlos.
Einen Industriestandard zu nutzen ist auch ok. Aber ich muss diesen dennoch prüfen. Nicht jeder Standard passt immer zu allem, auch wenn die das gerne propagieren. Vor allem dann wenn Nvidia da wirklich bedenken hat.
Für das Gesamtprodukt ja, aber bisher handeln sie das mit großer Kulanz! Soweit ist das doch erstmal OK. Wenn VW ne Charge mangelhafter Steuerketten geliefert bekommt, können die auch erstmal nix dafür, es geht dann nur darum, wie geht man mit den Schäden der Kunden um. Da ist aktuell betrachtet aber an NV kein Vorwurf zu machen.
Auch das ist nicht richtig. Du bist in der Verantwortung sicherzustellen, dass die Produkte die du einkaufst funktionieren. Was denkst du wohl warum bspw. einige Anlagenbauer von Lohnfertiger Prüfprotokolle verlangen und dann noch Stichproben prüfen? Oder Automobilhersteller jeden Zulieferer qualifizieren?
Du gehst auch nicht zum Steuerkettenhersteller, sondern VW wegen dem Schaden!
schwierig!
Ja und Nein, klar ist, dass NV mit der Auslieferung eine gewisse Sorgfaltspflicht hat, bei Boardpartnern würde ich aber schon sagen, dass dies nicht NV betrifft, da man hier ja nur die GPU liefert und den Rest der Boardpartner unter eigenem Namen vermarktet. Ist in etwa so, wenn Mercedes von Renault Motoren kauft (was ja durchaus so ist) und der Motor kaputt geht. Wer haftet, wohl Mercedes, obwohl auf dem Motor ein Renaulstempel ist.
Also Sorgfalt bei der FE in jedem Fall, bei den anderen Karten eher nicht.

Noch dazu kommt, dass man nicht jeden Fehler im Vorfeld kommen sieht. Wenn wir davon ausgehen, dass NV nichts von den Problemen wusste, haben sie auch nichts falsch gemacht. Wichtig ist jetzt die Kommunikation.
Das Problem tritt soweit bekannt bei Boardpartner und FE auf. Das lässt auf ein generelles Problem mit dem Stecker schließen. Etwas was beide auch bemerken sollten.
 
Spezifiziert sind für den 12VHPWR mindestens 1,3 mm² (AWG16) bei 12 Adern. Der 8-Pin trägt 6 (zwei sind nur Sense!) Adern zu je 0,8 mm³ (AWG18). Betrachtet man nur die 12-V-Zuleitung (Masse ist unkritischer, da sie mit dem vielen Leitungen im Mainboard kurzgeschlossen sein darf) ergeben sich 8,1 mm² Gesamtquerschnitt in einem neuen Stecker gegenüber zusammen 7,2 mm² bei einigen bisherigen Karten mit drei 8-Pin-Anschlüssen.
Kann man so rechnen?

6 x AWG 16 ergibt 6 x 20 A (bei 30° Umgebungstemperatur) = 120 A
aber 6 x MicroFit mit je 9,2A ergibt eben nur 55,2 A

6 x MiniFit mit 9A (die kleinsten erhältlichen, bis zu 13A) ergeben 54A
die Kabel dagegen würden nur 57A liefern, was aber unkritisch ist, da 54A < 57A (so wie oben 55,2A < 120A).

Es bleibt dabei
Einen Industriestandard zu nutzen ist auch ok. Aber ich muss diesen dennoch prüfen. Nicht jeder Standard passt immer zu allem, auch wenn die das gerne propagieren. Vor allem dann wenn Nvidia da wirklich bedenken hat.
Das werden sie getan haben, der Fehler tritt ja nunmal selten auf und in meinen Augen so selten, dass man dies nicht unbedingt merken muss als Hersteller der Karte.

Auch das ist nicht richtig. Du bist in der Verantwortung sicherzustellen, dass die Produkte die du einkaufst funktionieren.
Sehe ich anders, ja du hast eine gewisse Verpflichtung der Qualitätskontrolle! Aber du kannst unmöglich jedes zugelieferte Teil kontrollieren und scannen oder sonstwas tun. Sorry, wenn ich es so deutlich sage, dass ist unnötig, unmöglich und wirtschaftliher Selbstmord. Genau aus diesen Gründen gibt es bspw. QM Zertifizierungen, die macht man nicht, weil man lustig ist und das Wochenende noch nichts vor hatte, sondern die macht man, damit man für gewisse Bereiche Teile liefern darf und über solch eine Qualifizierung nachweisen will, dass man in der Lage ist dauerhafte Qualität zu liefern!


Das VW letztlich der Ansprechpartner für die Reperatur ist, zweifel ich nicht an. Darum geht es aber aktuell doch auch nicht, Nvidia tauscht ja aus! Es geht darum ob Nvidia eine Schuld trifft und da sage ich (nach allen Fakten), ganz klar NEIN! Sie nutzen einen zertifizierten Industriestandard, der für die Anwendung entworfen wurde und ja auch grds. funktioniert! Mehr kann man im ersten Moment nicht tun und oftmals kommen Probleme erst mit der Zeit, das ist nunmal so.
Das Problem tritt soweit bekannt bei Boardpartner und FE auf. Das lässt auf ein generelles Problem mit dem Stecker schließen. Etwas was beide auch bemerken sollten.
Wie gesagt, ich weiß ja nicht in welchem Bereich du arbeitest, aber Industrie kann es eigentlich nicht sein. Es werden in der Regel Prototypen entworfen die auch durchaus auf Herz und Nieren getestet werden. Es werden aber dort, wie an mind. 99,7% aller Karten, keine Auffälligkeiten gewesen sein und dann ist auch gut! Die werden letzlich auch den Stecker getestet haben, aber eben nicht so wie es die SIG eigentlich hätte tun müssen! Für mich scheint es erstmal so zu sein, dass NV hier ein Bauernopfer ist.
 
Das werden sie getan haben, der Fehler tritt ja nunmal selten auf und in meinen Augen so selten, dass man dies nicht unbedingt merken muss als Hersteller der Karte.
Lese die Beiträge das hilft. Tipp ich habe geschrieben die Boardpartner sitzen mit im Boot...
Sehe ich anders, ja du hast eine gewisse Verpflichtung der Qualitätskontrolle! Aber du kannst unmöglich jedes zugelieferte Teil kontrollieren und scannen oder sonstwas tun. Sorry, wenn ich es so deutlich sage, dass ist unnötig, unmöglich und wirtschaftliher Selbstmord. Genau aus diesen Gründen gibt es bspw. QM Zertifizierungen, die macht man nicht, weil man lustig ist und das Wochenende noch nichts vor hatte, sondern die macht man, damit man für gewisse Bereiche Teile liefern darf und über solch eine Qualifizierung nachweisen will, dass man in der Lage ist dauerhafte Qualität zu liefern!
Ich empfehle dir nicht zu interpretieren, du beherrscht das nicht. Habe nie von alle Teile kontrollieren gesprocehn. Zumal du nur das widerkäust was ich bereits gesagt habe. Jetzt solltest du nur noch verstehen was du geschrieben hast dann bist du ein Schritt weiter ;)
Das VW letztlich der Ansprechpartner für die Reperatur ist, zweifel ich nicht an. Darum geht es aber aktuell doch auch nicht, Nvidia tauscht ja aus! Es geht darum ob Nvidia eine Schuld trifft und da sage ich (nach allen Fakten), ganz klar NEIN! Sie nutzen einen zertifizierten Industriestandard, der für die Anwendung entworfen wurde und ja auch grds. funktioniert! Mehr kann man im ersten Moment nicht tun und oftmals kommen Probleme erst mit der Zeit, das ist nunmal so.
Man sieht spätestens daran dass du es mit verstehen echt nicht beherrscht. Ich gebe Nvidia keine Schuld sondern eine Verantwortung.
Wie gesagt, ich weiß ja nicht in welchem Bereich du arbeitest, aber Industrie kann es eigentlich nicht sein. Es werden in der Regel Prototypen entworfen die auch durchaus auf Herz und Nieren getestet werden. Es werden aber dort, wie an mind. 99,7% aller Karten, keine Auffälligkeiten gewesen sein und dann ist auch gut! Die werden letzlich auch den Stecker getestet haben, aber eben nicht so wie es die SIG eigentlich hätte tun müssen! Für mich scheint es erstmal so zu sein, dass NV hier ein Bauernopfer ist.
Da spricht ein wahrer "Experte" :lol:
 
Der Punkt ist, dass man dafür dann eigentlich alles ändern und den PC teilweise neu erfinden müßte. PCIe Slots kann man vergessen, da die 5V, 3,3V und 12V obsolet sind. Für SATA müßte es auch einen Nachfolgestandard geben, inkl neuer HDDs. Damit macht man sich nicht beliebt, die berühmte Pfadabhängigkeit. Für eine gewisse Zeit müßte es wohl Boards mit PCIe Anschluss und Wandlung auf dem Board geben und Konverter für alte Laufwerke und Grakas, wenn man keinen harten Bruch möchte.

Der Lohn wären dann wesentlich weniger Kabel, ein aufgeräumteres System und eine geringere Ressourcenverschwendung.

"Wandlung auf dem Board", "Konverter", "neue ..." klingt nicht nach einer Verringerung des Ressourcenverbrauchs.
Betroffen von einer 5-V-Abschaffung wäre außerdem noch sämtliche USB-Peripherie – daran krankt schon ATX12VO. 3,3 V und 5 V sind derzeit die wichtigsten Spannungsschienen, denn verkauft werden in großen Stückzahlen Notebooks und Mini-Office-PCs, in denen niemand das 48-V-Äquivalent einer M.2-SSD verbauen möchte, nur weil <1 Prozent High-End-Gaming-Rigs Probleme mit der GPU-Stromversorgung haben. Wer das braucht, kann sich in Zukunft vielleicht bei Server-Hardware umschauen, die gerade die Transistion von 12VO auf 48VO vorbereitet. Ohne Bedarf für oder Rücksicht auf Abwärtskompatibilität.

Doch!!!
FSP Hydro GT Pro ATX 3.0 (PCIe 5.0) 1000W ATX 3.0 (HGT-1000 Gen5)

Aber unabhängig davon, es geht mir nur darum, dass wenn etwas kaputt ist, dieses ersetzt werden muss. Wenn das Netzteil unbeschädigt ist, brauchts keinen Ersatz, wenn das Kabel (vollmodular) defekt ist, muss zumindest dies ersetzt werden, ebenso wie die GPU!

Im Rahmen der Produkthaftung gibt es eine Selbstbeteiligung, soweit ich auf die Schnelle ergooglen könnte von 500 Euro, sodass der Folgeschaden am Netzteil nicht vom GPU-Hersteller beglichen werden müsste respektive der an der Grafikkarte nur teilweise vom Netzteilhersteller. Je nach Marke ist es aber recht wahrscheinlich, dass sowas im Rahmen der Kulanz übernommen wird. Raff hat mal seine Titan erstattet bekommen, nachdem eine CPU-Kompaktwasserkühlung, die geschätzt 80 Prozent weniger wert war, ihren Inhalt über diese ergossen hat. Ein neues Netzteilkabel sollte da wohl in aller Regel drin sein.

Wenn doch geblockt wird, hat man ohnehin ein viel größeres Problem: Der Grafikkarten-Hersteller kann das Netzteil beschuldigen, der Netzteil-Hersteller die Grafikkarte. Zwar muss von Rechts wegen einer von beiden zahlen, aber sein Recht in so einem Fall gegen den richtigen auch durchzusetzen wird aufwendig und gegebenfalls teurer als der Schaden selbst.

Kann man so rechnen?

6 x AWG 16 ergibt 6 x 20 A (bei 30° Umgebungstemperatur) = 120 A
aber 6 x MicroFit mit je 9,2A ergibt eben nur 55,2 A

6 x MiniFit mit 9A (die kleinsten erhältlichen, bis zu 13A) ergeben 54A
die Kabel dagegen würden nur 57A liefern, was aber unkritisch ist, da 54A < 57A (so wie oben 55,2A < 120A).

Hängt davon ab, was man berechnen möchte. Ghostshield hat sich an der [vermeintlichen] Reduktion der Adern gestört, also den Kabeltteil betrachtet. Bei dem kann man überschlagsweise so rechnen, auch es für unterschiedliche Bündelungen streng genommen noch ein Derating wegen Wärmeabgabe braucht. Möchte man stattdessen die Kontakte betrachten, gelten natürlich deren Werte, aber hier gibt es eingen ganz wichtigen Punkt zu beachten:

ATX-Specs != Stecker-Specs

Erstere schreiben eine Form und eine Stromfestigkeit vor. Im Falle der 8-Pin-Anschlüsse sind das heute 7 A pro Kontakt und Mini-Fit-kompatibel, beim 12-Pin je 9,2 A und Micro-Fit-kompatibel. Das ergibt in der Summe 21 A gegen 46,2 A 55,2 A. Also ebenfalls eine Steigerung zumindest gegenüber Dual-8-Pin wenn auch nicht gegenüber dem nicht spezifizierten Triple-8. Das es Molex Mini-Fit HCS mit bis zu 10 A pro Pin und Micro Fit bei Amphenol bis 10,5 A pro Pin gibt, spielt dabei keine Rolle. Man kann sich schließlich nicht darauf verlassen, dass die jeweilige Gegenseite diese Über-Spec-Qualität auch einsetzt.

Und ich betone nicht ohne Grund die Spec-Version. Als erstmals eine 8-Pin-PCI-E-Zusatzstecker eingeführt wurde, wurden kurzerhand gar keine Belastungsangaben spezifiziert, sondern nur ein Steckertyp und Kabeldurchmesser. Netzteile aus dieser Zeit sind nicht verboten und ihre Steckkontakte mechanisch kompatibel zu alle 8-Pin-Karten. Wenn die dann nur 150 W/12 V/3 Pins = 4,2 A je Pin verkraften, ist das halt so und etwaige Schäden durch Überlastung sind durch die Grafikkarte zu verantworten, welche mehr als die erlaubte Stromstärke aus dem Stecker gezogen hat. 12VHPWR ist der erste Stecker, bei dem die tatsächlich vorliegende Qualität signalisiert werden muss, sonst sind auch hier maximal 150 W erlaubt, also 2 A je Pin. Und das auch erst, wenn Überwachungssoftware läuft, sonst 1,3 A je Pin.
 
Zuletzt bearbeitet:
Im Rahmen der Produkthaftung gibt es eine Selbstbeteiligung, soweit ich auf die Schnelle ergooglen könnte von 500 Euro, sodass der Folgeschaden am Netzteil nicht vom GPU-Hersteller beglichen werden müsste respektive der an der Grafikkarte nur teilweise vom Netzteilhersteller. Je nach Marke ist es aber recht wahrscheinlich, dass sowas im Rahmen der Kulanz übernommen wird.
Sowas habe ich auch im Kopf.

Ist halt wirklich schwierig sich darauf zu verlassen, dass die Hersteller diese Kulanz auch ernst nehmen.
Erstere schreiben eine Form und eine Stromfestigkeit vor. Im Falle der 8-Pin-Anschlüsse sind das heute 7 A pro Kontakt und Mini-Fit-kompatibel, beim 12-Pin 9,2 A und Micro-Fit-kompatibel.
Das war mir gar nicht bekannt, dann ergibt sich ja nochmal eine andere Rechnung.

Das ergibt in der Summe 21 A gegen 46,2 A.
Wobei die Steigerung recht "moderat" ist, zwei 8 PIN könnten 42 A liefern, ein 12 PIN 46,2A (müssten das nicht 55,2 A sein? 9,2 x 6)

Auch der unterschiedliche Ansatz, ein MiniFit (der ja mehr Kontaktfläche bietet) wird hier mit 7A spezifiziert, ein kleinerer MicroFit dagegen mit 9,2 A, ist schon alles ein wenig seltsam.

In meinen Augen hätte man doch absolut einen 16 PIN an die GPU flanschen können, sofern das ein "neuer" Stecker geworden wäre (16 PIN MOLEX gibt es meines Wissens nach bisher im PC nicht) hätte man die notwendigen Specs deutlich einfacher erreichen können. Natürlich voll beschaltet, also 8 x 10,5 A mit AWG 18 wäre das auf 8 x 9,5A limitiert worden, mit Korrekturfaktor dann irgendwas um die 8 x 7A und schwupps haben wir 56A und damit deutliche Reserven, bei einem bisher gut funktionierenden Stecksystem.
12VHPWR ist der erste Stecker, bei dem die tatsächlich vorliegende Qualität signalisiert werden muss, sonst sind auch hier maximal 150 W erlaubt
?
Ich dachte die Sense PINs sind nur für die Differenz von 450W auf 600W zuständig, reguliert er wirklich ohne Sense auf 150W?
 
Wobei die Steigerung recht "moderat" ist, zwei 8 PIN könnten 42 A liefern, ein 12 PIN 46,2A (müssten das nicht 55,2 A sein? 9,2 x 6)

Auch der unterschiedliche Ansatz, ein MiniFit (der ja mehr Kontaktfläche bietet) wird hier mit 7A spezifiziert, ein kleinerer MicroFit dagegen mit 9,2 A, ist schon alles ein wenig seltsam.

In meinen Augen hätte man doch absolut einen 16 PIN an die GPU flanschen können, sofern das ein "neuer" Stecker geworden wäre (16 PIN MOLEX gibt es meines Wissens nach bisher im PC nicht) hätte man die notwendigen Specs deutlich einfacher erreichen können. Natürlich voll beschaltet, also 8 x 10,5 A mit AWG 18 wäre das auf 8 x 9,5A limitiert worden, mit Korrekturfaktor dann irgendwas um die 8 x 7A und schwupps haben wir 56A und damit deutliche Reserven, bei einem bisher gut funktionierenden Stecksystem.

?
Ich dachte die Sense PINs sind nur für die Differenz von 450W auf 600W zuständig, reguliert er wirklich ohne Sense auf 150W?

So ist jedenfalls die Spezifikation:
S1+S2 open = 100 W Startup, 150 W "after Software Configuration"
gnd + open = 150/300 W
open + gnd = 225 W + 450 W
gnd + gnd = 375 W/600 W

Warum nicht direkt mehr Kontakte eingeplant wurden, weiß ich auch nicht. Zwei Thesen: Das jetzt gewählte Maß entspricht der Obergrenze dessen, was senkrecht (schmalste Seite zum PCB) auf eine Single-Slot-Karte passt und es ist nah genug dran, dass die gleichen Maschinen wie bisher die Bauteile bewegen können. Wer mehr will kann auf alle Fälle weiterhin einfach zwei Stecker verbauen und 1,2 kW sollten ja erst einmal reichen. Die Unterschiedlichen Spezifikationen je Pin haben dagegen offensichtliche Gründe: Qualität und damit letztlich Kosten. Meist kriegt man den gleichen Kontakt bei einem Hersteller mit 30 bis 50 Prozent Unterschied in der Freigabe und herstellerübergreifend das gleiche Design sogar mit einer 100 Prozent Spanne. "Billig" und "gut" schließen sich dabei in der Regel gegenseitig aus.

Das Probem: Wenn man einmal "billig" erlaubt hat, zum Beispiel zu einer Zeit als Grafikkarten selten mehr als 50 W verbrauchten, dann muss man bis in alle Ewigkeit damit rechnen, dass "billig" auch zum Einsatz kommt. Um "gut" vorschreiben zu können, muss man auf ein neues, mechanisch inkompatibles Format wechseln. Vergleich CPU-Sockel: LGA1156-, LGA1155-, LGA1150-, LGA1151- und LGA1200-Prozessoren nutzen offensichtlich eine sehr ähnliche Anzahl an Kontakten. Wenn man die ungenutzten abzieht, könnte jeder einzelne davon mit einem 1150er-Budget auskommen und die Pins sind auch alle gleich aufgebaut, also warum hat Intel nicht über 10 Jahre lang immer den mechanisch gleichen Sockel genutzt? Bei den vier Sockel 20XX genauso? Und warum hat AMD es beim 754/940, 939, AM2 (940 Pins), AM3 (941/942 Pins), FM (905) und FM2 (906) nicht getan? Weil dann diverse DAUs die elektrisch zum Teil grundverschiedenen CPUs in falsche Mainboards gepackt hätten.

Wo ich allerdings nur raten kann: Wieso man bei den neuen Grafikkartenanschlüssen für höhere Leistung auf ein kleineres und nicht auf ein größeres Format gewechselt ist. Möglicherweise wegen dem Übergang ins Package, denn die Kontaktfläche zwischen PCB-Layern und Pins ist bei kleinen wie großen Pins winzig, aber von ersteren hat man wenigstens ein paar mehr.

P.S.: Rechenfehler wurde gefixt.
 
Wieso sollte man? Soll man Probleme jetzt totschweigen? Wir sind hier nicht in einer Planwirtschaft oder Diktatur, man muss Probleme ansprechen um vielleicht auch gemeinsam Lösungen zu finden. Der Artikel ist in meinen Augen sehr sehr gut geschrieben und baut keinen unnötigen Drück oder Hype auf, sondern berichtet einfach was Sache ist und das ganz ohne Schuldzuschreibungen
Man sollte zuerst mal abwarten bis die Fakten auf dem Tisch liegen. Totschweigen sagte niemand. Aber eure Übertreibungen sind auch nicht das gelbe vom ei.
Warum haben sie ihn dann verbaut?
Wie wir inzwischen mehrfach gehört bzw. gelesen haben im Netz, hatten Sie keine große Wahl. Du willst mehr Infos ? Schlag nach bei den bekannten Seiten.
 
Nvidia könnte so etwas bringen:
- wenn die GPU nicht so teuer wäre
- wenn die Technik sowieso überflüssig wäre
- wenn es nicht Nvidia wäre mit deren Dick-Moves


Mein Vorhersage: es werden irgendwann RTX40er mit 3x8 Pin rauskommen. Fertig. Auch wenn diese zwar nicht für eine so hohe Wattlast ausgelegt sind, wette ich, dass sie das trotzdem besser aushalten als dieser sinnlose Verschlechterbesserungsstecker.
 
Man sollte zuerst mal abwarten bis die Fakten auf dem Tisch liegen. Totschweigen sagte niemand. Aber eure Übertreibungen sind auch nicht das gelbe vom ei.
Ich übertreibe ganz sicher nicht!

Wie wir inzwischen mehrfach gehört bzw. gelesen haben im Netz, hatten Sie keine große Wahl. Du willst mehr Infos ? Schlag nach bei den bekannten Seiten.
So wie es aussieht, bringen die 450W was? 1-2% mehr Leistung und in ganz wenigen Szenarien, die aber meist nicht Einsatzgebiet von Customeekarten sind deutlich mehr Leistung. 366W hätte NV wohl gehabt (die messen ja etwas anders als AMD) und damit waren 2 x 8PIN denkbar. Im Nachhinein wohl auch sinnvoller.

Mein Vorhersage: es werden irgendwann RTX40er mit 3x8 Pin rauskommen
Aber nicht von Nvidia. Als Hersteller müssen sie sich an die SIG halten und da sind nur 2x8 PIN vorgesehen. Als Boardpartner ist das offensichtlich möglich und ich denke die Entwürfe sind schon in Arbeit.

Das Probem: Wenn man einmal "billig" erlaubt hat, zum Beispiel zu einer Zeit als Grafikkarten selten mehr als 50 W verbrauchten
Wobei zu diesen Zeiten gab es noch keine normierten Zusatzstecker. Die erste Karte war die V5 6000 mit dediziertem Netzteil und dann kam lange nichts. Die FX auf Seiten NVs kam Anno 2003 mit knapp über 70W TDP und die hatten gar einen normalen Molexstecker (4Pin mit 1x12V). Erst die 7er Serie kam dann flächendeckend mit 6PIN und dann aber auch schon über 100W.

Um "gut" vorschreiben zu können, muss man auf ein neues, mechanisch inkompatibles Format wechseln.
Wobei man die bei einem 16 PIN Stecker ja gekonnt hätte. Billige Crimpkontakte wird es sowohl bei MiniFit als auch Microfit geben. Ich hab ja schon die Befürchtung, dass man gelötet hat, weil man die kleinen AWG 22 spezifizierten Pins benutzt hat und die Kabel daher gar nicht crimpen könnte.
 
hat sich mal jemand die Frage gestellt was passiert wenn da mal ne Bude abfackelt ?
Wenn kann.man denn da zur Rechenschaft ziehen ?

soll ja Leute geben die mit solcher Hardware auch folding@home betreibt...oder stundenlang Videos rendert....
 
Das ist ein Narrativ. Ein sehr einseitiges. Für mich macht NVidia nicht mehr "Dick-Moves" (blöder Begriff) wie alle anderen Aktiennotierten Unternehmen.

Auch AMD. Es war z.B. ein extremer "Dick-Move" NVidia's Investition in die GSync Idee ohne eigene Kosten mit Freesync mit einem schlag zu entwerten. Die Entwicklungskosten hat AMD auf die Monitorhersteller abgewälzt. DAS ist ein Dick-Move.

Freesync nutzt einen freien Standard, der einen ab DisplayPort 1.2a integrierten Adaptive Sync-Standard nutzt.
Blöd nur, dass man dafür kein "teures" G-Sync Modul benötigt, an dem man noch mitverdient, oder?
Und entwertet wurde G-Sync auch nicht vollständig, nur "entzaubert", wie so manches andere auch.

Da lagst Du jetzt aber sowas von daneben!

Wir haben übrigens mittlerweile begrifften, wie sehr dir die Firma mit dem großen "N" und dem kleinen "vidia" am Herzen liegt.
 
hat sich mal jemand die Frage gestellt was passiert wenn da mal ne Bude abfackelt ?
Wenn kann.man denn da zur Rechenschaft ziehen ?
Dir kann genauso gut der TV oder das Handy abfackeln. Ist meiner Nachbarin vor ein paar Jahren passiert.

soll ja Leute geben die mit solcher Hardware auch folding@home betreibt...oder stundenlang Videos rendert....
Und die haben bisher null Probleme mit ihrer Karte.

Freesync nutzt einen freien Standard, der einen ab DisplayPort 1.2a integrierten Adaptive Sync-Standard nutzt.
Blöd nur, dass man dafür kein "teures" G-Sync Modul benötigt, an dem man noch mitverdient, oder?
Und entwertet wurde G-Sync auch nicht vollständig, nur "entzaubert", wie so manches andere auch.
Gsync deckt einen viel höheren Bereich bei der Bildwiederholrate ab und ist somit technisch besser.
 
Zuletzt bearbeitet:
Gelaufen ist es so:

- NVidia hat die (naheliegende) Idee den Monitor mit variabler Synchronisation anzusteuern und entwickelt ein eigenes Steuergerät für Monitore (ein Scaler, das sog. GSync Modul)

- AMD bekommt davon Wind (die Firmen haben ja Kontakte in die interna der jeweiligen anderen Firma)

- Jemand bei AMD hat den genialen Einfall, wie man das kontert: Man nimmt Kontakt mit der VESA und den Monitor-Scaler-Herstellern her (das sind Chips von wenigen Herstellern, die in den Monitoren aller Marken verbaut werden). Man bringt den Vorschlag ein, dass als Standard festzulegen.

- Ein genialer Schachzug. Die Scalerhersteller machen die Entwicklungsarbeit, AMD kann das als eigene Freesync Technik verkaufen, das ganze Investment von NVidia ist im Arsch und AMD steht als der gute da, der alles offen macht.


Was Euch nicht klar zu sein scheint: Kein Hersteller nimmt Geld in die Hand, um der Allgemeinheit einen Gefallen zu tun. Wenn man etwas investiert, dann nur deswegen, weil man sich davon mehr Verkäufe erwartet. NVidia vorzuwerfen, sie entwickeln in proprietäre Techniken ist nur einfach dumm. Denn die Alternative ist GAR keine Entwicklung.

AMD ist nicht "gut" und "lieb" zu den Kunden. Sie rennen den Innovationen von NVidia meist immer nur hinterher. Es gibt Ausnahmen (Mantle, Tessellation, SM 3)... aber es ist durchaus ein sich wiederholendes Schema.

Das alleine wäre nicht schlimm, wenn nicht so viele Fans das als "Nettigkeit" von AMD missinterpretieren würde.

Und immer noch liegst Du daneben: Diese Technik gibt es seit 2009 als »embedded Displayport« (eDP) Standard für Notebooks und wurde für externe Displays schlicht übernommen.
Der Witz dabei ist, dass es keiner aufwändigen Entwicklungsarbeit durch niemanden bedurfte. Es war bereits fertig da!

Damit wurde Nvidia düpiert, da man im Grunde ein gleichwertiges Resultat ohne Hardware und Zusatzkosten erzielt hat. Was glaubst Du, warum Nvidia mittlerweile Freesync unterstützt?

Eher sollte man an dieser Stelle das Gebahren von Nvidia hinterfragen - schade, dass Du dazu nicht bereits bist.
 
Zurück