Geforce RTX 3080: Verwirrung um neuen 12-Pin-Stromanschluss

Uff 350 Watt,das ist ja ein neuer Stromverbrauch rekord.Ich kann mich noch gut daran erinnern wie damals die neue messlatte bei 250 Watt gewesen war mit der ersten Ur Titan.Damals brauchte die maximal allerdings keine 250 Watt sondern nur 215 - 225 Watt maximal.Nun sind es schon 350 Watt.
Was kommt als nächstes,ne 600 Watt Version um wirklich mehrleistung am ende zu haben.Also ich bin da irgendwie entäuscht davon.Man erwartet ja eigentlich im grunde durch einen Shrink ja weniger und nicht mehr Stromverbrauch.
Hat der shrink heutzutage etwa keine wirkung mehr so wie früher oder habe ich da was missverstanden?
 
Uff 350 Watt,das ist ja ein neuer Stromverbrauch rekord.Ich kann mich noch gut daran erinnern wie damals die neue messlatte bei 250 Watt gewesen war mit der ersten Ur Titan.Damals brauchte die maximal allerdings keine 250 Watt sondern nur 215 - 225 Watt maximal.Nun sind es schon 350 Watt.
Was kommt als nächstes,ne 600 Watt Version um wirklich mehrleistung am ende zu haben.Also ich bin da irgendwie entäuscht davon.Man erwartet ja eigentlich im grunde durch einen Shrink ja weniger und nicht mehr Stromverbrauch.
Hat der shrink heutzutage etwa keine wirkung mehr so wie früher oder habe ich da was missverstanden?

Selbst wenn es einmal zu so einem hohen Stromverbrauch kommt, sehe ich das als normal an. Schaue dir doch die Grafik aktueller Spiele an, wird immer "Hübscher" und irgendwo muss dafür ja Rechenpower + Leistung + Verbrauch ja herkommen. Von nichts kommt nichts, hat da seine Gültigkeit. Der Stromverbrauch bei Grakas, geht doch seit Jahrzehnten immer höher. Ich kann mir auch nicht Vorstellen, wie er bei noch mehr Leistung sinken soll. Dann wird eventuell irgendwann die MCM Bauweise kommen (weil monolithisches Die nicht supergroß fehlerfrei wird und teurer ist), da brauchste noch viel mehr Strom. Ich bin da auch gespannt, wie das alles weitergeht. Weil das Shrinken wird bald (in einigen Jahren) auch an seine Grenzen kommen.
 
Zuletzt bearbeitet:
Erst wenn man einen adaper nutzt wird es platzprobleme geben und dann schaut es auch komisch aus weil der adapter das ganze um nen 1cm effektiv verlängern wird.

Sollte das alles so kommen, mit dem neuen Stecker, dann kann man sich einen Adapter ähnlich 2x 4Pin Molex auf 1x 6 Pin PCIe vorstellen => Also eine kleine Kabelpeitsche => Keine Probleme im Gehäuse, aber die Optik leidet natürlich etwas.

Sorry aber wir sind hier im PCGH Forum. Da sollte man zu jedem Grafikkarten- oder RAM-Ausbau auch ein neues Netzteil kaufen.

Stimmt, wie konnte ich das nur verdrängen :D
 
Oh ja, man wird ganz sicher ein neues Netzteil brauchen!
Leute, ihr könnte alle eure Netzteile entsorgen!

Was für eine schwachsinnige "News", das wird doch immer dümmer!
 
Warum einen weiteren Stecker einführen, wenn man mit bisherigen 6+2 viel flexibler ist?

Weil es evtl. günstiger ist, auch in der Montage? ;)
Dieses "Anhängen" von immer mehr Anschlüssen und Pins, war auch nur der Tatsache geschuldet, dass die GPUs im Laufe der Zeit immer mehr Saft benötigt haben.
Wäre also gar nicht so dumm, irgendwann mal wieder einen "Schnitt" zu machen, um für kommende Generationen besser gerüstet zu sein, sonst artet das irgendwann mit den "+" aus wie bei Intel... :D

mfg
 
Selbst wenn es einmal zu so einem hohen Stromverbrauch kommt, sehe ich das als normal an. Schaue dir doch die Grafik aktueller Spiele an, wird immer "Hübscher" und irgendwo muss dafür ja Rechenpower + Leistung + Verbrauch ja herkommen. Von nichts kommt nichts, hat da seine Gültigkeit. Der Stromverbrauch bei Grakas, geht doch seit Jahrzehnten immer höher. Ich kann mir auch nicht Vorstellen, wie er bei noch mehr Leistung sinken soll. Dann wird eventuell irgendwann die MCM Bauweise kommen (weil monolithisches Die nicht supergroß fehlerfrei wird und teurer ist), da brauchste noch viel mehr Strom. Ich bin da auch gespannt, wie das alles weitergeht. Weil das Shrinken wird bald (in einigen Jahren) auch an seine Grenzen kommen.

Die GTX 580, die Vega 64, die R9 290x usw haben auch alle sehr viel Strom gebraucht. Die GPU-Technologie ist schon lange am Maximum angekommen, was Leistungsaufnahme angeht, schließlich muss das alles ja auch noch gekühlt werden. Durch die immer kleiner werdende Strukturbreite können aber die Dies immer kleiner, oder eben gleich groß mit mehr Transistoren gefertigt werden.
 
Was wäre schlimm daran, selbst wenn es wahr wäre?
Alt zu oft fragen "brauch ich alle Stecker an der GPU" "8pin oder 6 Pin"welcher/wie viele Adapter hier, welcher stecker da.
1x 12-pin (oder what ever) als ganzen Strang-läuft. Bei Adaptern für nicht Modulare Netzteile sollte die GPU dann gar nicht erst funktionieren wenn eine Zuleitung fehlt.
Also ich finde die 2x 8-pin(6+2) bei mir ziemlichen Mist. Wenn die Kabel verlegt und somit leicht unter spannung und zusammen gelührt sind, ist es extrem fummelig diesen 6+2- Pin mit dieser kleinen Halteecke passig um die Ecke zu biegen und rein zu stecken. Und das dann auch noch 2 mal....
Besser Ein Großer/Starker Stecker für Eine Karte fertig.
Niemand bräuchte ein Neues Netzteil.... Der Saft bleibt ja der gleiche. Und wenn der Adapter wie Früher auch schon bei liegt, ist es auch egal welche Preisklasse das Netzteil und/oder die Karte hat/haben. Denn den 6/6+2-Pin Standard hat selbst das Billigste 10€ Netzteil vom Flohmarkt
 
Zuletzt bearbeitet:
Tja, das verhindert schonmal, das immernoch Leute mit Chinaböllern und 6Pin Anschluss nen einfaches Erweiterungs&Dopplerkabel benutzen können und sich wundern, wenn ihnen das NT oder Die GPU oder beides, wenn nicht noch mehr abraucht.

Wenn das kommt, wird ohnehin sicher ein Adapter beiliegen oder vom Netzteilhersteller angeboten, zumal man hier auch wohl den Kabelquerschnitt erhöhen will, damit man eben ordentlich was durchjagen kann.

JEdes vernünftige Netzteil mit genug Bumms und 2 getrennten Leitungen pro 6/8 Pin Stecker, solltes das Problemlos 'adaptieren' können.

Ich finde den Gedanken gar nicht so falsch.
 
Es gibt Neuerung die gut für den Kunden sind und welche die schlecht sind. Für ne neue Grafikkarte ein neues Netzteil kaufen zu müssen ist ganz klar Option 2.
Noch dümmere Antwort.Jede neuerung bringt veränderung und Sie sind im Prinzip auch immer gut.Ob dann Jeder was damit anfangen kann stellt sich die Frage nicht.Weil jeder für den ne Veränderung schlecht oder nicht umsetzbar ist für den wurde diejenige auch nicht gemacht.Also Wenn es tatsächlich ein 12 pin stecker sein sollte und jemand unbedingt die Karte haben möchte den jucken 150-250 Euro fürein neues NT sowas von garnix.Und alle anderen die rumjammern die können sich so ne Karte eh nicht leisten, Punkt.
Ausserdem haben alle die eh Highend haben ein NT das ,wie schon ein Vorredner schrieb ,genug Bums hat
 
Warum sollte man sich auch ein neues Netzteil kaufen müssen...das ergibt keinen Sinn. Selbst wenn kein Adapter beiliegen würde(was bedeuten Würde Nvidia würde unbrauchbare Karten verkaufen, weil ja keiner son ein Adapter hat) "würden" die Netzteil produzenten mit endsprechenden Kabeln reagieren müssen.
Ich mache mir absolut 0 Sorgen das Hersteller nicht schlicht einen Apapter oder in meinem Fall Be Quiet einen weiteren Strang für Modulare Netzteil ausgeben/verkaufen werden. Sonst könnte ja niemand Nvidias neuen "tollen" Karten nutzen. Nvidia weiß schließlich auch das es ne ganze lange Weile dauert bis Anwender Ihr System ohne zusätzlichen nutzen an einen z.B. 12-Pin Anschluss anpassen. Deswegen MUSS Nvidia einen Momentan Kompatiblen Adapter beilegen.

So als wenn der Fenster Monteur keine Schrauben dabei hat um das Fenster Fest zu schrauben.
 
Zurück