PCI Express 5.0: Neue Stecker von 150 bis 600 Watt nach ATX 3.0

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu PCI Express 5.0: Neue Stecker von 150 bis 600 Watt nach ATX 3.0

Es kommen neue Stecker namens 12VHPWR für die Leistungsübertragung nach ATX 3.0, die wohl erstmals bei Geforce RTX 4000 und Radeon RX 7000 in der Breite zum Einsatz kommen werden. Die Anschlüsse können zwischen 150 und 600 Watt übertragen und sind nicht zum bisherigen Standard kompatibel.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: PCI Express 5.0: Neue Stecker von 150 bis 600 Watt nach ATX 3.0
 
Ich empfinde diesen Gang zu immer höherer Leistungsaufnahme bei Grafikkarten sehr störend. Den neuen Stecker an sich finde ich schön, denn dann braucht man nur noch einen für die Karte - aber die Spezifikation erlaubt sehr hohe Leistungsaufnahme und ich kann mir leicht vorstellen, dass Nvidia, die schon bei der jetzigen Generation über alle Stränge geschlagen haben, weiter in diese Richtung geht.

Kühlung ist in meinem System grundsätzlich kein Problem, weil ich einen Mo-Ra 420 inzwischen habe. Aber all diese Abwärme heizt halt auch mein Zimmer auf.

Also neuer Stecker hui, was sich da anbahnt pfui.
 
Ich empfinde diesen Gang zu immer höherer Leistungsaufnahme bei Grafikkarten sehr störend. Den neuen Stecker an sich finde ich schön, denn dann braucht man nur noch einen für die Karte - aber die Spezifikation erlaubt sehr hohe Leistungsaufnahme und ich kann mir leicht vorstellen, dass Nvidia, die schon bei der jetzigen Generation über alle Stränge geschlagen haben, weiter in diese Richtung geht.

Kühlung ist in meinem System grundsätzlich kein Problem, weil ich einen Mo-Ra 420 inzwischen habe. Aber all diese Abwärme heizt halt auch mein Zimmer auf.

Also neuer Stecker hui, was sich da anbahnt pfui.
Nervt mich auch!
Statt dass es heißt, "mehr als x Watt gibt's nicht, macht das beste draus", wird alles getan, um den übermäßigen Stromhunger vor allem der GPUs zu befriedigen. Effizienz? Nebensache!

Einfach 'ne harte Grenze bei 225W (PCIe-Port + 8-poliger Stecker) setzen und fertig!
 
Nervt mich auch!
Statt dass es heißt, "mehr als x Watt gibt's nicht, macht das beste draus", wird alles getan, um den übermäßigen Stromhunger vor allem der GPUs zu befriedigen. Effizienz? Nebensache!

Einfach 'ne harte Grenze bei 225W (PCIe-Port + 8-poliger Stecker) setzen und fertig!

Setz dir die doch selbst!

Kein Mensch hindert dich daran, deine Karte zu undervolten zu untertakten. Dann hat die RTX 4090 bei dir eben 30% weniger Leistung, dafür verbraucht sie nur die Hälfte.

Aber hier im Forum ist es genauso, wie beim Biomarkt. Wo die Mütter mit ihren SUVs (ist ja so schön übersichtlich und sicher) hinfahren und sich dann gemeinsam drüber empören, dass der Planet doch vor die Hunde geht und man nichts dagegen machen kann.

Irgendwie scheint dieses Gejammer die Seele der jammernden zu beruhigen.

Und wenn die neue GeForce doch kommt, dann betreibst du sie wohl doch mit voller Leistung, immerhin hast du ja dafür bezahlt.

PS: 225W sind immer noch höllisch viel, bei Ökogaming würde ich eher von insgesamt 100W ausgehen. Also eine RTX 3060, die auf 75W gebracht wurde und ein sehr sparsamer Prozessor (schade, dass es die U CPUs nicht normal zu kaufen gibt).
 
bei Ökogaming würde ich eher von insgesamt 100W ausgehen.
So extrem musses ja nicht mal sein, aber nur ums mal zu erwähnen: Ein "Kunde" von mir wollte tatsächlich eine solche Maschine haben.
Eine GTX1660Ti wurde auf 80W gedrosselt zu einem 5600X gesetzt dessen PPT auf 50W gesenkt wurde. Der ganze PC braucht einschließlich WQHD-TFT gemessen deutlich weniger als 200W beim Spielen. Und ich war ehrlich gesagt überrascht wie performant das Ding läuft. Klar, das Setting schafft kein AAA in Ultra aber die komplette Spielesammlung des Kollegen in hohen Details bei 60 fps. Und das auch entsprechend silent. Es ist niocht nötig, 800W in einen PC zu schieben dass der ausreichend schnell ist wenn man seine Messlatte nicht 2cm unter die Raumdecke anbringt.
 
Setz dir die doch selbst!

Kein Mensch hindert dich daran, deine Karte zu undervolten zu untertakten. Dann hat die RTX 4090 bei dir eben 30% weniger Leistung, dafür verbraucht sie nur die Hälfte.
Das löst das generelle Problem nicht. Kaum ein Nutzer ist so versiert, dass er die GPU entsprechend anpasst. Zumal solche Randbedingungen auch bei der Entwicklung helfen können solche Herausforderung effektiv anzugehen.
 
So extrem musses ja nicht mal sein, aber nur ums mal zu erwähnen: Ein "Kunde" von mir wollte tatsächlich eine solche Maschine haben.
Eine GTX1660Ti wurde auf 80W gedrosselt zu einem 5600X gesetzt dessen PPT auf 50W gesenkt wurde. Der ganze PC braucht einschließlich WQHD-TFT gemessen deutlich weniger als 200W beim Spielen. Und ich war ehrlich gesagt überrascht wie performant das Ding läuft. Klar, das Setting schafft kein AAA in Ultra aber die komplette Spielesammlung des Kollegen in hohen Details bei 60 fps. Und das auch entsprechend silent. Es ist niocht nötig, 800W in einen PC zu schieben dass der ausreichend schnell ist wenn man seine Messlatte nicht 2cm unter die Raumdecke anbringt.
Das ist eine Gute Einstellung. Ob man jetzt so krasse Limits setzen muß, ist jeden selbst überlassen. Ich denke wenn man seine Hardware Effizienz technisch im Sweet Spot betreibt ist das ausreichend.
 
Die Stromanbieter wird es sicherlich freuen, sich solche Netzteile einzubauen . Ich betreibe meinen Rechner mit einem 550 Watt Netzteil von Corsair und reicht dicke für folgende Hardware: RX 6700 XT , i5 11400F ,16 GB DDR4 3000, 4 RGB Lüfter. Da ist noch Luft nach oben, was OC anbelangt.
 
Ob man jetzt so krasse Limits setzen muß, ist jeden selbst überlassen. Ich denke wenn man seine Hardware Effizienz technisch im Sweet Spot betreibt ist das ausreichend.
So sehe ich das auch. Ich hab ja auch meine 2080 auf 180W eingebremst - das ist nur 100-200 MHz langsamer (was <10% Performanceverlust ist) als die Karte mit den vollen 250(+)W zu betreiben. Der Sweetspot ist noch deutlich darunter (bei etwa 60% Powerlimit, erst noch weiter runter brinht die Karte quasi zusammen), aber auch das ist für alte Spiele ne super Sache.
Man kanns ja super über Profile des Afterburners und per Tastenkombi live umschalten - wenn ich von dem 180W-Profil zu "alles was geht" umschalte bemerke ich das ohne auf den fps-Counter in der Ecke zu starren praktisch nur daran, dass die Karte lauter wird.
 
Definitiv die falsche Entwicklung bei Grafikkarten für Spieler. Aber anscheinend sind wir technologisch schon so am Limit, dass es große Leistungssteigerungen nur noch per Brechstange erreicht werden können.
 
Aber anscheinend sind wir technologisch schon so am Limit, dass es große Leistungssteigerungen nur noch per Brechstange erreicht werden können.
Nvidia hat halt angefangen sich dann doch auf die faule Haut zu legen. HBM hat sich noch nicht etablieren können. Chipletdesigns sind im Bereich der Consumer-GPUs noch nicht etabliert worden. Statt 7nm EUV stand nur 8nm/7nm DUV für Ampere und RDNA 2 zur Verfügung. Der Hypetrain war hart am Dampfen, auch mit peinlichen Ergebnissen musste bei den Balken geglänzt werden. Der nächste Hypetrain wurde bereits gestartet und jetzt kommen sie nicht mehr raus.

Da kommt viel zusammen --- aber technologisch so am Limit ist nirgends zu sehen.
 
Definitiv die falsche Entwicklung bei Grafikkarten für Spieler. Aber anscheinend sind wir technologisch schon so am Limit, dass es große Leistungssteigerungen nur noch per Brechstange erreicht werden können.

Jetzt bleibt eben nur noch die Brechstange. Ein paar Dinge haben wir noch. Chiplets, damit kann man dann die Chipfläche enorm nach oben treiben, ein 512 oder 768 Bit Speicherinterface eventuell HBM und natürlich noch viel mehr Leistungsaufnahme. Das ganze hat irgendwann natürlich seine Grenzen.

Da kommt viel zusammen --- aber technologisch so am Limit ist nirgends zu sehen.

Dann mach die Augen auf!

Früher hat sich die Leistung jedes Jahr verdoppelt. Das letzte mal, als das der Fall gewesen ist, war 2008 und auch da hat man den Stromverbrauch stark hochgetrieben (auf die bei Nvidia 12 Jahre lang gültigen 250W).

Seither geht es bergab, mit Turing war dann der Tiefpunkt erreicht: 30% in 3 Jahren. Ohne die Erhöhung der Leistungsaufnahme wären bei Ampere auch nur gut 30% drin gewesen.

Jetzt müssen wir eben mit der Brechstange ran, wenn wir wesentlich mehr wollen. Ein paar Joker haben wir, wie oben gesagt, noch, aber die sind dann auch ausgespielt.
 
Seither geht es bergab, mit Turing war dann der Tiefpunkt erreicht: 30% in 3 Jahren. Ohne die Erhöhung der Leistungsaufnahme wären bei Ampere auch nur gut 30% drin gewesen.
Hierin sind wir uns völlig einig.
Früher hat sich die Leistung jedes Jahr verdoppelt. Das letzte mal, als das der Fall gewesen ist, war 2008 und auch da hat man den Stromverbrauch stark hochgetrieben (auf die bei Nvidia 12 Jahre lang gültigen 250W).
Da sind wir uns fast einig. Die etwa ersten zehn Jahre der Grakaentwicklung sind ziemlich speziell, weil sich anfangs die Leistungsaufnahmen noch im niedrigen zweistelligen Bereich bewegten und auch die Chipgrößen der Topmodelle von heutigen LowEndChips überboten werden.

Der gute Standard, der Sollstandard, ist in meinen Augen eine Effizienzverdoppelung jede Generation. Bei gleicher Leistungsaufnahme vom BigChip ist das dann auch eine Performanceverdoppelung pro Generation. Das ist aber (eben pro Generation und nicht pro Jahr) ein großzügigerer Sollstandard und wurde auch seit 2008 noch erreicht.
Dann mach die Augen auf!
Ich sage: Das hat nichts mit technischen Limits insgesamt zu tun, sondern mit den Entscheidungen von AMD und Nvidia: Früher klar auf HBM gesetzt, früher klar auf Chiplets gesetzt und es hätte die Probleme nicht gegeben. Naja, und natürlich hat auch schon die erste Miningkrise und die Schwäche AMDs einiges an Problemen mit sich gebracht.
 
Ich sage: Das hat nichts mit technischen Limits insgesamt zu tun, sondern mit den Entscheidungen von AMD und Nvidia: Früher klar auf HBM gesetzt, früher klar auf Chiplets gesetzt und es hätte die Probleme nicht gegeben. Naja, und natürlich hat auch schon die erste Miningkrise und die Schwäche AMDs einiges an Problemen mit sich gebracht.
Kann ich nur voll zustimmen. In der Entwicklung ist man oft weit entfernt vom Optimum. Typischerweise hat man diverse Stellschrauben an denen man weiter voran kommen kann. Und selbst wenn dann bspw. HBM der nächste Schritt ist und dann die Technik ausgereizt ist, kommt dann die nächste Technologie und der nächste Fortschritt.
Die Frage ist häufig nicht ob es besser geht sondern wo die Prioritäten liegen und dannach richten sich die Entwicklungsingenieure.
 
Hm, ich sag mal so:
Nur weil es einen neuen Stecker gibt, heißt das nicht, dass plötzlich alle Grafikkarten auch eine höhere Leistungsaufnahme haben werden. Ich denke, die nächste Nvidia Generation wird wieder weniger Energie benötigen, zumindest, wenn die Gerüchte stimmen und man wieder zu TSMC wechselt und die nächste AMD Generation wird auch nicht mehr elektrische Leistung benötigen .
Den größten Nutzen sehe ich mehr bei Hardwarebeschleunigungskarten á la A100, die nun - entsprechend Kühlung voraus gesetzt - auf die volle Leistung zurückgreifen könnten, anstatt sich mit "nur" 250Watt über 8 Pin EPS zu begnügen.
 
Zurück