Seasonic Prime-PX und TX: 1.600-Watt-Netzteile mit 16-Pin-Steckern für Next-Gen-GPUs

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Seasonic Prime-PX und TX: 1.600-Watt-Netzteile mit 16-Pin-Steckern für Next-Gen-GPUs

Hersteller Seasonic hat zwei 80-Plus-Platinum- und Titanium zertifizierte Netzteile aus seiner Prime-Serie präsentiert. Diese bieten einen Output von bis zu 1.600 Watt zusammen mit zwei 12VHPWR-Kabeln. Damit berücksichtigt der Hersteller vermeintlich höhere Leistungsaufnahmen kommender Next-Gen-GPUs.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Seasonic Prime-PX und TX: 1.600-Watt-Netzteile mit 16-Pin-Steckern für Next-Gen-GPUs
 
Verstehe nicht warum es so viele Anschlüsse hat. Braucht doch nur die Anschlüsse für die NextGen GPUs:ugly:
Schade das sparsame Komponenten nicht mehr im Trend sind.:ka:
 
Wann waren sie das?

Die Leistungsaufnahme kennt seit 4 Jahrzehnten nur einen Weg: nach oben!

Der C64 hatte einen Stromverbrauch von etwa 15W und das obwohl sein Netzteil nur einen Wirkungsgrad von 50% hatte.
Naja die 10er Reihe von NVIDIA und die entsprechende Konkurrenz von AMD hatten ja eine nette Entwicklung was Verbrauch angeht....welche sie mit der darauf folgenden Generation wieder über Board warfen.:rolleyes:
 
Die Leistung wird im Gegenzug dafür aber auch kräftig ansteigen, ebenso die Effizienz. Nvidia wechselt von Samsungs 8 nm auf den extra entwickelten 4N Prozess von TSMC. Das ist ein Sprung von 2 bis 2,5 Nodes. Daneben kommen die Verbesserungen an der Architektur hinzu.

Ein guter Weg die Leistungsaufnahme zu senken - egal ob High-End oder Budget - ist zudem Undervolting. Durch den Konkurrenzdruck gehen Nvidia und AMD bis an die Kotzgrenze, selbst wenn das bedeutet für 5-10% mehr Leistung 100W zusätzlich verbrauchen zu müssen. Wenn dir das nicht zusagt, dann kaufst du eben nicht oder untervoltest.
 
Naja die 10er Reihe von NVIDIA und die entsprechende Konkurrenz von AMD hatten ja eine nette Entwicklung was Verbrauch angeht....welche sie mit der darauf folgenden Generation wieder über Board warfen.:rolleyes:

Sparsamer waren sie nicht. Nvidia hat den Verbrauch nur drei Generationen lang konstant gehalten, weil AMD nicht mithalten konnte.

Bei den Grakas gab es eigentlich nur zwei Fälle. Das eine war die HD 3870. Nach den 250WE der HD 2900XT ging es dann wieder auf 126W zurück, das war aber der Tatsache geschuldet, dass die HD 2900XT leistungsmäßig ein Flop war. Das andere Beispiel war die GTX 680, wenn man die Karte mit dem Mittelklassechip als Nachfolger der GTX 580 und nicht der GTX 560Ti betrachtet.

Bei den CPUs gab es immerhin drei Fälle. Das eine war der Core2Duo, nachdem der P4 bis zu 170W benötigt hatte, waren 65W eine andere Welt. Dann auch noch Ivy Bridge, dort ging es von 95W auf 77W herunter. Das war aber der schwäche von AMD geschuldet. Der 1800X hat auch weniger verbraucht, als seine Bulldozervorgänger.

Im Trend lagen sparsame Komponenten aber nie, die Leute wollen in erster Line mehr Leistung.

Intel bietet z.B. von all seinen Top CPUs auch immer eine T Version an, die eine TDP von 35W hat, z.B. der 12900T. Die führen aber ein absolutes Nischendasein und sind vorallem bei Leuten beliebt, die ihren PC gerne passiv haben wollen.

Man sollte es einsehen: der Verbrauch kennt nur die eine Richtung: nach oben. Ganz besonders, da wir uns immer mehr dem technisch machbaren nähern und die Leistungssprünge seit bald 15 Jahren immer kleiner werden.
 
und wenn die Karten niemand kauft, oder sagen wir mal fast niemand, gibt das NV auch zu denken. Es liegt an uns, ob wir dies akzeptieren oder nicht.
Ne, an uns drei Nasen in solchen Foren wie dem hier liegt das eher nicht.
Es liegt an den 99+% anderen Leuten da draußen, die RTX4000er Karten kaufen werden ohne überhaupt zu wissen was sie verbrauchen und die es auch keinen Millimeter interessiert. ;-)

Die Industrie passt sich der größten Zielgruppe an weil hier ma meisten zu verdienen ist - und diese Zielgruppe starrt maximal auf nen Benchmarkbalken wenn überhaupt, meist eher nur auf die Zahl hinter dem RTX und die Zahl vor dem "$". Leistungsaufnahme, Effizienz, Undervolting usw. interessiert global einfach nur ne kleine Minderheit. Das ist zwar sehr schade aber leider Realität.
 
Kann ja jeder das Powerlimit seiner 4090 anpassen wie er will. Niemand ist gezwungen, die mit 100% laufen zu lassen. Ich für meinen Teil würde einfach aus Spaß an der Freude ein Profil mit ohne Powerlimit haben wollen, um alles rausholen zu können. Und im Alltagsgebrauch gibt es genug zweckmäßige Möglichkeiten, den Verbrauch wirksam einzudämmen.
 
Der C64 hatte einen Stromverbrauch von etwa 15W und das obwohl sein Netzteil nur einen Wirkungsgrad von 50% hatte.
Bei ~ 1 Mhz Taktfrequenz. Also nicht wenig. :ugly:

Topic: Ich finde die Entwicklung erschreckend. Die Highend-Modelle verbrauchen immer mehr.
Eigentlich sollte man ja annehmen, dass da auch ein Fortschritt in der Effizienz erzielt wird.
Aber das gilt wohl nur für die Einsteiger - und Mittelklassekarten.
 
Kann ja jeder das Powerlimit seiner 4090 anpassen wie er will. Niemand ist gezwungen, die mit 100% laufen zu lassen. Ich für meinen Teil würde einfach aus Spaß an der Freude ein Profil mit ohne Powerlimit haben wollen, um alles rausholen zu können. Und im Alltagsgebrauch gibt es genug zweckmäßige Möglichkeiten, den Verbrauch wirksam einzudämmen.
Genau so lasse ich meine 3080 laufen. Hab ein max OC Profil und ein max UV Profil. Das max UV Profil hab ich jetzt seit nem Jahr oder so durchgängig laufen, habe einfach nicht den Bedarf die paar FPS rauszuquetschen.
 
Eigentlich sollte man ja annehmen, dass da auch ein Fortschritt in der Effizienz erzielt wird.

Es wird ja auch immer Effizienter. Ein heutiger PC ist weit mehr als 1 Mio (eher 1 Mrd) mal schneller, als ein C64, braucht aber mit 300-750W unter Voll last "nur" 20-50 mal soviel, wie der C64.

Wenn die RTX 4090 doppelt so schnell, wie die RTX 3090 und sich dabei das 1,5 fache an Energieverbrauch genehmigt, dann ist sie um den Faktor 1,33 effizienter.

Was du meinst ist Sparsamkeit. Ein C64 ist wesentlich sparsamer, als ein moderner PC.

Aber das gilt wohl nur für die Einsteiger - und Mittelklassekarten.

Die haben die Leistungsaufnahme ja noch mehr und früher erhöht. Die GTX 1060 braucht 120W, die RTX 4060 wird mit 240W gehandelt.
 
Was du meinst ist Sparsamkeit. Ein C64 ist wesentlich sparsamer, als ein moderner PC.
Ich meinte die Effizienz. Du hattest es ja vorgerechnet. Bei 1Mhz Taktfrequenz ist ein Verbrauch von 15W relativ viel. Verglichen mit heutigen CPUs.
Die haben die Leistungsaufnahme ja noch mehr und früher erhöht. Die GTX 1060 braucht 120W, die RTX 4060 wird mit 240W gehandelt.
Jetzt ja. Vorher nicht.

Ich hole mir bald eine RX 6600. Die ist fast doppelt so schnell wie meine RX 580 und hat eine 50W niedrigere TDP.
 
Zurück