Warum liegt empfohlene minimale Netzteilleistung bei Grafikkarten so hoch?

lokran

Komplett-PC-Aufrüster(in)
Servus,

habe mir dieses Jahr seit langem mal wieder ein System, siehe Signatur, zusammengeschraubt und dabei erstmal die Grafikkarte ausgelassen, da ich noch überlege, welches Modell ich letztlich kaufen werde.

Hatte damals aber hypothetisch in einem Netzteilrechner eine 1080TI eingegeben und selbst da schien es mir, dass ich mit 550 Watt noch genügend Luft habe für alle Eventualitäten, mal von SLI abgesehen.

Trotzdem ärgere ich mich jetzt, dass ich da an den 100 Watt für 15€ mehr gespart habe. Denn mir ist aufgefallen, dass bei einem Online-Händler die empfohlene minimale Netzteilleistung bei den 1080ti, 2280 und 2280ti oftmals mit 600 oder 650 Watt angegeben wird.

Wenn ich mir jetzt den Test des Maximus X Hero bei Hardwareluxx anschaue, zieht das da in Prime 95 mit einem 8700k ca. 150 Watt. Das Long Duration Power Limit der CPU hab ich sowieso auf 95 Watt gestellt.

Jedenfalls wenn ich da 150 Watt habe und dann nehm ich noch meine Peripherie, die Lüfter und Wakü-Pumpe hinzu, kann ich mir nicht vorstellen, dass das insgesamt mehr als 175 Watt sind. Diese von den 550 abgezogen bleiben etwa 375 Watt. Wobei bei dem Händler für manche 2080ti sogar 375 Watt als "durchschnittlicher" Verbrauch angegeben ist.

Kann man letztlich nicht auch softwareseitig ein Power Target bei Grafikkarten einstellen, so dass sie gar nicht mehr als sagen wir 350 Watt ziehen, so dass ich noch etwas Luft habe? Sicherlich ist das knapp bemessen und auch wenn ich mal übertakten möchte langfristig gesehen, wird es dann wirklich eng.

In jedem Fall warte ich mal die Tests der neuen Grafikkartengeneration ab und entscheide dann, aber ich überlege eben, ob ich das Netzteil wieder verkaufen und durch ein 650 Watt ersetzen sollte oder ob das jetzt eine vorschnelle Reaktion wäre.

Langfristig halte ich es aber auch nicht für erstrebenswert, eine Karte zu haben, die an die 400 Watt frisst, daher möchte ich wie gesagt auch mal die Tests abwarten und ich weiß auch nicht unter welchem Szenario das wirklich gegeben ist oder ob der Händler da einfach total übertrieben Werte reinschreibt, weil 375 Watt im Schnitt kommt mir doch überzogen vor, also selbst in 4k mit Raytracing und was weiß ich alles auf Ultra ...

Daher kann vermutlich auch von euch keiner vorhersagen, wie die neuen Karten sein werden, aber wie gesagt selbst bei den 1080ti ist oftmals von 600 Watt+ als empfohlen die Rede und da frag ich mich, ob die da einfach einen übertrieben Puffer einbauen, weil sie denken, dass man noch zig HDDs usw. betreibt...

Was passiert eigentlich im schlimmsten Fall, wenn zu wenig Leistung da ist? Schaltet das Netzteil dann einfach ab?

Mir ist jetzt im Nachhinein erst bewusst geworden, dass die 75 Watt des PCIe + 2x 8er Stecker ja genau die 375 Watt sind. Daher ist das ja schon begründet in dem Sinne, aber nicht als Durchschnitt, sondern im Extremfall...

Danke für eure Meinungen.
 
Zuletzt bearbeitet:
Die rechnen wahrscheinlich mit einem "einfachen" Netzteil und nicht mit einem Gold oder Platinum Netzteil.
 
DIe 375 Watt waren auch auf die 2080ti bezogen, die hat ja auch 2x8pol Stecker, daher wär das wohl maximal schon drin.
 
2 Gründe:

Erstens: NVidia weiß nicht was du für ein Restsystem hast und muss vom "schlimmsten" ausgehen - du könntest ja einen 7980XE oder 2990WX benutzen.
Zweitens: NVidia weiß nicht welches Netzteil du kaufst und muss vom schlimmsten ausgehen: Ein Schrottnetzteildas 750W auf dem Aufkleber hat aber nur 350W schafft ohne abzubrennen.

Deswegen wird in den Standardempfehlungen von 600W-Netzteilen und mehr gesprochen obwohl ein gutes 400W-gerät das in einem normalen Spiele-PC locker schafft.

DIe 375 Watt waren auch auf die 2080ti bezogen, die hat ja auch 2x8pol Stecker, daher wär das wohl maximal schon drin.
Die Steckerart und Anzahl hat NICHTS mit dem realen Verbrauch zu tun. Die rechnerei 2x8-Pol --> 375W ist nur das, was nach PCIe-Spec offiziell durch die Stecker laufen dfürfte. In der Realität verbrauchen Karten meist nur gefühlt die Hälfte - und andere übrigens auch mehr... nicht alle Karten halten sich an die Spec, das letzte Dual-OC-Monster von ASUS/AMD zog auch 500+W durch 2 8-Pol.

Was eine Karte real verbraucht ist definiert durch ihre im BIOS hinterlegte TDP mal PowerTarget. Wie das genau geht:
http://extreme.pcgameshardware.de/blogs/incredible-alk/1619-alkis-blog-36-gpu-powerlimiter.html

Und ja, eine 2080Ti wird ab Werk ohne OC genau 250W verbrauchen wenn NV die TDP so ansetzt.
 
Zuletzt bearbeitet:
Die Angaben der Grafikkartenhersteller für Netzteil Leistungen kannst du getost vergessen.
Hast du ein brauchbares 500 Watt Netzteil, reicht das immer für ein single GPU System. Erst wenn du hier und da übertreibst oder zuviel übertakten willst, könnte es nicht reichen. Aber dann kaufst du sowieso kein 500 Watt Netzteil. Und jemand, der sich einen 16 oder 32 Kern Prozessor kauft, kümmert sich ebenfalls nicht um ein 500 Watt Netzteil.
 
Die rechnen wahrscheinlich mit einem "einfachen" Netzteil und nicht mit einem Gold oder Platinum Netzteil.

Die 80+ Zertifizierung hat rein gar nichts damit zu tun. Die besagt nur, sofern sie überhaupt stimmt, mit welcher Effizienz die Nennleistung aus der Dose gezogen wird. Nicht etwa, wieviel von der Nennleistung bei den verbrauchenden Komponenten ankommt. Ansonsten gibt es auch keinen zwingenden Zusammenhang zwischen Qualität des NT und der Effizienz.
 
Nicht etwa, wieviel von der Nennleistung bei den verbrauchenden Komponenten ankommt. Ansonsten gibt es auch keinen zwingenden Zusammenhang zwischen Qualität des NT und der Effizienz.

Ersteres schon - denn genauso ist die Effizienz definiert (Ausgangsleistung pro Eingangsleistung), bei letzteren haste aaber Recht - ein 80+-Label mach absolut keine Aussage über Spannungsqualität, Stabilität, Ripple/Noise, Holdup, Lautstärke, PFC-Qualität, und so weiter und so weiter.

Böse gesagt ist das, was das 80+-Logo bewertet eigentlich das unwichtigste an einem Netzteil überhaupt für die Hardware dahinter.
 
Böse gesagt ist das, was das 80+-Logo bewertet eigentlich das unwichtigste an einem Netzteil überhaupt für die Hardware dahinter.

Schlimm ist eher, dass Netzteile das Logo haben, die Werte aber gar nicht einhalten. Das haben Tests ja schon öfters belegt.
Da frage ich mich ja, wie die denn überhaupt das Logo erhalten haben? Haben die etwa besondere Samples gebaut, die die Werte einhalten und in am Fließband wurden dann billigere Komponenten verwendet?
Schade, dass da niemand mal ermittelt, denn für mich ist das schlicht Betrug.
 
Da ich das "Testcommitee" der 80+ Leute mal als seriös ansehen würde ist das wohl so ziemlich die einzige Chance...

Setzt vorraus, dass das zu 80plus gesendete Netzteil auch dem entspricht, was wir im Handel bekommen. Leider gibt es von bestimmten Firmen immmer wieder Berichte, dass dort gegoldensamplet wird und spezielle SOnderversionen an 80plus und/oder die Tester verschickt werden...
 
Ersteres schon - denn genauso ist die Effizienz definiert (Ausgangsleistung pro Eingangsleistung)

Wäre mir neu. Und für genau die Klarstellung habe ich in der Vergangenheit auch häufig Zustimmung hier bekommen: das Effizienz-Rating gibt an, mit welcher Effizienz eine Nennleistung aus der Steckdose gezogen wird. Sprich: für 100 Watt Nennleistung bei bspw. 85% Effizienz bedeuten, dass das NT um die 117 Watt aus der Steckdose zieht. Nicht, dass bei 100 Watt Nennleistung nur 85 Watt bei den Komponenten ankommen.
 
Sprich: für 100 Watt Nennleistung bei bspw. 85% Effizienz bedeuten, dass das NT um die 117 Watt aus der Steckdose zieht.
Stimmt. Und wo widerspricht das der Definition?

Es kommt was du meinst darauf an, was man als 100% definiert oder blöd gesagt "wie rum man rechnet". Der Ausgangspunkt ist die Nennleistung. Ein 500W-gerät liefert (theoretisch) echte 500W am Ausgang und verbraucht 500W/[Effizienz] an Eingangsleistung. Daher ist die Effizienz das Verhältnis von Ausgang zu Eingang.
 
Stimmt. Und wo widerspricht das der Definition?

Es kommt was du meinst darauf an, was man als 100% definiert oder blöd gesagt "wie rum man rechnet". Der Ausgangspunkt ist die Nennleistung. Ein 500W-gerät liefert (theoretisch) echte 500W am Ausgang und verbraucht 500W/[Effizienz] an Eingangsleistung. Daher ist die Effizienz das Verhältnis von Ausgang zu Eingang.

Das ist ja genau das Prinzip, das ich beschrieben habe. Du hast jedoch meiner Aussage in #9 widersprochen, wo ich auf das falsch herum gedachte Verständnis der Effizienz von Netzteilen, wie es sich etwa im Post von @SativaBongharzia angedeutet hat, hingewiesen habe.
 
Zurück