PC watt verbauch

Raiibow

Schraubenverwechsler(in)
Hallo Community,

vor längerer Zeit habe ich den PC eines Freundes bekommen. Nun habe ich mal den Watt verbrauch gecheckt mittels Stromverbrauch messer.

Das habe ich speziell deswegen getan, weil meine derzeitige Grafikkarte nur auf 1 läuft und nicht auf alle beide. Daher kam mir der Sinn das vielleicht das Netzteil nicht die nötige Power hat.

Zurück zu der Mesung, die ergab sagenhafte 1500 bis 2100 Watt, unter volllast mit FurMark, für die Grafikkarte, und für die CPU und RAM Prime95 erstaunliche 4700 Watt.

Hier im Forum habe ich gelesen das man noch 20% abziehen sollte wegen der effiziens des Netzteils.

Habe ich gemacht dann kommt bei volllast 3760 Watt heraus. Meine frage nun, kann das sein? Verbraucht der PC wirklich 3760 Watt unter volllast? Wenn die Antwort ja ist, wie funktioniert es das das Netzteil mit 1100 Watt die 3760 Watt bereitstellen kann?

Für eine Antwort und eure Hilfe wäre ich sehr dankbar.

Meine PC-Komponenten:

Prozessor
Intel Core i7 5820K
RAM
2x Crucial Balistix Sport 8GB DDR4 - https://www.amazon.de/Ballistix-BLS...al+ballistix+sport,aps,-1&sr=8-12-spons&psc=1
Mainboard
ASRock x99 Extreme4
Grafikkarte
Powercolor AXR9 390 II 16GBD5 PCI-E Grafikkarte R9 390 Devil 13 Dual-Core GPU 16GB - https://www.amazon.de/Powercolor-AXR9-390-16GBD5-Grafikkarte/dp/B015C3IPCE
Festplatten
2x SSD von Samsung (1x Evo 840(120GB) und 1x Evo 860[500GB))
Gekühlt wird der Prozessor durch Wasserkühlung
6 Lüfter von be quiet (3x 120mm, 3x 140mm)
 
Zurück zu der Mesung, die ergab sagenhafte 1500 bis 2100 Watt, unter volllast mit FurMark, für die Grafikkarte, und für die CPU und RAM Prime95 erstaunliche 4700 Watt.

Schmeiß dein Messgerät weg und kauf dir eins das funktioniert. ;)

Solche Zahlen sind völlig utopisch. Ein Zehntel davon wäre realistischer. Die von dir genannte Hardware bewegt sich je nach Last im Bereich zwischen 250 und 500W maximal, typischer Verbrauch beim Spielen wäre Größenordnung 350W netto.
Mal als Hinweis: Schuko-Steckdosen in deutschen haushalten sind mit 10 oder 16A-Sicherungen (je nach Leitungslänge und Querschnitt) abgesichert. Bedeutet aus einer Steckdose kommen maximal dauerhafte 3680W raus (230V x 16A). Bei 4700W würde deine Haussicherung wegen Überlast fallen (oder wegen des Kurzschlusses der entstünde wenn dein PC sich spontan in ein Rauchwölkchen auflöst - das würde bei tatsächlichen 4700W Eingangsleistung nämlich passieren). :schief:


Also entweder ist dein Messgerät hart im Eimer oder du hast das Komma vor der letzten Stelle nicht gesehen. :haha:
 
Zuletzt bearbeitet:
Falsche Kommastelle :D
Wenn Du meine Sig anschaust, haben wir vom Verbrauch her ein ähnliches System und bei mir reicht ein 550W(!)-NT.
450W -500W bei Dir mögen angehen.
Gruß T.
 
Vielen Dank für eure Kommentare.

Ich habe jetzt noch mal drauf geschaut und ich hab den kleinen Punkt übersehen :# Da war ich wohl zu schnell.
Aber wiso läuft dann als nur 1 Grafikkarte anstatt alle beide und das sogar unter volllast?
 
Du hast zwei davon? Ist mir gar nicht aufgefallen oben. Macht aber auch nichts denn um die frage zu beantworten warum Karte Nummer 2 die allermeiste zeit genau gar nichts macht:

Weil die Unterstützung von mehreren Grafikkarten in den letzten Jahren auf gefühlt Null abgenommen hat. Die Leute haben bemerkt dass zwei Grafikkarten zu benutzen viel, VIEL mehr nachteile als Vorteile hat und die Hersterller AMD/NVidia nach und nach den Support dafür faktisch eingestellt.

Außer für Dinge wie Proteinfalten und ähnliche GPGPU-Anwendungen (wo man fast beliebig viele GPUs gleichzeitig verwenden kann) ist mehr als eine Grafikkarte in einem PC zu bauen seit längerer Zeit einfach Unsinn weils nix bringt außer nen Haufen Stromverbrauch, Abwärme, Lautstärke und unregelmäßige Frametimes.
 
Wo hast du denn gemessen?
Das Messgerät steckst du zwischen dem Netzteil und dem Stromanschluss. Da darf nichts anderes mit dran hängen außer der Rechner selbst. Kein Monitor, kein Kühlschrank, keine Klimaanlage, kein gar nichts.
 
Ja das sind 2 Grafikkarten in einer von Powercolor zudem noch OC. Deswegen auch 16GB jede Karte 8GB.

Ok, das heißt das hier ist kein Hardware problem sondern viel mehr ein Unterstützung problem?

Das wirft mir aber dann die Frage auf, ich habe mal wieder Far Cry 3 gespielt und des einemal liefen alle beide an einem anderem Tag lief nur eine, wie kommt das dann zu stande?
 
Deswegen auch 16GB jede Karte 8GB.

Grafikspeicher wird nicht addiert da alle Daten in beiden Grafikkarten (doppelt) vorliegen müssen. Du kannst auch 4 Grafikkarten mit 8GB einbauen - die Anwendung hat trotzdem immer noch nur 8GB zur Verfügung.

Ok, das heißt das hier ist kein Hardware problem sondern viel mehr ein Unterstützung problem?
Ja. Wie gesagt Crossfire/SLI sind tot. Seit Jahren.

Das wirft mir aber dann die Frage auf, ich habe mal wieder Far Cry 3 gespielt und des einemal liefen alle beide an einem anderem Tag lief nur eine, wie kommt das dann zu stande?
Wie gesagt, die Unterstützung der technik ist quasi Null. Wenn sich niemand (weder Kartenhersteller noch Spieleprogrammierer) darum scheren ob es funktioniert ists eben Glückssache ob und wenn ja wie gut. Wobei es tatsächlich ungewöhnlich ist dass die selbe Anfrage mal geht und mal nicht.
 
Tu dir und deiner Stromrechnung einen Gefallen und verklopp dieses veraltete/energiefressende Graka-Monster. Dann gibst du uns Infos bezüglich:

deine verwendete Auflösung...
dein Anspruch an Bildquali/Höhe der Fps (Bilder pro Sekunde)...
Spiele die du zockst...

und du bekommst Empfehlungen für ne aktuelle Single-GPU mit der du effizient und mind. genauso schnell daddeln kannst...

Gruß
 
Da ist man kurz weg vom Computer kram und kommt zurück und dann sowas. Wer hätte das gedacht. Vielen Dank für info. ;)

Dann wird wohl das Geld nicht in ein neues Netzteil fließen sondern in eine neue Grafikkarte, die R9 390 ist ja nicht mehr die jüngste.

P.S. wie könnt ihr Smileys machen wie in deinem ersten Post Incredible Alk?

Ich habe 2 Monitore beide in 4K deshalb würde ich gerne auch auf 4K spielen. Wenn die Grafikkarte aber zu teuer ist Spiele ich auch auf 1080p.

Momentan können die Monitore höchstens 60 FPS und neue werden in nächster Zeit keine gekauft, also am besten 60FPS.

Ab und zu Spiele ich ein paar alte klassiker aber mittlerweile geht es wieder zu den Neuen Spielen. Egal welche.
 
Zuletzt bearbeitet von einem Moderator:
PS: und jap, ein Budget brauchen wir natürlich auch noch. Wenn es etwas neues sein darf;) Für Spaß in 4k bei aktuellen Spielen solltest du schon... ähem, nen gut gefüllten Geldbeutel mitbringen.

Gruß
 
mhm Budget so 500-600 bin am überlegen direkt ein neues Mainboard mit zukaufen.
Von AMD gibbet es aktuell für die Auflösung nix weiter empfehlenswertes. Bei deinem Geldbeutel würde ich da eine RTX 2070 Super:

KFA2 GeForce RTX 2070 SUPER EX [1-Click OC], 8GB GDDR6, HDMI, 3x DP (27ISL6MDU9EK) ab €'*'517,90 (2019) | Preisvergleich Geizhals Deutschland

oder eine auslaufende RTX 2080 vorschlagen:

Gainward GeForce RTX 2080, 8GB GDDR6, HDMI, 3x DP, USB-C (4207) ab €'*'649,00 (2019) | Preisvergleich Geizhals Deutschland

aber auch mit diesen Karten wirst du hier und da in 4K Abstriche machen müssen...

Gruß
 
Also wenns in 4K noch höhere Einstellungen sein sollten reden wir von Grafikkarten in der Größenordnung RTX2070 (SUPER), eher RTX2080 (Super). Da kannste froh sein wenn die 600 für die GPU alleine reichen. :schief:

(Und die Smileys sind rechts neben dem Textfenster oder per bbcode)


Aber dafür kann man dir versprechen: Egal welche der vorgeschlagenen Grafikkarten du nimmst, die sind alle alleine weit schneller als zwei R9 390 zusammen. :-D

Vom P/L wäre eine 2070Super wohl die sinnvollste Option.
 
Wer ne super Auflösung will, muss auch supertief in die Tasche greifen...;)
Mittlerweile gehts ja einigermaßen. Ich hab seit 2014 nen 4K-TFT - damals haste wirklich noch zwei der dicksten GPUs am Markt kaufen müssen um mit 30 fps rumzueiern beim Witcher. :ugly:
Wenn du heute ne RTX2070 dasselbe machen lässt schüttelt die da lockere 60 fps aus dem Arm.

Aber das Spiel ist eben genauso 5 Jahre alt. Wenn man aktuelle AAA-Spiele mit hohen Einstellungen in 4K spielen will kann die GPU gar nicht stark genug sein. Da schafft selbst ne 2080Ti nicht selten keine 60 fps. Aber die Menschheit hat ja Regler erfunden. Hoch statt Ultra reicht fast immer aus dass alles fluffig läuft und oft nur minimal (oder sogar gar nicht) schlechter aussieht.
 
Angesichts des Preis/Leistung würde ich zu der RTX 2070 greifen und das gesparte Geld in ein ein Mainboard stecken.

Da würde ich dann auch etwas mit den Grafikeinstellungen runter gehen. Das es schön flüssig auf 60 fps läuft. :)

Würdet ihr ein neues Mainboard kaufen oder reicht das ASRock x99 Extreme4 aus?
 
Warum in aller Welt willste dir ein neues Mainboard einer viele Jahre alten Plattform kaufen die EndofLife ist und das dir genau gar nichts bringt? Das Geld kannste genauso gut im Klo runterspülen. :ka:

Wenn du in 4K spielst ist die CPU nicht besonders wichtig bzw. dein 5820K noch ok. Kauf dir ne fixe Grafikkarte und du kannst losspielen.

Sollte die CPU dann irgendwann mal schlappmachen ersetzt du die Plattform (Board, CPU, ggf. RAM) und benutzt die neue Grafikkarte weiter. Das sind sinnvolle Aufrüstoptionen, nicht einfach irgendein Board kaufen.



Übrigens nebenbei erwähnt: Wenn du 4 statt 2 RAM-Riegel gehabt hättest hättest du die doppelte Speicherbandbreite bei deiner Plattform nutzen können - das Hauptargument der großen X99-Plattform (Quad-Channel-RAM) wurde einfach verschenkt. Ohne das böse zu meinen aber wer immer den PC da gebaut hat hat ziemlichen Murks gemacht.
 
Zuletzt bearbeitet:
Zurück