Stromverbrauch

d3x84

Komplett-PC-Käufer(in)
Hallo liebe falter,
ich habe mir so meine Gedanken um den Stromverbrauch
und den nutzen eines Gerätes gemacht.
Viele von uns würden 24/7 falten,
wenn da nicht der oft sehr hohe Stromverbrauch wäre.

Da kam ich auf die idee einer neuen Einheit mit der wir uns
gemeinsam ausrechnen können was sich für eine 24/7
falterei lohnt oder auch nicht.

Beispiel:

Playstation 3 80 GB mit Firmware 3.X

Stromverbrauch beim falten lt. meiner Messung 92,5 Watt pro Stunde.
PPD der Playstation 3 liegt offiziell bei 900.

900 / (92,5*24) = 0,405 PPD / Watt

PPD "geteilt durch" Stromvebrauch pro Tag = generiertere Punkte pro verbrauchtem Watt Strom.

So meine theorie falls der Gedankengang ein Fehler aufweist
oder ihr einen Verbesserungsvorschlag habt,
so haut ihn einfach hier rein :ugly:



Bitte bedenkt das man das falten der GPU und CPU nicht vergleichen kann,
da die GPU's nur recht einfache WU's berechnen können, im Gegensatz zur
CPU.

Deshalb schlage ich vor die CPU und GPU Wertungen voneinander zu trennen.

Achtung bei den offiziellen Watt angaben bei AMD und Intel!
AMD gibt in den offiziellen Angaben den Maximal Verbrauch an,
Intel lediglich den TDP. Der Maximalverbraucht ist jedoch meist
höher als die TDP.

So kann sich jeder die effizienz seines Systems ausrechnen,
oder eines das er zum 24/7 falten Plant.
man sollte dabei wie folgt voorgehen:

Überlegt euch wieviel Stromkosten ihr im Monat ausgeben
wollt für die 24/7 falterei. Selbst wenn ihr nicht 24/7 falten wollt,
wäre es gut wenn ihr dies berechnet so wisst ihr was
Maximal auf euch zu kommen kann.

Beispiel:
Stromverbrauch im Monat soll die 25 Eur nicht überschreiten.
Die Kilowatt Stunde kostet euch 0,20 EUR

1000 Watt = 1 Kw also 0,20 EUR / 1000 = 0,0002 EUR / Watt

25 / 0,0002 = 125000 Watt die ihr Verbrauchen dürft
bis ihr die 25 EUR voll habt (also 125 KW)

125 KW / 30,5 Tage = 4,0983 KW / Tag

4,0983 / 24 = 0,1707625 Kw / Stunde bzw. 170 Watt pro Stunde.

Aber an dieser Stelle nicht vergessen 170 Watt bei Maximal last pro Stunde!!

Ein System wie AMD X2 5000+ + Nvidia Geforce 9800 GTX+ kommt
demnach schon deutlich darüber denn
89 Watt + 156 Watt = 245 Watt pro Stunde....

Das ganze müßte natürlich jeder sich selbst ausrechnen,
den der Kwh Preis ist natürlich unterschiedlich.

Hilfreich:
GeForce 8800 GT 512MB von Zotac : Stromverbrauch - Review Hartware.net

GeForce 9800 GTX : Stromverbrauch - Review Hartware.net

Bei diesen zahlen (oben idle unten last) ist auch das System
schon mit eingerechnet (auch die CPU)

PC-Erfahrung.de:*Nvidia Geforce 9800 GT (G92b)*-*Review, Bilder, Benchmark & Informationen

Mein System:

AMD Athlon X2 5000+ Black Edition 89 Watt Maximal
(Mein Phenom is leider putt :( )

2x Zotac Geforce 9800 GTX+ = 312 Watt

= 401 Watt bei Vollast
+ ein paar Watt für den Rest des Systems aber die sind zu vernachlässigen.
(außer natürlich dem Monitor)

PPD im Schnitt 14200.

401 * 24 = 9624 Watt

14200 / 9624 = 1,475 PPD / Watt

9624*30,5 = 293532 Watt / 1000 = 293,53 Kw
293,53 * 0,20 EUR = 53,70 Monatsrechnung aufwärts............

PS:

Meine Playstation 3 liegt bei 27450 Punkten im Monat
und kostet "nur" ca. 14 EUR im Monat.

Im Vergleich mein Laptop (Nur CPU falten)
Core 2 Duo 2,2 Ghz 2 aktive x86 Clients.
Ca 500 PPD bei 67 Watt pro Stunde macht 9,80 EUR

Effizenz vergleich:

PS3: 900 PPD / (92,5*24) = 0,405 PPD / Watt
LPT: 500 PPD / (67*24) = 0,310 PPD / Watt
 
Zuletzt bearbeitet:
Hi,

ich bin scheibar absoluter Nob in diesem Thread.
Kannst du mir kurz das Falten erklären?

Wenn's um's Strom sparen geht, werde ich hellhörig. :)

Besten Gruß, Kai
 
PS:
Bitte stellt mir doch mal eine Liste euer CPU /GPU mit PPD und
Stromverbrauch lt. Hersteller bzw. den Stromverbrauch
den Ihr gemessen habt rein.
Ich würde gerne eine Ausführliche liste für uns erstellen.


Hi,

ich bin scheibar absoluter Nob in diesem Thread.
Kannst du mir kurz das Falten erklären?

Wenn's um's Strom sparen geht, werde ich hellhörig. :)

Besten Gruß, Kai

Worum es beim falten (folding) geht, bzw. Infos zur Software erfährst
du hier mehr :

Folding@home ? Wikipedia

Beim Thema Strom sparen geht es darum,
das beim falten der Rechner extrem ausgelastet ist
und deshalb der Stromverbrauch sehr hoch ist.
Je Nach CPU / GPU ist der Stromverbrauch höher
bzw die Punkte höher die du durch die Leistung deines PC's bekommst.
Manche CPU/GPU sind effizienter manche weniger effizient.

Manchmal ist es sinnvoller 3 Schwache Grafikkarte mit einer ähnlichen
leistung in den PC zu machen, als 1 oder 2 Monster Grafikkarten
weil weniger Strombedarf da ist, aber man dafür fast die gleichen Punkte am Tag bekommt.

Besonders interessant ist die aktuelle ATI Grafikkartengeneration,
da ATI die Anzahl der Streamprozessoren stark erhöht hat,
(bei den High end Modellen)
aber der Stromverbrauch der Grafikkarten gesunken ist.

Aktuelles ATI Topmodell:
http://www.alternate.de/html/produc...l1=Grafik&l2=PCIe-Karten+ATI&l3=Radeon+HD5000
Sie hat 3200 Stream CPU's

Eine Nvidia 98xx Serie hat bis zu 128 Stream CPU'S
Eine GTX 295 Serie hat 480 Stream CPU's

Eine ATI Radeon 5850 hat 1440 Stream CPU's und etwa um die 150 Watt Strom verbrauch:
http://www.alternate.de/html/produc...l1=Grafik&l2=PCIe-Karten+ATI&l3=Radeon+HD5000

Erklärung:
Eine GPU funktioniert anders als eine CPU.
Eine CPU kann viele verschiedene unterschiedlich schwierige aufgaben auf einmal erledigen. (Durch Dual oder Mehrkern Design)
Eine GPU kann durch die Stream CPU Technik nur weniger schwere berechnungen bzw immer gleiche Aufgaben erledigen,
aber dafür extrem viele auf einmal. (Der Unterschied liegt bei Faktor 10-20 und mehr)
 
Zuletzt bearbeitet:
Hi, danke erstmal. Also das klingt wirklich interessant. Ich werde mich demnächstmal Näher damit beschäftigen :) :daumen:
Jetzt bin gerade leider auf der Arbeit. Hört sich sehr spannend an!
Besten Gruß
 
Wenn du das Programm installierst melde dich für Team 70335 :D

Anleitungen wie du die verschiedenen Versionen des Programms installierst konfigurierst findest du hier im Forum
 
@d3x84

Deine Berechnung basiert jetzt auf den internen Verbrauch. Das Netzteil braucht selbst auch noch etwas. Im besten Fall sind es ja ca. 80% Effizienz. Bei 100W Aufnahme gehen ja nur 80W in den PC (zu den Komponenten)
 
Aktuelles ATI Topmodell:
ALTERNATE - HARDWARE - Grafik - PCIe-Karten ATI - Radeon HD5000 - Sapphire HD5970 OC
Sie hat 3200 Stream CPU's

Eine Nvidia 98xx Serie hat bis zu 128 Stream CPU'S
Eine GTX 295 Serie hat 480 Stream CPU's

Eine ATI Radeon 5850 hat 1440 Stream CPU's und etwa um die 150 Watt Strom verbrauch:
ALTERNATE - HARDWARE - Grafik - PCIe-Karten ATI - Radeon HD5000 - Asus EAH5850/G/2DIS

Ähm du kannst nicht einfach mal die angaben der Streamprozessoren von Nvidia und ATI vergleichen ohne etwas wichtiges zu beachten.

GTX 275/285 -> 240 Shader Kerne/Stream Prozessor
GTX 295 -> 2x 240 Shader Kerne/Stream Prozessor
HD4890 -> 800 Stream Prozessoren -> effektive 160 Shader Kerne/Stream Prozessor
HD5850 -> 1440 Stream Prozessoren -> effektive 288 Shader Kerne/Stream Prozessor
HD5870 -> 1600 Stream Prozessoren -> effektive 320 Shader Kerne/Stream Prozessor
HD5890 -> 2x 1600 Stream Prozessoren -> effektive 2 x 320 Shader Kerne/Stream Prozessor

ATI -> Je fünf zusammengefaßt (5D) zu einem Shader-Kern (ähnlich einem nvidia-SP)
Nvidia -> Shader-Kern = Stream Prozzesor
 
Also zum Thema Verbrauch hab ich hier noch nen (recht alten) Link gefunden. Den Thread der Originaltabelle finde ich einfach nicht mehr.
Vielleicht hilft das ja :).
Aber bedenkt bloß die Amerikanischen Strompreise.
 
ich hab ein 82+ von enermax im rechner.
ich verwende schon lange nur noch enermax netzteile,
weil ich mit einigen anderen herstellern schlechte erfahrungen gemacht hab
da geb ich auch gern die 5- 25 eur mehr aus für ein enermax,
dafür weiss ich das das ding tut was es soll und das für lange zeit...

ja das sind interne zahlen klar, aber von iwas muss ich ja ausgehen
was jeder gleich hat, denn den tatsächlichen stromverbrauch
am ende ist ja bei jedem unterschiedlich.
da tragen der monitor zusätzl angeschlossene boxen, cpu übertaktung
etc. zu bei.
es geht hier um den rein theoretischen wert.
und es geht darum einen anhaltspunkt bzw.
einen 24/7 falter zu bauen der nicht extrem viel schluckt
aber trotzdem gut faltet.

das war als ne art community projekt bau gedacht.
quasi für uns alle :D

EDIT:
Danke AM-Subaru für die Info. Wusste ich nicht.
Ich hab seit Jahren mich nicht mehr genau über die Technik von ATI Karten informiert
weil ich auf Nvidia umgestiegen war bzw. Ich halt ein SLI board habe.
 
Zuletzt bearbeitet:
ich hab daheim so ein Prüfgerät was anzeigt was wirklich gezogen wird
Bei reinem GPU folden zieht er ca. 125W aus der Dose.
Meine rechnung
9600GT - 3400PPD / (125W*24) = 1,113PD/W

da sind CPU LAST, Board usw mitdrinnen
CPU iss en Q6600 der macht so 3.8k zieht aber fast 160W aus der Dose wenn er rechnet , daher läuft eh nur die GPU
 
... Aber bedenkt bloß die Amerikanischen Strompreise.
The Energy cost ... ($ 0.10 per KWh)
:ugly: ... :motz:
____________________________

... ja das sind interne zahlen klar, aber von iwas muss ich ja ausgehen
was jeder gleich hat, denn den tatsächlichen stromverbrauch
am ende ist ja bei jedem unterschiedlich.
:nicken: korrekt ... diese theoretischen Werte sollen den Herstellern und Endkunden bei der Planung der passenden Kühlung helfen, sagen alldgs. kaum etwas über die endgültige Stromaufnahme aus ... schau mal z.B. hier oder hier dort findest du was über die reale Leistungsaufnahme von Grafikkarten oder hier etwas über die praxisnahe Leistungsaufnahme verschiedener Prozessoren
... es geht hier um den rein theoretischen wert.
in dem Fall meiner verbauten Komponenten, würde die Theorie besagen- dass mit meinem 955 (125W TDP) und der 9800GTX+ (141W) schon die 260W Marke gesprengt wird :ugly: ... wohlgemerkt ohne die anderen internen Sachen wie den stromhungrigen 790FX Chipsatz, RAM, HDD usw. ... hab im Mai bei Standardtaktung mal Prime und Furmark für ne Stunde laufen lassen, und bin mit dem kompletten sys auf max. 280W gekommen ;)


... hier noch ein paar praktische Werte zum Thema ...

sys-config

Phenom II 955 BE (3.0GHz@1.15V)
evga 9800GTX+, 1024MB (Standard)
ASUS M3A79-T Deluxe (790FX, Spannungen manuell)
Mushkin DDR2-800 Kit@2.08V CL4 CR2(Ganged & Dual-Mode)
Samsung HE322HJ
Enermax MODU 82+ 525W

alle Angaben beziehen sich auf das komplette sys- ohne Monitor usw.

CPU-load@VM-Linux-SMP(P2671-1920pts)

GPU-load@Fah-GPU-Console(P5770-353pts)
__________________________________

CPU (idle) + GPU (idle) - 145W (ohne C&Q; bei der Fehlerüberprüfung der HDD)


CPU (load) + GPU (idle) - 195W (~4.800ppd)


CPU (idle) + GPU (load) - 190W (~6.200ppd)


CPU (load) + GPU (load) - 230W (~4.600ppd* + ~6.200ppd)


*der ppd-Einbruch beim SMP unter Vollast wird durch die Rechenlast der FahCore_11 (hohe Prozesspriorität) verursacht

... alldgs. schwanken die Verbrauchswerte, abhängig von der Projektkonstellation des SMP & GPU Clienten ... hier ein paar Bsp. vom WE, nach dem VMware Player setup


P2671 + P5797(787pts.) - 240W (~4.700ppd + ~5.600ppd)

P2671 + P5765(353pts.) - 230W (~4.600ppd + ~6.200ppd)

P2671 + P5915(1888pts.) - 220W (~4.900ppd + ~5.300ppd)

Fazit: im groben Schnitt komm ich akt.(viele 353er) auf ~5,6kW/ Tag bei ~10.500pts/ Tag (+/-200)

macht dann letztlich - 1,875 pts/ W
 
Jup, das seh ich genauso...bei meinem X 955 geben alle Cores die gleichen temps aus, und in anbetracht der CPU-temp dürften sie richtig sein, was bei meinem Q9450 nicht genau der fall ist...
also schluss mit "amd is so schlecht, die kriegn ned mal gscheide sensoren hin"
is zwar leider echt schade dass amd so schlechte performance bei programmen zeigt, aber im großen und ganzen bin ich echt mega zufrieden mit meinem jetzigen System. die leistung für den preis bekommst du bei nem Intel nicht...und übrigens sys-profil is scho ewig nicht mehr aktuell:D
 
ich hab daheim so ein Prüfgerät was anzeigt was wirklich gezogen wird
Bei reinem GPU folden zieht er ca. 125W aus der Dose.
Meine rechnung
9600GT - 3400PPD / (125W*24) = 1,113PD/W

da sind CPU LAST, Board usw mitdrinnen
CPU iss en Q6600 der macht so 3.8k zieht aber fast 160W aus der Dose wenn er rechnet , daher läuft eh nur die GPU


Habe auch so ein Gerät zwischen PC und Steckdose klemmen . Wenn ich den OCCT .- GPU Test und Intel Burn Test zusammen laufen lasse habe ich nach 30 min ca. 500 Watt auf dem Gerät stehen . Im Idle verbraucht mein PC ca 130 - 140 Watt.
Aber so viel (500 Watt )last erzeugt man im Normalen Betrieb nicht,wie bei den Test.
Aber meine Stromrechnung wird wieder gewaltig werden . Habe fast 4 Monate und das täglich Overclockt und getestet . :(
 
Komm mit meinem 2. PC (2x HD3870 X2 und X3350) auf so 600W im 3dMark...will lieber ned testen was unter furmark passiert, weil das NT is nur auf 650W spezifiziert und des will ich dem echt ned zumuten:D
aber dein Quad kann sich echt sehn lassn...500 FSB, bei mir is leider schon mit 450 schluss:(
 
Komm mit meinem 2. PC (2x HD3870 X2 und X3350) auf so 600W im 3dMark...will lieber ned testen was unter furmark passiert, weil das NT is nur auf 650W spezifiziert und des will ich dem echt ned zumuten:D
aber dein Quad kann sich echt sehn lassn...500 FSB, bei mir is leider schon mit 450 schluss:(


FSB 500 war auch nicht so einfach voralem mit der VID vom 1.275 . Wenn ich länger die 2 Test zusammen laufen lasse geht er noch viel hör mit den Watt . 2 Netzteile haben schon den geist aufgegeben ( waren aber NO Name ). Das was ich jetzt drin habe ist gut . Hat bisher noch nicht geschwächelt .
 
So, dann komm ich mal mit meinem Hungrigen System:
OCZ 600W Netzteil (ca. 80%)
Ati 4890 10% OC
Q8200 @ 2.93 Ghz
Das ganze zieht bei folding so 300 Watt, bei mikrigen 5000 ppd max.
 
Ah ja was ich voll vergessen hab is ja des main system:D

also ich denk mal dass ich so um die 4500 PPD mach(weiß leider ned genau, bring kei fahmon zum laufen) und verbrauchen tu ich so 227W...des wärn also ca 0,05 Watt per Point per Day;) liegt aber daran dass 8 festplatten am werkeln sind, und die nicht ausgeschaltet werden(da laggt mein system immer so rum:()

halt, anders rum is ja vorgegeben sry:D krieg 19,82 PPD pro Watt
 
@Julian Kruck
Sry, aber deine Rechnung hat leider nen Haken. :D
Wenn du mit Punkten pro Tag rechnest, solltest du auch mit Stromverbrauch pro Tag rechnen. Das würde dann so aussehen: 4500ppd / 24h = 187,5 pph / 227W = 0,83ppW
 
Aso! stimmt, so is der wert respektabler...aber mit meiner methode könnte man auch ne vergleichsliste erstelln:D
naja, hab mich au schon gewundert wieso ich glei soviel rauskrieg, im gegensatz zu anderen;) aber ja, wert ist 0,83ppW mit nem X4 955BE auf 3,4 Ghz mit 1333, 7CL T1 Speicher
 
Zurück