Hallo liebe falter,
ich habe mir so meine Gedanken um den Stromverbrauch
und den nutzen eines Gerätes gemacht.
Viele von uns würden 24/7 falten,
wenn da nicht der oft sehr hohe Stromverbrauch wäre.
Da kam ich auf die idee einer neuen Einheit mit der wir uns
gemeinsam ausrechnen können was sich für eine 24/7
falterei lohnt oder auch nicht.
Beispiel:
Playstation 3 80 GB mit Firmware 3.X
Stromverbrauch beim falten lt. meiner Messung 92,5 Watt pro Stunde.
PPD der Playstation 3 liegt offiziell bei 900.
900 / (92,5*24) = 0,405 PPD / Watt
PPD "geteilt durch" Stromvebrauch pro Tag = generiertere Punkte pro verbrauchtem Watt Strom.
So meine theorie falls der Gedankengang ein Fehler aufweist
oder ihr einen Verbesserungsvorschlag habt,
so haut ihn einfach hier rein
Bitte bedenkt das man das falten der GPU und CPU nicht vergleichen kann,
da die GPU's nur recht einfache WU's berechnen können, im Gegensatz zur
CPU.
Deshalb schlage ich vor die CPU und GPU Wertungen voneinander zu trennen.
Achtung bei den offiziellen Watt angaben bei AMD und Intel!
AMD gibt in den offiziellen Angaben den Maximal Verbrauch an,
Intel lediglich den TDP. Der Maximalverbraucht ist jedoch meist
höher als die TDP.
So kann sich jeder die effizienz seines Systems ausrechnen,
oder eines das er zum 24/7 falten Plant.
man sollte dabei wie folgt voorgehen:
Überlegt euch wieviel Stromkosten ihr im Monat ausgeben
wollt für die 24/7 falterei. Selbst wenn ihr nicht 24/7 falten wollt,
wäre es gut wenn ihr dies berechnet so wisst ihr was
Maximal auf euch zu kommen kann.
Beispiel:
Stromverbrauch im Monat soll die 25 Eur nicht überschreiten.
Die Kilowatt Stunde kostet euch 0,20 EUR
1000 Watt = 1 Kw also 0,20 EUR / 1000 = 0,0002 EUR / Watt
25 / 0,0002 = 125000 Watt die ihr Verbrauchen dürft
bis ihr die 25 EUR voll habt (also 125 KW)
125 KW / 30,5 Tage = 4,0983 KW / Tag
4,0983 / 24 = 0,1707625 Kw / Stunde bzw. 170 Watt pro Stunde.
Aber an dieser Stelle nicht vergessen 170 Watt bei Maximal last pro Stunde!!
Ein System wie AMD X2 5000+ + Nvidia Geforce 9800 GTX+ kommt
demnach schon deutlich darüber denn
89 Watt + 156 Watt = 245 Watt pro Stunde....
Das ganze müßte natürlich jeder sich selbst ausrechnen,
den der Kwh Preis ist natürlich unterschiedlich.
Hilfreich:
GeForce 8800 GT 512MB von Zotac : Stromverbrauch - Review Hartware.net
GeForce 9800 GTX : Stromverbrauch - Review Hartware.net
Bei diesen zahlen (oben idle unten last) ist auch das System
schon mit eingerechnet (auch die CPU)
PC-Erfahrung.de:*Nvidia Geforce 9800 GT (G92b)*-*Review, Bilder, Benchmark & Informationen
Mein System:
AMD Athlon X2 5000+ Black Edition 89 Watt Maximal
(Mein Phenom is leider putt )
2x Zotac Geforce 9800 GTX+ = 312 Watt
= 401 Watt bei Vollast
+ ein paar Watt für den Rest des Systems aber die sind zu vernachlässigen.
(außer natürlich dem Monitor)
PPD im Schnitt 14200.
401 * 24 = 9624 Watt
14200 / 9624 = 1,475 PPD / Watt
9624*30,5 = 293532 Watt / 1000 = 293,53 Kw
293,53 * 0,20 EUR = 53,70 Monatsrechnung aufwärts............
PS:
Meine Playstation 3 liegt bei 27450 Punkten im Monat
und kostet "nur" ca. 14 EUR im Monat.
Im Vergleich mein Laptop (Nur CPU falten)
Core 2 Duo 2,2 Ghz 2 aktive x86 Clients.
Ca 500 PPD bei 67 Watt pro Stunde macht 9,80 EUR
Effizenz vergleich:
PS3: 900 PPD / (92,5*24) = 0,405 PPD / Watt
LPT: 500 PPD / (67*24) = 0,310 PPD / Watt
ich habe mir so meine Gedanken um den Stromverbrauch
und den nutzen eines Gerätes gemacht.
Viele von uns würden 24/7 falten,
wenn da nicht der oft sehr hohe Stromverbrauch wäre.
Da kam ich auf die idee einer neuen Einheit mit der wir uns
gemeinsam ausrechnen können was sich für eine 24/7
falterei lohnt oder auch nicht.
Beispiel:
Playstation 3 80 GB mit Firmware 3.X
Stromverbrauch beim falten lt. meiner Messung 92,5 Watt pro Stunde.
PPD der Playstation 3 liegt offiziell bei 900.
900 / (92,5*24) = 0,405 PPD / Watt
PPD "geteilt durch" Stromvebrauch pro Tag = generiertere Punkte pro verbrauchtem Watt Strom.
So meine theorie falls der Gedankengang ein Fehler aufweist
oder ihr einen Verbesserungsvorschlag habt,
so haut ihn einfach hier rein
Bitte bedenkt das man das falten der GPU und CPU nicht vergleichen kann,
da die GPU's nur recht einfache WU's berechnen können, im Gegensatz zur
CPU.
Deshalb schlage ich vor die CPU und GPU Wertungen voneinander zu trennen.
Achtung bei den offiziellen Watt angaben bei AMD und Intel!
AMD gibt in den offiziellen Angaben den Maximal Verbrauch an,
Intel lediglich den TDP. Der Maximalverbraucht ist jedoch meist
höher als die TDP.
So kann sich jeder die effizienz seines Systems ausrechnen,
oder eines das er zum 24/7 falten Plant.
man sollte dabei wie folgt voorgehen:
Überlegt euch wieviel Stromkosten ihr im Monat ausgeben
wollt für die 24/7 falterei. Selbst wenn ihr nicht 24/7 falten wollt,
wäre es gut wenn ihr dies berechnet so wisst ihr was
Maximal auf euch zu kommen kann.
Beispiel:
Stromverbrauch im Monat soll die 25 Eur nicht überschreiten.
Die Kilowatt Stunde kostet euch 0,20 EUR
1000 Watt = 1 Kw also 0,20 EUR / 1000 = 0,0002 EUR / Watt
25 / 0,0002 = 125000 Watt die ihr Verbrauchen dürft
bis ihr die 25 EUR voll habt (also 125 KW)
125 KW / 30,5 Tage = 4,0983 KW / Tag
4,0983 / 24 = 0,1707625 Kw / Stunde bzw. 170 Watt pro Stunde.
Aber an dieser Stelle nicht vergessen 170 Watt bei Maximal last pro Stunde!!
Ein System wie AMD X2 5000+ + Nvidia Geforce 9800 GTX+ kommt
demnach schon deutlich darüber denn
89 Watt + 156 Watt = 245 Watt pro Stunde....
Das ganze müßte natürlich jeder sich selbst ausrechnen,
den der Kwh Preis ist natürlich unterschiedlich.
Hilfreich:
GeForce 8800 GT 512MB von Zotac : Stromverbrauch - Review Hartware.net
GeForce 9800 GTX : Stromverbrauch - Review Hartware.net
Bei diesen zahlen (oben idle unten last) ist auch das System
schon mit eingerechnet (auch die CPU)
PC-Erfahrung.de:*Nvidia Geforce 9800 GT (G92b)*-*Review, Bilder, Benchmark & Informationen
Mein System:
AMD Athlon X2 5000+ Black Edition 89 Watt Maximal
(Mein Phenom is leider putt )
2x Zotac Geforce 9800 GTX+ = 312 Watt
= 401 Watt bei Vollast
+ ein paar Watt für den Rest des Systems aber die sind zu vernachlässigen.
(außer natürlich dem Monitor)
PPD im Schnitt 14200.
401 * 24 = 9624 Watt
14200 / 9624 = 1,475 PPD / Watt
9624*30,5 = 293532 Watt / 1000 = 293,53 Kw
293,53 * 0,20 EUR = 53,70 Monatsrechnung aufwärts............
PS:
Meine Playstation 3 liegt bei 27450 Punkten im Monat
und kostet "nur" ca. 14 EUR im Monat.
Im Vergleich mein Laptop (Nur CPU falten)
Core 2 Duo 2,2 Ghz 2 aktive x86 Clients.
Ca 500 PPD bei 67 Watt pro Stunde macht 9,80 EUR
Effizenz vergleich:
PS3: 900 PPD / (92,5*24) = 0,405 PPD / Watt
LPT: 500 PPD / (67*24) = 0,310 PPD / Watt
Zuletzt bearbeitet: