Ich hab doch klar geschrieben worum es mir geht. Die Leute, die mit Fingern auf andere zeigen, weil sie Strom mit ihrem PC vergeuden, sollen erst mal vor ihrer EIGENEN Tür kehren. Und überlegen, ob sie selbst nicht um Potenzen mehr Energie unnötig verschwenden.
Mit Fingern auf andere zeigen ist immer so einfach.
Wie gesagt: Der Vergleich zieht nicht.
Auch wenn ihr beide rein zum Spaß unterwegs wart, wurde ja mehr nicht benutzt, als nur die Grafikkarte... Warm Wasser, Beleuchtung, Evtl. Fernseher... uvm. war alles aus...
Ein durchschnittlicher 2 Personen Haushalt verbraucht laut den Stromrechnern 2400 kWh / Jahr.
Das wären dann Pro Tag um die 6,7 kWh - mal großzügig gerechnet spart man um die 4 kWh, wenn man den Tag über nicht da ist und noch ein paar Dinge wie Waschmaschine, Kühlschrank u.ä. laufen hat.
Bleiben also noch 76 kWh "verschwendet".
Die Rechnung lässt halt nur eine Sache außen vor:
Jede Person fährt mal raus.. egal, ob ein PC Daheim steht, oder nicht....
Und viele machen das per ÖPNV, oder Auto mit Verbrenner...
Nennt sich Freizeit... genau wie PC.
Aber:
1) hätten wir beim Thema Individualverkehr nicht seit den 1970ern immer strengere Regeln angelegt, wären wir jetzt noch bei einem Durchschnittsverbrauch von 12 l selbst für kleinere Autos. (Mein 45 PS Corsa A von 1986 mit 735 kg Leergewicht kam so auf 7-9l.. je nach Fahrweise) - mein 286 PS Touareg kommt mit seinen 2070kg Leergewicht übrigens auf einen ähnlichen Durchschnittsverbrauch, wobei die Nadel da eher in Richtung 7 ausschlägt.
2) Haben GPUs beim Stromverbrauch mal gaaanz klein angefangen - komplett ohne Stromstecker und jegliche Kühlung.
3) sieht man da aktuell eher eine contraire Entwicklung - Autos, Verkehr... die meiste Elektronik.. wird immer Leistungsfähiger bei immer geringerem Strombedarf.
Mit Ausnahme der Grafikkarten und CPUs. Da ist es völlig aktzeptiert, wenn sie zwar mehr leisten, die Mehrleistung aber fast ausschließlich aus höherem Strombudget kommt.
Die 1080 TI kam mit 250W aus.
Nur 3 Generationen später sind wir einen Rang darunter (die 1080 TI stand Chipmäßig ungefähr da, wo jetzt die bald erscheinende 4090 TI sein wird.. denn eine Titan kommt sicher auch noch) bei akzeptierten 450W angekommen.
Da stimmt doch irgendwas nicht.
1080 TI im Test im März 2017:
Die GTX 1080 Ti endlich im Test: Nvidia hat sein neues Geforce-Flaggschiff vorgestellt und PC Games Hardware macht den Test mit Benchmarks.
www.pcgameshardware.de
Die 1080 TI war so schnell wie die Titan X, verbrauchte einen Hauch mehr - 250W vs. 230W (Kein Wunder.. ein wenig mehr beschnittener Chip.. etwas höherer Takt...).
Ja, die 4090 verbraucht "nur" so viel, wie eine 3090 TI....
Dumm nur, dass die 3090 ohne Anhängsel mit 350W Verbrauch daher kam.. also 100W weniger als die direkte Nachfolgerin.
Bei AMD gibt es einen ähnlichen, aber bei weitem nicht so intensiven Trend.
Die 6900 XT kommt immerhin auf 300W... nicht berühmt, aber auch nicht extrem hoch.
Für die 7000er hoffe ich auf bessere Werte, befürchte aber dank Balkentuning auch den Weg zu 450W...
Meinung von Nvidia Fans Anno 2017: "Wer ist denn so doof, sich eine 300W Heizung von AMD in den Rechner zu stecken? Da brauch ich ja ne eigene Klimaanlage"
Meinung von Nvidia Fans 2022: "450W? Klar, immer her damit, Hauptsache der Balken ist lang. Andere Freizeitaktivitäten brauchen viel mehr Strom"
Schönreden geht immer.
Gilt auch für die Profiberichterstatter.
Allerdings arbeite ich auch in der Autoindustrie... da ist ein Ruhestrom von 0,01A für ein Steuergerät schon hoch.
Ach ja..... das Effizienzwunder bei Elektromobilität ist aktuell noch immer der erste Hyundai Ioniq - Der kommt auf 10kWh / 100 km und mit seiner 36 kWh Batterie noch über 300 km weit.
Da wäre die "Stromverschwendung" für den Ausflug bei nur noch 40-45 kWh gelandet...