Grafikkarten: Stromkosten selbst berechnen
Konkrete Zahlen schön und gut, ohne den Faktor Zeit bleiben die laufenden Kosten jedoch unbekannt. Die folgende Formel mit P für den Wattverbrauch (Power) und T für die Betriebsstunden (Time) ergibt die Jahreskosten:
(P × K × T) ÷ 1.000
Das K steht für den Preis einer Kilowattstunde in Euro. Am besten, Sie ziehen den exakten Arbeitspreis Ihres aktuellen Stromtarifs zurate. Wir rechnen beispielhaft einmal mit 30 und einmal mit 40 Cent pro Kilowattstunde. Der Einfachheit halber unterstellen wir dabei konstante Volllast. Nehmen wir an, Sie haben sich zum Start der Geforce RTX 4090 im Oktober 2022 eine Founders Edition gekauft und spielen damit jeden Abend drei Stunden lang. Anfang Juli sind das rund 630 Tage. Multipliziert mit 3 Stunden ergibt das 1.890 Stunden reine Spielzeit, bei der die Grafikkarte 442 Watt verbraucht. Die Formel sähe in diesem Fall so aus:
(442 × 0,3 × 1.890) ÷ 1.000 (30 ct/kWh)
(442 × 0,4 × 1.890) ÷ 1.000 (40 ct/kWh)
Die Stromkosten der Grafikkarte allein belaufen sich in diesem Beispiel auf mindestens 250 Euro, im Falle eines suboptimalen Stromtarifs sogar 334 Euro. Das ist kein Pappenstiel, sodass
Undervolting wahre Wunder bewirkt. Alternativ lohnt sich der Blick über den Tellerrand, was mit einer sehr sparsamen Grafikkarte anfiele. Wer sich im Herbst 2021 für eine Radeon RX 6600 entschieden hat und damit die gleichen Spielgewohnheiten verfolgt, muss trotz rund 1.000 Tagen Spaß weniger als 120 Euro (30 ct/kWh) respektive 156 Euro (40 ct/kWh) für den Strom zahlen.