Ey mal ganz ehrlich, hatte hier im Forum noch nie einer Physikunterricht oder geschweige denn logisches Denken???
Watt gibt die Leistung eines Verbrauchers an. Ich hab allerdings noch nie einen gesehen, der seine Stromrechnung mit KiloWatt bezahlt. Das Ding heißt kWh, also kilowattSTUNDEN. Gehen wir mal die Rechung logisch und richtig durch:
Mehrleistung der Grafikkarte: 30-50 W
macht bei einer Sekunde einen "Energieverbrauch" von 30-50 Wattsekunden aus. ([W]=V*A*s= W*s)
Jetzt brauchen wir aber natürlich kwh und nicht ws:
108 KWs-180 KWs --> 0,03- 0,05 KWH
Also verbrauchen wir pro Stunde schonmal maximal 0,05 kWh mehr Strom
Gehen wir von einer durchschnittlichen Betriebszeit von 4 Stunden pro Tag aus:
0,12 KWh-0,2 KWh
Durchschnittlich 360 Tage im Jahr:
43,2 KWh - 72 KWh
Heutige Netzteile haben einen durchschnittlichen Wirkungsgrad von 90%:
48KWh - 80 KWh
Bei aktuellen Strompreisen von 18,30 cent/kwh macht das:
8,64 € - 14,64 €
Großartig viel ist das nicht unbedingt
aber es geht ja nicht immer nur um Kosten sondern um den klimaschutz
^^
Kosten pro Jahr bei einer 300 Watt Graka: (Schnellrechnung)
(20 cent/kwh 4h/d 365d)
= 97,3 €
Übrigens wieso sollten sich Kunden verarscht fühlen wenn sie eine GTX 460 kaufen, nur weil diese einen "halben" Chip haben.
Der Kunde zahlt schließlich auch nur für die angegebene Zahl an funktionierenden Recheneinheiten. Und es ist jawohl besser, dass Nvidia dieses halbdefekten/ komplett defekten Recheneinheiten deaktiviert, anstatt sie in den High-End Modellen zu verbauen, dass sich der Kunde dann später ärgert, dass nicht alle Recheneinheiten korrekt funktionieren.
Eine andere Alternative wäre dann natürlich auch, dass Nvidia diese Chips wegschmeißt. Das würde aber dazu führen, dass die effektive Chipausbeute (dh Chips die verwendet werden können, egal ob komplett funktionstüchtig oder eingeschränkt funktiontüchtig) sehr gering ausfallen würde. Die Kosten für den Endkunden würden stiegen und eine Mid-End Karte wäre für den MArkt überhaupt nicht verfügbar...
MfG Matti