AW: Grafikkartenmarkt wächst um 10 Prozent: Nvidia profitiert am meisten
Wer nicht im Land des Billich Stroms lebt,kommt einfach nicht mehr an Nividia vorbei ,die oft nur 20-30 euro anschaffungkosten unterschied amortisieren sich relativ schnell.z b 1060gtx
für gelegenheitshooter und viel Surfer ,Worker ,Rts Gamer mit 120 watt unter normalast .Bei Cpu Boss schreibt man sich immer noch über die annual Energie Cost p year bei AMD Ryzen aus
wobei ich für mich pers .in etwa den Commerciellen bereich mit 40 std wöchentlich ansetze und im Winter noch mal 30% dazu addiere
ein grund übrigens warum ich I 5 -3470 wählte (55 euro inclusive Kühler)da ab I5 - 3550 der konsum wieder anstieg von Haswell und K Nachfolgern ganz zu schweigen.Ausser Besthedia hielt sich bis jetzt jeder Publisher an die ungeschriebene I 5 regel ich hoffe auch in fernerer Zukunft.das 500 watt Netzteil reicht und Teure messgeräte ( Smart Meter )und böse überraschungen
seitens der Energielieferanten steuer incl .bleiben weitgehend aus .
Hatte auch erst eine unangenehme Überraschung beim Energieanbieter, allerdings aufgrund des im letzten Jahr höheren Gasverbrauchs. Strom fällt bei mir da nicht wirklich ins Gewicht.
Hast du dir das auch mal durchgerechnet?
Nehmen wir die von dir genannte GTX 1060 her, im Vergleich mit der RX 480. Zahlen (für die Stock-Karten) kommen von Tom's Hardware:
Leistungsaufnahme und Lastspitzen - AMD Radeon RX 480 im Test: Kann Polaris gegen Pascal kontern?
Leistungsaufnahme im Detail - Nvidia GeForce GTX 1060 FE 6GB: Pascal fur den Mainstream
Idle:
16W AMD vs 9W Nvidia. Da ich gerade die Jahresabrechnung von meinem Energieanbieter (Österreich) bekam nehm ich hier gleich meinen kWh-Preis ohne Netzgebühren, da die in Österreich ungeachtet des Stromverbrauchs anfallen. Das sind in meinem Fall gerundet 15,7 Cent/kWh nach MwSt.
Auf ein Jahr 24/7-Betrieb gerechnet ergibt das etwas über 61 kWh oder 9,58€ Mehrverbrauch. Bei 8h 2,39€; bei 12h 4,79€, wohlgemerkt bei täglicher Nutzung.
Furmark-Last:
168W AMD vs 122W Nvidia. Bewegen wir uns in Miner-Gefilde mit 24/7 Dauerlast, obwohl sie ihre Karten wohl runtertakten werden und entsprechend niedriger aussteigen.
Auf ein Jahr 24/7-Betrieb gerechnet ergibt nicht ganz 403 kWh oder ~63,27€.
Jetzt hat jeder ein anderes Nutzerverhalten und muss sich das selbst ausrechnen. Ich schätze mich auf maximal 2h/Tag im Jahresschnitt. Auf diese Zahlen umgelegt wären das knapp über 5€ für ein Jahr.
Für mich bedeutet eine AMD-Karte also Mehrkosten von unter 10€ pro Jahr. Bis sich da 20-30h (Edit: Natürlich € nicht h) amortisiert haben steht sowieso schon langsam die nächste Karte an.
Das sind wohlgemerkt die Stock-Karten. Wenn man wirklich auf den Stromverbrauch schaut, dürfte man auch keine Customs kaufen. Gerade bei den Pascal-Karten die in einem sehr schönen Sweetspot betrieben werden.
Bei Größenordnung 1080 Ti oder Vega 64 ist es sowieso etwas scheinheilig, mit dem Stromverbrauch zu argumentieren. Kritik ist am Mehrverbrauch der Vega zwar angebracht, aber wenn jemand "deswegen" keine kaufen will, hatte er es sowieso nie vor.
Anderes Zahlenspiel für Interessierte:
Intel aus der Gleichung genommen ergibt das ca. 65% zu 35% für Nvidia. AMDs APUs rausgerechnet wohl noch 1-2 Pünktchen mehr.