Wie viel Strom verbraucht meine Grafikkarte? Neun Grafikkarten-Generationen im Effizienztest

Kurze Zwischenfrage für die, die das aktuelle Tagesgeschehen bzgl. nicht ganz so aufmerksam verfolgen:

Hat der neue Patch nur Auswirkungen auf die 7970? Und bei der mehr fps bzw. fps/Watt?

Auswirkungen auf alle Karten mit NG Architektur. Die 7970 legt aber besonders in BF3 zu und liegt dort jetzt knapp vor der GTX 680, entsprechend verbessert sich das FPS/Watt Verhältnis deutlich.
 
Gilt für sämtliche GCN-Desktop-Karten, also die ganze 7xxx-Serie. Wie sehr die verschiedenen kleinen Modelle genau profitieren, kann ich nicht sagen, die 7970 GHz macht in BF3 auf alle Fälle einen Sprung von ca. 20-30% (je nach Map).

Edit: Hier ein kleiner Vergleich der 7870 mit 12.8 und 12.11 Beta4. Wobei die dortigen Werte zweifelhaft wirken (bes. 7970 Ghz in BF3!)
 
Zuletzt bearbeitet:
Ja, meine GTX 470 ("Thermi") arbeitet relativ ineffizient: hohe Wärmeentwicklung durch hohen Stromverbrauch.
Dafür spare ich mir aber beim Spielen Kosten für die Heizung, wenn es draußen kalt ist (so wie aktuell der Fall).
Die Grafikkarte heizt nämlich den gesamten Raum auf ;-)
 
Wieso macht ihr keine Tests mit der HD6870/2GB

Das Referenzdesign sieht 1 GiB vor und die meisten Custom-Designs tragen diese (sinnvolle) Menge. Die Leistungsaufnahme dürfte aber gut vergleichbar sein, mit vermutlich etwas höheren Werten bei 2 GiB. Ihr solltet sowieso beachten, dass die Leistungsaufnahme der "gleichen" Grafikkarte unter Last um fünf bis zehn Prozent schwanken kann, abhängig von der Bauteilqualität (primär: GPU).

MfG,
Raff
 
Ja, meine GTX 470 ("Thermi") arbeitet relativ ineffizient: hohe Wärmeentwicklung durch hohen Stromverbrauch.
Dafür spare ich mir aber beim Spielen Kosten für die Heizung, wenn es draußen kalt ist (so wie aktuell der Fall).
Die Grafikkarte heizt nämlich den gesamten Raum auf ;-)

Das kenne ich nur zu gut....hatte bis vor Kurzem auch ne GTX470. Mit dem Standardkühler von Nvidia wurde das Teil 92° heiß, erst dann ging der Lüfter los (äußerst laut) und hielt die Karte auf der Temperatur. Ich war einfach zu faul, da rumzumurksen und bei der Lüftersteuerung was zu bearbeiten...

Im Sommer war das immer heftig. Draußen über 30°, und drinnen nach ner halben Stunde zocken auch. XD
 
Nur intersse halber:
Also geht mit den erhöhten fps in BF3 KEIN höherer Verbrauch einher?

Habe ich jetzt mal nicht mitbekommen. Bei mir persönlich, ich spiele alles volle Lotte mit vertik. Sync und fps max 60, hat sich am Verbrauch nichts geändert. liegt bei meinem System dann bei etwa 220-250 Watt beim zocken. Was sich geändert hat ist zum einen, dass ich die Details erhöhen konnte und gleichzeitig die GPU Auslastung sogar fiel und meist bei um die 70% oder niedriger liegt. Letzeres hört sich schlecht an, ist aber genial, da die FPS einfach bei 60,0 kleben, egal was explodiert und egal welche Situation.

Ich bin scho lange dabei, seit 2002 im Geschäft, aber so nen krassen Sprung hab ich noch nie erlebt.
 
Mir gehts bei der Effeziens eher um die Kühlbarkeit der Karte, da weniger Verbrauch meistens leiser zu Kühlen ist.
Wenn ich jedoch Spiele möchte ich Spielen und wenn ich Stromkosten sparen müsste Spiele ich nicht.
Zumindest ist meine gtx670 in Leistungs/Verbrauch immernoch oben dabei.
Behält Amd den kurs hier bei muss ich beim nächsten Kauf aufjedenfall auch diese mit einbeziehen.
 
super das meine 580 soviel strom verbraucht wie manche komplett PC´s ^^ danke Nvidia^^

Naja ok. Die wurde 1. im 40nm Prozess gefertigt. 2. ist es die ältere Architektur.
3. Es gibt noch deutlich schlechtere Leistung/Watt Grafikkarten. Ich erinnere mich noch gut an die Extremübertaktete GTX 560ti, die glaube ich damals in 05/2011 getestet wurde. Die hat genauso viel gezogen wie so manche GTX 580 :D
 
Habe ich jetzt mal nicht mitbekommen. Bei mir persönlich, ich spiele alles volle Lotte mit vertik. Sync und fps max 60, hat sich am Verbrauch nichts geändert. liegt bei meinem System dann bei etwa 220-250 Watt beim zocken. Was sich geändert hat ist zum einen, dass ich die Details erhöhen konnte und gleichzeitig die GPU Auslastung sogar fiel und meist bei um die 70% oder niedriger liegt. Letzeres hört sich schlecht an, ist aber genial, da die FPS einfach bei 60,0 kleben, egal was explodiert und egal welche Situation. Ich bin scho lange dabei, seit 2002 im Geschäft, aber so nen krassen Sprung hab ich noch nie erlebt.
Mit Vsync limitierst du halt auch den Stromverbrauch. Konstant 60 Fps sind mit dem neuen Catalyst in 1080p mit Ultra sogar zumeist drin (voller 64er Server), der 3570K ist auch schnell genug.
 
Naja ok. Die wurde 1. im 40nm Prozess gefertigt. 2. ist es die ältere Architektur.
3. Es gibt noch deutlich schlechtere Leistung/Watt Grafikkarten. Ich erinnere mich noch gut an die Extremübertaktete GTX 560ti, die glaube ich damals in 05/2011 getestet wurde. Die hat genauso viel gezogen wie so manche GTX 580 :D


aber ich finde, trotz des hohen stromverbrauchs lohnt es sich aus P/L sicht nicht für mich auf eine 680 umzusteigen^^
 
Mir ehrlich gesagt ist es egal das meine 570 kein Stromsparwunder ist, aber im Verhältnis zur 285 davor spart man schon einige Taler. Ein Umstieg auf eine GTX 670 würde erstmal nur viel Geld kosten was man mühselig ersparen müßte, und bis dahin gibt es wieder sparsameres. Also der ewige Kreislauf von schneller, höher und weiter.
 
Also ich finde der verbrauch ist eigentlich noch nicht so ausschlaggebend (neues jahr ?)bei der der Hardware dennoch reizt es mich genügend Spiel Power zu haben u die Hardware herunter zu takten .Aus diesem Grund finde ich solche aufwendigen tests/wertungssysteme sehr informativ ,die Hersteller sollen sich auch gefordert fühlen.meine neue GTX 670 gigab wforce (wakü),spiele ich bei crysis2 (fullhd) in den höchsten Qualitäts Einstellungen habe durch untertakten ca 10grad weniger temp und mit Sicherheit (org. 150 -160Watt) ,ca 20 bis 40 Watt gespart.unter dem strich ,genug fps,sehr sehr leise u ein paar Watt weniger verbrauch.für fast 400€(viel Geld) kaufe ich keine graka um sie nach 2jahren erneut auszutauschen ,4 Jahre muss sie schon durchhalten.in diesen 4 jahren kommen bei den neuen strompreisen ein paar euro zusammen.freue mich jetzt auf crysis 3 u farcry 3.
 
aber ich finde, trotz des hohen stromverbrauchs lohnt es sich aus P/L sicht nicht für mich auf eine 680 umzusteigen^^

Nur wegen dem geringeren Stromverbrauch von einer GTX 580 auf ne andere, gleichschnelle Karte wie die 7870 oder GTX 660 TI umzusteigen lohnt sich null komma null. Wenn du eine Karte kaufst die 100 Watt weniger schluckt als die aktuelle und vier Stunden am Tag alle 365 Tage des Jahres spielst, sparst Du dir bei einem Strompreis von 26 Cent pro KWh 37 Euro im Jahr. :ugly: Das positive an einer neue Karte ist da einzig und allein die geringere Lautstärke des Lüfters.
 
Genau @ standeck^^

400€ karten sind sowieso totaler blödsinn....

es ist doch viel sinnvoller alle 2 jahre eine karte für ca. 220€ zu kaufen!
besonders wenn ich jetzt für 400€ eine 680 kaufe und nächstes jahre für 200€ euro eine 760 TI hab ich die neue technik die gleiche leistung, weniger Leistungsaufnahme!
dieser obligatorisch HIGH-END zuschlag rechtfertig auch nie seinen preis 200€ mehr für 20% ^^

bei den CPUs von intel ist es sogar noch schlimmer....

i7-3960X 1000€(WTF) / i7-3930K 500€ / i7-3770K 280€

was rechtfertigt den preis von 1000 € ????
 
Zurück