Reale Leistungsaufnahme von 10 Grafikkarten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Reale Leistungsaufnahme von 10 Grafikkarten gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Reale Leistungsaufnahme von 10 Grafikkarten
 
Schon erstaunlich wie wenig Strom der Riesen-GT200 chip verbraucht - die neuen 55nm wären ja NOCH besser.

Was war denn das Problem bei der x2 im furmark?
 
Schon erstaunlich wie wenig Strom der Riesen-GT200 chip verbraucht - die neuen 55nm wären ja NOCH besser.

Was war denn das Problem bei der x2 im furmark?

Bestimmt hat die Karte so viel Last gezogen, das das Meßequipment abgeraucht ist. So ein Messadapter ist nicht unbegrenzt belastbar. :P
*das war ein Scherz*
Wahrscheinlich falscher Messbereich eingestellt (Watt anstatt Kilowatt) :devil: .
 
0,0 watt unter last die X2?
man, die muss ich mir holen!
bei den einsparungen kann ich mir dann in nem jahr locker ne zweite dazukaufen.
wär aber mal was.
vielleicht programmabsturtz von furmark?
 
mich würde mal die 8800gt/9800gt und wie sie noch heißt :D :D :D interessieren, will meine nämlich rausschmeisen und muss wissen was die gtx280 mehr verbraucht, und ob ich noch n netzteil brauche.
 
Der Leistungs/Verbrauch stimmt bei hd 4850 am besten, wenn man sie mit 7800gtx vergleicht. Ih finde es auch witzig, dass Furmark die Grafikkarten mehr belastet als Crysis Warhead voll aufgedreht bei hohen Auflösungen:D
 
Mhh, also falls ich mal das bedürfnis haben sollte das tolle Spiel "Furmark" zu spielen, nehme ich am besten eine HD4870X2, das ist am besten für die Stromrechnung. :ugly:
MIch würde noch interessieren, was ne Low-Endkarte verbraucht, so GF9500 gt oder noch schlechter ne GF7600 GS.
 
interessant ist wie gut die nvidia karten aus sicht der leistungsaufnahme sind. die gtx 260 schlägt die 4870 ja deutlich. hätte ich nicht erwartet bei dem rießen chip.
 
interessant ist wie gut die nvidia karten aus sicht der leistungsaufnahme sind. die gtx 260 schlägt die 4870 ja deutlich. hätte ich nicht erwartet bei dem rießen chip.

Das ist nicht unbedingt der Grund... bei der HD4870 verbraucht alleine der GDDR5 RAM der nicht heruntergetaktet wird im Idle einen A**** voll Strom...
ich kann den Gesamtverbrauch meines PCs im Idle um 45W (!) senken wenn ich nur den GDDR5 RAM von 1000 auf 250 MHz takte!
 
die gtx 260 schlägt die 4870 ja deutlich.
das liegt einzig und allein am ram, da dieser nicht heruntergetaktet wird. sehr empfehlenswert ist auch der bericht auf ht4u - genau das gleiche thema. die 4870 verbraucht auf 500/200 nur noch 29,5 w. eine absenkung des chip-taktes auf 100 mhz, verringert die aufnahme um 0,9 w (also 28,6 w). die gtx260 auf 576/1242/100 immerhin noch 32,3 w. daran kann man schön erkennen, dass der riesenchip von nvidia "ordentlich" mehr saft zieht, wo es bei der 4870 nur am ram liegt.

schade dass powerplay nicht korrekt implementiert wurde. :(
 
das liegt einzig und allein am ram, da dieser nicht heruntergetaktet wird. sehr empfehlenswert ist auch der bericht auf ht4u - genau das gleiche thema. die 4870 verbraucht auf 500/200 nur noch 29,5 w. eine absenkung des chip-taktes auf 100 mhz, verringert die aufnahme um 0,9 w (also 28,6 w). die gtx260 auf 576/1242/100 immerhin noch 32,3 w. daran kann man schön erkennen, dass der riesenchip von nvidia "ordentlich" mehr saft zieht, wo es bei der 4870 nur am ram liegt.

schade dass powerplay nicht korrekt implementiert wurde. :(

Und genau aus diesem Grund muss man die Standard Produkte vergleichen.
Die 4870 wurde was den Stromverbrauch angeht nicht gut genug optimiert von ATI. Das ist nun mal Fakt.

Und wie man im nachhinein bei anadtech.com war es auch nie ATIs Absicht. Es ging alleine darum den Abstand zur Spitze zuverringern.

mfg
 
Zurück