Reale Leistungsaufnahme von 10 Grafikkarten

also wird es doch Zeit meine 9800GT rauszuwerfen ich denk mal zw. der 9800GT und der 9800GTX+ unterscheidet sich net viel.
Dann kommt doch ne GTX260 55nm nach haus wenn die so wenig verbraucht dann ist dei gleich meine...
____________________________________________________________________________________
http://www.sysprofile.de/id91010
 
Zuletzt bearbeitet:
HD4870 512MB gegen HD4870 1024MB wäre auch interessant. :daumen:

Gut dass ihr jetzt diese Ausstattung habt, wertet eure reviews nochmal auf.
 
Wow, na endlich weiß ich mal ne verbindliche Zahl meiner 2 Graka´s, Mit Crossfie X kann ich ohne Sorgen also noch 2 dazustecken. Dank Asus kommt sie dann richtig aussem Schuh
 
Eine 280 GTX mit Voltmod ist fast genauso "Sparsam" wie ein 260 GTX !
Bei guten Cores (die mit 1,06 Volt und weniger laufen) sogar noch genügsamer.
Warum würde kein 280/285 GTX getestet?

Zeitnot?
 
Wird die HD2900XT mit dem Furmark nicht richitg ausgelastet?? Kann doch nicht sein, dass die bei Crysis so viel MEHR Strom zieht als im Furmark !?:what:
 
Bitte nochmehr Komponenten testen, was verbrauchen eigentlich Wakü- pumpen?


Das ist nun wirklich nicht aufwändig zu testen. Die haben ein stecker... Womöglich noch 230V, dann ist es mit den Stromadaptern wirklich einfach.

Sehr schöner Test! Würd mich allerdings auch brennend interessieren was mit der X2 war. Software oder Hardware problem?
 
Ich hätte mal gerne gewusst was nun genau meine Hd4830 verbraucht. Die Leistung ist genial ich spiele alles mit höchster Auflösung und max. Details. Anti-Aliasing und asiontropische Filter geniesse ich mit Vorsicht hingegen, Ergebnis es läuft alles flüssig!

hier: Reale Leistungsaufnahme aktueller Grafikkarten - Anhang: MSI R4830-T2D512-OC (Seite 33) - Artikel & Testberichte bei HardTecs4U

edit: Auch wenn es eine übertaktete Karte ist, kann man den Verbrauch in etwa vergleichen. :)
 
Zuletzt bearbeitet:
Mich hat der Stromverbrauch der HD4870 im Idle etwas gewundert. Demnach verbraucht die Karte mit den Optimierungen, die in PCGH 10/08 vorgestellt wurden, weniger als 20W. Ich hatte eigentlich mehr erwartet... Aber die Werte die man so hört sie die des ganzen Systems, da ist also auch die Netzteil-Effizienz mit einbezogen, was hier nicht der Fall ist.

Laut der genannten PCGH-Ausgabe geht der niedrigere Stromverbrauch im Idle einzig mit dem Heruntertakten des GDDR5 einher, der Chip "verbraucht" im Idle kaum etwas und durch Heruntertakten auch nicht weniger.
 
Wozu kann man denn die exe umbenennen?

Aber wie kann es sein, dass die HD 3870 mehr Strom als eine HD2900XT zieht unter Furmark? Ist doch die gleiche Architektur nur halbiertes SI und 55nm gegen 80?
 
Zuletzt bearbeitet:
Wozu kann man denn die exe umbenennen?

Aber wie kann es sein, dass die HD2900XT mehr als ne HD 3870 verbraucht unter Furmark? Ist doch die gleiche Architektur nur halbiertes SI und 55nm gegen 80?

Du meinst die 3870 mehr als die 2900 XT, hat mich auch gewundert. Unter Crysis brauchen die meisten Karte weniger und die 2900 XT haut voll auf den Putz!
 
Genau...die Werte einer GTX 280 und 285 interessieren mich auch mal. Aber es kommen ja noch mehr Tests. :what:

Aber auf jeden Fall eine tolle Sache den reellen Verbrauch der Grafikkarte zu messen. :D
 
Die 9800 GTX+ benötigt mehr elektrischen Strom als ne GTX 260-216? Das kann ich auch nicht so recht glauben... Genauso wie das mit der HD3870 > HD2900XT. Ich will nicht meckern, bin halt nur überrascht und hoffe auf einen "kleinen Fehler" oder ne plausible Ursache ;).

MfG

Belatis
 
Die 9800 GTX+ benötigt mehr elektrischen Strom als ne GTX 260-216? Das kann ich auch nicht so recht glauben... Genauso wie das mit der HD3870 > HD2900XT. Ich will nicht meckern, bin halt nur überrascht und hoffe auf einen "kleinen Fehler" oder ne plausible Ursache ;).

MfG

Belatis

Ich dachte auch ich guck nicht richtig :what: Die 260GTX(65nm) verbraucht weniger als die 9800GTX ? Wenn die Werte richtig sind , OOOOHA !

Mfg Micha
 
hmmm ine 4870 x2 verbraucht unter Crysis nicht das dopelte wie eine 4870. Würden aber 2 4870 das dopplete einer 4870 verbraten??? und bei einer 4850 das gleiche?
 
oO au weia.... ich werde meine abschlagszahlungen an die stadtwerke erhöhen müssen (4870/1gb)... nur gut, dass ich die karte im 2d betrieb derbe heruntergetaktet habe, vielleicht spart mir das einige cent
 
Zurück