Reale Leistungsaufnahme von 10 Grafikkarten

Leider wurde mit Furmark nicht ganz richtig gemessen.

Die Auflösung stimmt zwar, aber MIT 4xAA. Zieht bei mir ca 40W (ohne Netzteilwirkungsgrad) mehr als ohne AA.
 
Erstmal vielen Dank pcgh für den Test.
Ich hoffe es wird weitere Tests mit anderen Grafikkarten geben.

Hoffentlich verwendet ihr auch in der Zukunft solche Messungen bei Grafikkartentests.

mfg
 
Ich hätte nicht gedacht, dass eine 9800GTX mehr Strom aufnimmt als eine GTX260 :what: Ich finds top, habe eine GTX260 und die bekommt im idle nur 0,73V
@PCGH wäre schon wenn man mal mit der Zeit testen könnte, wass eine GTX260 undervoltet (idle) noch an Strom aufnimmt ;)
 
Ich hätte nicht gedacht, dass eine 9800GTX mehr Strom aufnimmt als eine GTX260

Ich denke mal, das liegt an dem hochgezüchteten Takt der 9800gtx. Da arbeitet die Archtektur nahe am Limit und braucht entsprechend höhere Spannungen, um zu laufen.
Bei der 9800gtx+ entsprechend noch mehr.
Zudem dürfte der Idl Modus noch nicht so ausgereift sein.

@PCGH
Was mich jetzt mal so nebenbei interessiert wieviel Strom zieht eigentlich der erhöhtete Speichbus bei der GTX200?
Hier könnte man mal Ansetzen, um zu sehen, was mehr Strom spart: hochgezüchtete GDDR5 mit 256bit oder GDDR3 mit größeren Bus.

mfg
 
Da arbeitet die Archtektur nahe am Limit und braucht entsprechend höhere Spannungen, um zu laufen.
Bei der 9800gtx+ entsprechend noch mehr.
Zudem dürfte der Idl Modus noch nicht so ausgereift sein.

Stimmt, das könnte ein plausibler Grund sein! Allerdings meinte ich speziell den Unterschied im Furmark, zumal die G92 Gpus ja längst nicht Spannungen bis zu 1.18V berpasst bekommen oder:huh:

lg Danny ;)
 
Was mich jetzt mal so nebenbei interessiert wieviel Strom zieht eigentlich der erhöhtete Speichbus bei der GTX200?
Hier könnte man mal Ansetzen, um zu sehen, was mehr Strom spart: hochgezüchtete GDDR5 mit 256bit oder GDDR3 mit größeren Bus.
wie soll das interface strom ziehen? dort wird lediglich etwas übertragen, aber strom (durch arbeit) kann dieses nun wirklich nicht ziehen. ;) hierbei kannst du nur die enden in betracht ziehen (chip + ram; welche auch wirklich strom verbrauchen).
 
wie soll das interface strom ziehen? dort wird lediglich etwas übertragen, aber strom (durch arbeit) kann dieses nun wirklich nicht ziehen. ;) hierbei kannst du nur die enden in betracht ziehen (chip + ram; welche auch wirklich strom verbrauchen).

Das Interface muss aber arbeiten: Weiterleiten, zuweisen, diverse Protokolle müssen vorherer berechnet, was überhaupt und wie lange im Ram liegen darf etc. Das braucht Strom. Mir geht es ja nur um einen Vergleich und der Effizienz der beiden unterschiedlichen Herangehensweisen von ATI und NV.

PS.
Habt ihr auch Probleme mit der Website? Bei dauert es extrem lange bis was lädt, egal ob mit Opera oder W.Inet Explorer

mfg
 
Wenn dich das nicht stört weil deine Karte vielleicht dabei ist dann freu dich. Meine Karte ist aber unverständlicherweise nicht dabei, aber Hauptsache eine 8800 Ultra die eh kaum einer gekauft hat ist im Test enthalten :schief:

Eine 8800Ultra ist einfach eine übertaktete 8800gtx. Von daher tut sich da nicht allzuviel. Ich denke beide Karten sind noch weitverbreitet und sind berechtigterweise in dem Test.
Außerdem werden sicher noch welche folgen ;)

mfg
 
Das Interface muss aber arbeiten: Weiterleiten, zuweisen, diverse Protokolle müssen vorherer berechnet, was überhaupt und wie lange im Ram liegen darf etc. Das braucht Strom. Mir geht es ja nur um einen Vergleich und der Effizienz der beiden unterschiedlichen Herangehensweisen von ATI und NV.
ja, das interface muss weiterleiten. aber gearbeitet wird immer noch im speichercontroller, welcher wohl in der gpu direkt drin liegt. wie soll auch ein 512 bit breites, aus leiterbahnen bestehendes, ohne chip aufbauendes etwas berechnen, zuweisen, etc.?
Habt ihr auch Probleme mit der Website?
Intern: Serverprobleme auf www.pcgameshardware.de
 
Das ist nicht unbedingt der Grund... bei der HD4870 verbraucht alleine der GDDR5 RAM der nicht heruntergetaktet wird im Idle einen A**** voll Strom...
ich kann den Gesamtverbrauch meines PCs im Idle um 45W (!) senken wenn ich nur den GDDR5 RAM von 1000 auf 250 MHz takte!
Unter Last ist die GTX260 aber immer noch deutlich sparsamer als die 4870.

und zu den 45W: das würde bedeuten, dass die 4870 nur noch 12W verbraucht, also scheint dein netzteil einfach nur ineffienzt zu arbeiten.
 
Das ist nicht unbedingt der Grund... bei der HD4870 verbraucht alleine der GDDR5 RAM der nicht heruntergetaktet wird im Idle einen A**** voll Strom...
ich kann den Gesamtverbrauch meines PCs im Idle um 45W (!) senken wenn ich nur den GDDR5 RAM von 1000 auf 250 MHz takte!

Allerdings ist auch der Verbrauch unter Last etwas geringer bei der GTX 260 im Vergleich zur 4870, und das bei etwa gleicher Leistung.
 
Allerdings ist auch der Verbrauch unter Last etwas geringer bei der GTX 260 im Vergleich zur 4870, und das bei etwa gleicher Leistung.
Hinzu kommt, dass die 65 nm GTX 260 getestet wurde. Die 55er soll ja noch weniger brauchen - bei gleicher/mehr Leistung.

Naja, manchmal macht sich der etwas höhere Preis bei der Anschaffung doch bezahlt - in den laufenden Kosten.
 
Ich hätte mal gerne gewusst was nun genau meine Hd4830 verbraucht. Die Leistung ist genial ich spiele alles mit höchster Auflösung und max. Details. Anti-Aliasing und asiontropische Filter geniesse ich mit Vorsicht hingegen, Ergebnis es läuft alles flüssig!
 
Das ist nicht unbedingt der Grund... bei der HD4870 verbraucht alleine der GDDR5 RAM der nicht heruntergetaktet wird im Idle einen A**** voll Strom...
ich kann den Gesamtverbrauch meines PCs im Idle um 45W (!) senken wenn ich nur den GDDR5 RAM von 1000 auf 250 MHz takte!
Ich habe von Sapphire ein neues Graka-BIOS im Januar angefordert(4870/512), wegen des Lüfterhochdrehens beim Booten. Mit dem BIOS ist der IDLE-Gesamtverbrauch des Rechners von 156 auf 125 Watt gesunken. RAM geht IDLE auf 500MHz, Core auf 200MHz, Spannungen werden abgesenkt, ohne jedes Umschaltflackern.

Das heisst PP2.0 funktioniert.....

Die 125 Watt sind übrigends auch der Wert, den ich vorher mit AMDGPUClocktool erreicht habe (200MHz/200MHz, ohne Spannungsabsenkung, mit Umschaltflackern).

Bis Juli 2008 war eine 3870 im Rechner mit resultierendem IDLE-Gesamtverbrauch von 108 Watt. D.h. eine 4870/512 mit aktuellem BIOS braucht 125-108=17 Watt mehr als eine 3870 und damit liegt die 4870/512 auf dem 3. Rang im IDLE-Verbrauch(aktuelles BIOS vorausgesetzt).
 
Bis Juli 2008 war eine 3870 im Rechner mit resultierendem IDLE-Gesamtverbrauch von 108 Watt. D.h. eine 4870/512 mit aktuellem BIOS braucht 125-108=17 Watt mehr als eine 3870 und damit liegt die 4870/512 auf dem 3. Rang im IDLE-Verbrauch(aktuelles BIOS vorausgesetzt).
Nur wenn man solche Milchmädchenrechnungen macht :rolleyes:

und nebenbei ist deine rechnung auch noch falsch, die 4870 läge auf platz 4, würde also immer noch mehr als eine GTX260 verbrauchen (und weniger als eine 4850, da sieht man schon, dass das quatsch ist).
 
Würd mich freuen, wenn solche Angaben generell mal öfter zu lesen wären. Bei nem reinen Spiele-PC macht das sicher nicht den Unterschied, aber wenn der PC noch 8 Stunden am Tag im Windowsbetrieb läuft machts doch auf Dauer nen kleinen Unterschied ob die Graka 22 oder 78 Watt frisst.
 
also ich finds toll, dass sich die mitarbeiter von pcgh auch am wochenende hinsetzen und berichte schreiben und tests durchführen! :daumen::daumen::daumen:

b2t: beim test mit furmark sind ja keine werte für die hd4870 x2 vorhanden, hat diese zu viel "strom" gezogen für die messeinrichtung?

dann noch ne allgemeine frage: arbeitet die grafikkarte auf 12V oder 3,3V?
 
Hoffe das da noch ein vergleich zwischen GTX260 65 und 55nm kommt das würde mich am meisten interessieren was da NV geleistet hat.
 
Zurück