Reale Leistungsaufnahme von 10 Grafikkarten

Da stimmt doch was nicht...
Oder wie erklärt ihr den krassen Unterschied der 2900 XT zw. Furmark und Crysis?!
 
Na da macht die HD4850 eine sehr gute Figur . Guter Jop PCGH :daumen: Giebt es einen Unterschied zwischen der HD4870 mit 512 MB und der HD4870 1GB , oder sind die gleich zu behandeln ???
 
Ich liebe meine Karte ja aber der "Verbrauch" kotzt mich an!!!!

Ein kleiner Rat an ATI:
Seht zu das ihr das bei der HD4890 besser hinbekommt. Ansonsten wünsche ich euch das die Karte flopt.
 
Zuletzt bearbeitet:
Ich liebe meine Karte ja aber der "Verbrauch" kotzt mich an!!!!

Ein kleiner Rat an ATI:
Seht zu das ihr das bei der HD4890 besser hinbekommt. Ansonsten wünsche ich euch das die Karte flopt.

Deine Aussage schockt mich irgendwie, da sie gar nicht zu deiner sonstigen Einstellung passt ;)

Aber du hast schon recht, wenn man bedenkt dass die HD4870 schon in 55nm und die GTX260 noch in 65nm gebaut sind und die HD4870 eigentlich einen viel kleineren Chip als die GTX260 hat dann muss man leider schon sagen, dass die HD4870 extrem Energie ineffizient arbeitet im Vergleich zu Konkurrenz und das obwohl die HD4870 eigentlich alle baulichen Vorteile auf ihrer Seite hat. Da muss ATI noch dringend nacharbeiten, vor allem das nicht funktionierende Powerplay ist nach den ganzen Versprechungen AMDs eine Frechheit gegenüber den geprellten die ihres Gleichen sucht. Letztendlich ist das nicht funktionierende Powerplay mit einer der Gründe gewesen weshalb ich meine HD4870 gegen eine GTX280 eingetauscht habe ;)
 
Zuletzt bearbeitet:
Deine Aussage schockt mich irgendwie, da sie gar nicht zu deiner sonstigen Einstellung passt ;)

Aber du hast schon recht, wenn man bedenkt dass die HD4870 schon in 55nm und die GTX260 noch in 65nm gebaut sind und die HD4870 eigentlich einen viel kleineren Chip als die GTX260 hat dann muss man leider schon sagen, dass die HD4870 extrem Energie ineffizient arbeitet im Vergleich zu Konkurrenz und das obwohl die HD4870 eigentlich alle baulichen Vorteile auf ihrer Seite hat. Da muss ATI noch dringend nacharbeiten, vor allem das nicht funktionierende Powerplay ist nach den ganzen Versprechungen AMDs eine Frechheit gegenüber den geprellten die ihres Gleichen sucht. Letztendlich ist das nicht funktionierende Powerplay mit einer der Gründe gewesen weshalb ich meine HD4870 gegen eine GTX280 eingetauscht habe ;)

So Energie ineffitient arbeitet die Ati Hd4870 garnicht im gegensatz zur GTX260.Der RV770 hat weit weniger Transistoren (ca 450000) als der Chip der GTX260.Irgendwie muß da ja Leistung rausgeholt werden um Konkurrenzfähig zu sein.Dennoch denke ich Ati wird beim neuen RV790 den Stromverbrauch schon senken.:D
 
So Energie ineffitient arbeitet die Ati Hd4870 garnicht im gegensatz zur GTX260.Der RV770 hat weit weniger Transistoren (ca 450000) als der Chip der GTX260.Irgendwie muß da ja Leistung rausgeholt werden um Konkurrenzfähig zu sein.Dennoch denke ich Ati wird beim neuen RV790 den Stromverbrauch schon senken.:D
Das die 4870 weniger transistoren hat, macht sie doch noch viel ineffizenter.

wenn nen 8-zylinder weniger schluckt als ein 4-zylinder ist der 4-zylinder doch noch viel ineffizenter, oder?
 
So Energie ineffitient arbeitet die Ati Hd4870 garnicht im gegensatz zur GTX260.Der RV770 hat weit weniger Transistoren (ca 450000) als der Chip der GTX260.Irgendwie muß da ja Leistung rausgeholt werden um Konkurrenzfähig zu sein.Dennoch denke ich Ati wird beim neuen RV790 den Stromverbrauch schon senken.:D

Hier geht es aber nicht um die Effizienz der Transistoren und der damit verbundenen Rechenleistung, sondern um die Energieeffizienze und hier ist die HD4870 der GTX260 deutlich unterlegen, vor allem dann wenn man bedenkt das die HD4870 eigentlich alle Vorteile auf ihrer Seite hat, also 55nm statt 65nm und einen viel kleineren Chip ;)
 
wenn nen 8-zylinder weniger schluckt als ein 4-zylinder ist der 4-zylinder doch noch viel ineffizenter, oder?

wenn beide motoren die gleiche last ziehen, würde ich sagen, dass beide gleich ineffizient sind! nur dass eben der 4-zylinder-motor die doppelte menge sprit braucht um gleiche leistung zu erzielen wie der 8-zylindrige (angenommen hubraumverhältnis 2 [8-zylinder] : 1 [4-zylinder])

aber das wäre mal wieder das berühmte äpfel mit birnen vergleichen.

außerdem, wenn ihr grafikleistung für spiele haben wollt, so muss man auch damit rechnen, dass diese etwas energie kostet!
 
hmm... ich freu mich schon auf eine neue art von fanboys

die sich auf den stromverbrauch bei der und der menge an transistoren und shader-alus beziehen... bzw könnte das die fronten zwischen den fanboyfraktionen deutlich verhärten und die argumentation der eh schon rauen umgangsform nochma mehr anschleifen...

@Topic

ich find dieses gerät und die damit gemessenen ergebnisse sowie die dann auch genaueren angaben zu einem rechner mit dem dazugehören stromverbrauch enorm klasse

da ich selbst auch ein wenig auf den strom schau und mir sowas von kompetenter seite aus schon immer gewünscht habe
 
hmm... ich freu mich schon auf eine neue art von fanboys

die sich auf den stromverbrauch bei der und der menge an transistoren und shader-alus beziehen... bzw könnte das die fronten zwischen den fanboyfraktionen deutlich verhärten und die argumentation der eh schon rauen umgangsform nochma mehr anschleifen...
fanboys bzw flamer (finde das passt besser ;)) ist es egal, welches "feature" es ist, um das sich geschlagen wird - hauptsache, es wird sich geschlagen. die würden auch darüber disktuieren, dass die anzahl der widerstände bie grafikkarte X zeigen wieviel besser die ist :ugly:
 
Hier geht es aber nicht um die Effizienz der Transistoren und der damit verbundenen Rechenleistung, sondern um die Energieeffizienze und hier ist die HD4870 der GTX260 deutlich unterlegen, vor allem dann wenn man bedenkt das die HD4870 eigentlich alle Vorteile auf ihrer Seite hat, also 55nm statt 65nm und einen viel kleineren Chip

Kommt drauf an, ob man auch noch den Vram in die Effizienz der Chips miteinbezieht.
Man hat ja schon getestet, dass man im Idle durch Taktreduzierung hier im Vergleich verdammt viel sparen kann.

Leider kann man nicht die Leistungsaufnahmen der CHips alleine messen, sondern nur die KArte an sich.

Macht ja nix, das Gesamtkonzept der 4870 zieht im Idle zu viel, nicht nur des Chips. Unter Last im Furmark ist klar, dass sie da abgeht, da wird auch jede Alu voll ausgelastet. Bei Crysis W. müsst ich mir mal anschauen, wer da die Nase vorn hat, aber so schlecht steht sie da auch nicht da.
 
Ich bin wirklich überrascht, wieviel leistung (meine) die HD4870 verbraucht :(

trotz ihrem technischen vorteil zur gtx, muss sie hier doch massiv federn lassen --- eine neuauflage dürfte daran sicherlich was ändern und die hoffung stirbt zuletzte, das GPUs den gleichen weg wie CPU gehen und - ressourcensparend wirtschaften ;)
 
Wird die HD2900XT mit dem Furmark nicht richitg ausgelastet?? Kann doch nicht sein, dass die bei Crysis so viel MEHR Strom zieht als im Furmark !?:what:

Da ist uns eine kleine Panne unterlaufen. Die Karte wurde nur im Fenster-Modus getestet und lief daher auf 2D-Taktraten/Spannungen. Bei der HD2900 war es noch so, dass lediglich im Vollbild-3D die volle Leistung zur Verfügung steht.
 
Ich bin wirklich überrascht, wieviel leistung (meine) die HD4870 verbraucht :(

trotz ihrem technischen vorteil zur gtx, muss sie hier doch massiv federn lassen --- eine neuauflage dürfte daran sicherlich was ändern und die hoffung stirbt zuletzte, das GPUs den gleichen weg wie CPU gehen und - ressourcensparend wirtschaften ;)

technischer vorteil?

ich sehe da keinen wenn man bei kleinerer struktur wesentlich mehr spannung braucht.

aber deshalb läuft meine 4870 auch unter 3d mit 1,16v, da isse dann wieder konkurrenzfähig ;)
 
Wollte mir beim großen PC-Upgrade vor einigen Monaten auch die 4870x2 holen, aber zum Glück habe ich mich zuvor gut informiert - eben auch in Sachen Stromverbrauch.
Der Anschaffungspreis ist eine Seite, aber ich habe keinen Bock, bei Office, Surfen und Co. ständig solch einen Stromfresser zu verhalten. Knapp 80W im Idle!

Die Karte zieht ja beim Zocken anach ca. 4h einen Euro! Sorry, aber so etwas geht gar nicht...

Wenn, dann müsste man so eine Karte als zuschaltbare Zweitkarte verbauen können, damit man zumindest im Officebereich damit leben kann.

Möchte nicht wissen, wie viele Leute so eine Karte verbaut haben und nicht wissen, was diese für Unterhaltskosten verursacht.
 
>Die Karte zieht ja beim Zocken anach ca. 4h einen Euro! Sorry, aber so etwas geht gar nicht...

Nach 4h erreicht eine 4870x2 0.828kWh. Eine kWh kostet 20 Cent. Also kosten 4h 4870x2 gerade mal 16,56Cent. Wie du auf 1EUR in 4h kommst darfst uns mal vorrechnen.
 
Zuletzt bearbeitet:
Zurück