Geforce wieder vor Radeon in den Kaufabsichten der Community

Bei Anandtech.com gibt es einen sehr ausführlichen Artikel über die Entstehung des 4800er Reihe, da wird ein Mitarbeiter zitiert, dass der 4800er garnicht dazu gedacht war sparsam zusein. Alleine die Leistung sollte stimmen, um wieder aufzuschliessen.
sie haben aber behauptet, dass sie mit neuen treibern den energiehunger enidämmen wollen:
Powerplay 2.0 mit Catalyst-Beta-Treibern verbessert? - PowerPlay 2.0, Radeon, HD 4870, HD4870, HD 4850, HD4850
AMD sagte bereits PCGH gegenüber aus, dass man an Verbesserungen über den Catalyst-Treiber arbeite.
passiert bis heute: nix.
 
sie haben aber behauptet, dass sie mit neuen treibern den energiehunger enidämmen wollen:
Powerplay 2.0 mit Catalyst-Beta-Treibern verbessert? - PowerPlay 2.0, Radeon, HD 4870, HD4870, HD 4850, HD4850

passiert bis heute: nix.

Da liegt ein Problem in der Architektur der 4800er Reihe vor. Alleine schon die Abwärme ist gewaltig. Man kann es zwar manuell durch eine Senkung der Spannung abfangen ~ 50Watt einsparen. Aber da machen nicht alle Karten gleich gut mit.

Und Treiber Verbesserungen stehe ich im Allgemeinen skeptisch gegenüber.
Die Ergebnisse sind immer sehr überschaubar, man keine großen Sprünge von der Leistung her (nur durch extreme Optimierung und zu Lasten der Bildqualität) oder Leistungaufnahme erwarten, ohne in die Architektur selbst einzugreifen - und das geht nur durch eine neue Revision der Karte selbst.

Ich denke mit dem DIE Shrink (40nm) kann man es bei AMD/ATI gut hinbekommen.

mfg
 
Das Problem ist wohl eher nicht die Architektur (OK, die Teile die abgeschaltet werden sollten werdens nicht) sondern eher des PCBs bzw das man die Spannung im Idle nicht senkt.

Bei der HD4850 schauts auch garnicht soo schlecht aus, bei der 70er ists übler, besonders 'dank' des Speichers, der anscheinend ordentlich heizen soll, hier hat man also ein ähnliches Problem wie nVidia mit der FX5800 Serie...
 
Das Problem ist wohl eher nicht die Architektur (OK, die Teile die abgeschaltet werden sollten werdens nicht) sondern eher des PCBs bzw das man die Spannung im Idle nicht senkt.

Es sind der GDDR5 Speicher, die komplexe GPU selbst und vorallem die Spannungswandler, die bis zu 125Grad ausmachen.

Und was bekanntlich viel Abwärme erzeugt, braucht im Umkehrschluss auch viel Strom.
Okay, hab mich da wohl etwas unpassend ausgedrückt;-) Es liegt am Layout der Karte und der komplexen GPU, darauf zielte meine Antwort auch ab ;-)
Aber das kann nur durch eine neue Revision der Karte behoben werden. Folglich gehen alle 4800er Kunden leer aus, was den reduzierten Stromverbrauch angeht.

PS.
Dafür ist sie aber auch billiger als die Konkurrenz. Es ist ein für und wieder ;-)

mfg
 
Zuletzt bearbeitet:
Link:
ComputerBase - Test: Nvidia GeForce GTX 285 (SLI) (Seite 23)

Zum Thema Leistungsaufnahme ;-)
Es ist eigentlich allgemein bekannt, dass die 4870er mehr Strom ziehen, als GTX2xx. Besonders im Idl Modus;-)
Erstaunlich.:wow:
Meine Karte wurde mit 114 Watt Last bei einem seriösen Online-Shop angegeben.:huh:
Verstehe ich nicht, warum sie tatsächlich 275 Watt verbraten soll, lt. ComputerBase.
Ich habe extra diese Karte gewählt, weil sie lt. dem Online-Shop nur ~100 Watt bei Volllast verbratet.
Irgendetwas stimmt bei der Liste von CB nicht. Ich habe meine Karte mit einem 250 W Netzteil betrieben und sie läuft heute noch ohne Probleme, besser gesagt das ganze System.
Also 275 Watt für eine 4850 halte ich für sehr übertrieben!;)
Mit was für Messinstrumenten misst man denn bei CB, nach Gefühl?
 
Erstaunlich.:wow:
Meine Karte wurde mit 114 Watt Last bei einem seriösen Online-Shop angegeben.:huh:

Bitte richtig lesen!!! Da steht das gesamte System.
Und wenn du dann die Vergleichwerte nimmst, sieht es wie folgt aus (System bleibt außer dem Graka Wechsel gleich):

Idl:
4870: 32 Watt mehr als eine gtx 260²
4870: 28 Watt mehr als eine gtx 280
4870: 39 Watt mehr als gtx 285

3D Last:
4870: 20 Watt mehr als eine gtx 260²
4870: 36 Watt weniger als eine gtx 280
4870: 15 Watt weniger als eine gtx 285


Unter dem Strich verbraucht die 4870 rund 30Watt mehr im 2D Modus (Desktop etc.). Im 3D Modus mehr als der direkte Konkurrent gtx 260². Die GTX 280/285 verbrauchen im 3D Modus zwar mehr, sind dafür aber auch schneller.

Es wurde auch noch ein zweiter Link genannt zum Vergleich ;-)

mfg
 
Jedem den der Stromverbrauch (s)einer 4870 ein Dorn im Auge ist, sollte sich mal die ATI-Tray-Tools ansehen. Damit kann man den Idleverbrauch um ~ 45W senken und die GraKa im 2D-Modus mit <20Watt abspeisen. Damit ist die HD4870 in 2D wieder deutlich sparsamer als ne vergleichbare NV-Karte!

Da liegt ein Problem in der Architektur der 4800er Reihe vor. Alleine schon die Abwärme ist gewaltig. Man kann es zwar manuell durch eine Senkung der Spannung abfangen ~ 50Watt einsparen. Aber da machen nicht alle Karten gleich gut mit.

Falsch. Durch ne Spannungsabsenkung spart man maximal 5 Watt. Durchs untertakten des Speichers kommen die großen Gewinne. Und den Speicher kann man auf jeder HD4870 untertakten.

Außerdem ist auch nur das erstmalige Einstellen der Settings manuell. Die Umschaltung geschieht dann vollautomatisch. Nicht umsonst hat meine HD4870 in 2D automatisch nur mehr weniger als 32°C und das bei unhörbaren 25% Lüftergeschwindigkeit und dem Standard-Atikühler.
 
Zuletzt bearbeitet:
Jedem den der Stromverbrauch (s)einer 4870 ein Dorn im Auge ist, sollte sich mal die ATI-Tray-Tools ansehen. Damit kann man den Idleverbrauch um ~ 45W senken und die GraKa im 2D-Modus mit <20Watt abspeisen. Damit ist die HD4870 in 2D wieder deutlich sparsamer als ne vergleichbare NV-Karte!
*Ding* Ding* *Ding*
Ring frei zur zweiten Runde

Das Spiel kannst du treiben, bei den Nvidia-Karten kannst du dann per Rivatuner oder BIOS-Flash die Spannung absenken uns schon wirds im Idle und unter Last wieder eine Ecke sparsamer...

Nochmal zur HD4870, der Idle-Stromverbrauch liegt übrigens nur zu sehr geringen Teilen am GDDR5-RAM, offensichtlich ist PowerPlay was den integrierten Speichercontroller in der GPU angeht defekt und der läuft dann auch Idle auf volle Pulle, wenn man nicht manuell heruntertaktet. Deshalb bringt auch das Absenken des Speichertakts so große Einsparungen, für gewöhnlich macht das kaum was aus und RAM braucht wenn er idlet sowieso kaum Saft.
 
*Ding* Ding* *Ding*
Ring frei zur zweiten Runde

Das Spiel kannst du treiben, bei den Nvidia-Karten kannst du dann per Rivatuner oder BIOS-Flash die Spannung absenken uns schon wirds im Idle und unter Last wieder eine Ecke sparsamer...

Nochmal zur HD4870, der Idle-Stromverbrauch liegt übrigens nur zu sehr geringen Teilen am GDDR5-RAM, offensichtlich ist PowerPlay was den integrierten Speichercontroller in der GPU angeht defekt und der läuft dann auch Idle auf volle Pulle, wenn man nicht manuell heruntertaktet. Deshalb bringt auch das Absenken des Speichertakts so große Einsparungen, für gewöhnlich macht das kaum was aus und RAM braucht wenn er idlet sowieso kaum Saft.

Is ja für den Anwender wurscht warum. Auf jeden Fall kann man das automatisiert von den Ati Tray Tools erledigen lassen. Und auf unter 20W kommt man wohl selbst bei NV-Karten nicht mit starker Untertaktung (weil da ist ja alles in Ordnung).

Außerdem kann deine Speichercontrollergeschichte auch nicht ganz stimmen, weil ja nur die 4870 den hohen Verbrauch hat, und die hat ja den gleichen Controller wie die 4850.
 
...der im GDDR3-Modus offensichtlich keine Probleme hat, "mal abzuschalten". :)

Ok *g*


Jedenfalls ist für den interessierten Anwender kein Beinbruch, denn - wie gesagt - man kann das Problem durch automatische Untertaktung ganz leicht in den Griff bekommen. Deswegen ists meiner Meinung nach nicht notwendig, seine Kaufentscheidung davon abhängig zu machen.
 
Is ja für den Anwender wurscht warum. Auf jeden Fall kann man das automatisiert von den Ati Tray Tools erledigen lassen. Und auf unter 20W kommt man wohl selbst bei NV-Karten nicht mit starker Untertaktung (weil da ist ja alles in Ordnung).
kommt man wohl :P

das ist jetzt ungefähr die diskussion ala Neuwagen vs. Gebraucht - wenn schon dann gleiche Vorraussetzungen und mit den entsprechenden Tools ist der Stromverbrauchsvorteil für Nvidia wieder da. Gibt es nichts dran zu rütteln.
 
Jedem den der Stromverbrauch (s)einer 4870 ein Dorn im Auge ist, sollte sich mal die ATI-Tray-Tools ansehen.

Lustig..... Ich glaube wir sollten sachlich bleiben und die Standard Produkte der Hersteller betrachten!!!

(Nur hypothetisch sehen bitte)
Das wäre sonst wie: "AMD sieht kein Land mehr gegen Intel Q9650 @4GHz und alle Benchmarks werden Standard AMD CPUs gegen overclocked Intel Quads getestet, weil man die so hoch takten kann" ;-)

Klar kannst du Under- und Overclocking betreiben, Spannungen senken oder erhöhen.....

1. NV Grafikkarten kannst du auch underclocken und die Spannung noch richtig nach unten bringen, wenn man ein gutes Exemplar hat (ist bei allen Grafikkarten ein Glücksspiel)

2. Nicht alle AMD/ATI 4800er lassen sich soweit undervolten/takten, um deine Ergebnisse zu erreichen.

3. Wenn überhaupt machen das 10% der Käufer oder es ist ihnen zu riskant, weil sie zB. die Garantie verlieren ;-)
Der Rest zahlt eine höhere Stromrechnung und ärgert sich.

Merkst du in welche Richtung es geht, diese was wäre wenn Spiele, sind nur auf einige Exemplare anwendbar. Oder glaubst du AMD/ATI hätten das nicht schon geändert, mit einem einfachen Bios Update, wenn es so einfach wäre???

PS.
gerade bei der 4870 wäre ich vorsichtig. Diese Karte wurde sehr am Limit gebaut:
- Furmark Taktbegrenzung (Überhitzungsschutz)
- Spannungswandler, die am Limit arbeiten (125Grad, was auch als max. Hersteller angegeben wird)
- etc.
Denn auch beim Undervolten/Underclocking kann man gewisse Hersteller Angaben unterschreiten und die Lebensdauer gewisser Komponenten beeinträchtigen (das gleiche gilt für jegliche elektronischen Produkte, die außerhalb der Herstellerspezifikationen betrieben werden).

mfg
 
Zuletzt bearbeitet:
Lustig..... Ich glaube wir sollten sachlich bleiben und die Standard Produkte der Hersteller betrachten!!!

(Nur hypothetisch sehen bitte)
Das wäre sonst wie: "AMD sieht kein Land mehr gegen Intel Q9650 @4GHz und alle Benchmarks werden Standard AMD CPUs gegen overclocked Intel Quads getestet, weil man die so hoch takten kann" ;-)

Klar kannst du Under- und Overclocking betreiben, Spannungen senken oder erhöhen.....

1. NV Grafikkarten kannst du auch underclocken und die Spannung noch richtig nach unten bringen, wenn man ein gutes Exemplar hat (ist bei allen Grafikkarten ein Glücksspiel)

2. Nicht alle AMD/ATI 4800er lassen sich soweit undervolten/takten, um deine Ergebnisse zu erreichen.

3. Wenn überhaupt machen das 10% der Käufer oder es ist ihnen zu riskant, weil sie zB. die Garantie verlieren ;-)
Der Rest zahlt eine höhere Stromrechnung und ärgert sich.

Merkst du in welche Richtung es geht, diese was wäre wenn Spiele, sind nur auf einige Exemplare anwendbar. Oder glaubst du AMD/ATI hätten das nicht schon geändert, mit einem einfachen Bios Update, wenn es so einfach wäre???

PS.
gerade bei der 4870 wäre ich vorsichtig. Diese Karte wurde sehr am Limit gebaut:
- Furmark Taktbegrenzung (Überhitzungsschutz)
- Spannungswandler, die am Limit arbeiten (125Grad, was auch als max. Hersteller angegeben wird)
- etc.
Denn auch beim Undervolten/Underclocking kann man gewisse Hersteller Angaben unterschreiten und die Lebensdauer gewisser Komponenten beeinträchtigen (das gleiche gilt für jegliche elektronischen Produkte, die außerhalb der Herstellerspezifikationen betrieben werden).

mfg

1. NV-Karten kann man zwar auch undervolten/clocken, aber da bringt das kaum was, da der 2D-Modus ohnehin schon recht sparsam ist.

2. Beim Untertakten gibts kaum Limits, (zumindest außerhalb von einem Bereich wo es schon wieder unsinnig wäre so niedrige Taktraten zu fahren). Du weisst ja außerdem garnicht, wie weit meine untertaktet ist. 500MHz Speicher gehen anscheinend immer, zumindest hab ich bisher noch nix gegenteiliges gehört und neben diversen Privatnutzern in Foren haben sowohl PCGH und Computerbase hat erfolgreiche Tests mit 400MHz gemacht. Ich gehe sogar so weit und wage zu behaupten, das JEDE HD4870 mit 200/500 statt 500/1800 zurechtkommt. PCGH hat sogar mit 80/400 getestet. Durchs Undervolten selbst spart man kaum Strom, da dieses nur die GPU betrifft und die ohnehin nicht viel braucht.

3. Durchs UNTERtakten verliert man die Garantie? Das ist mir neu. Ich hab auch noch nie gehört, dass jemand durch UNTERtakten seine Hardware geschrottet hätte.

4. Sind das keine "was wäre wenn Spiele". Ich würde mich freuen, wenn du etwas Abstand davon nähmest, Dinge zu behaupten, die du dir ohne Grundlage zusammenreimst. Hast dus schon probiert? Besitzt du überhaupt ne HD4870? Kennst du tatsächlich irgendjemanden, dessen HD4870 keine 500MHz Speichertakt mitmachen will?

Dass ATI bei HD4870 der Speicher nicht automatisch untertaktet hat mit dem Prinzip von Powerplay zu tun. Dieses arbeitet nämlich lastbasierend (was zu einem großen Teil sicher dem Umstand, dass Vista mit Aero div. D3D-Funktionen nutzt, zu verdanken ist. Die Grafikkarte anderfalls unter Vista sich ja andauernd im 3D-Modus befinden würde)
Dadurch, dass bei der Speichertaktänderung ein mit GDDR5 ein kurzes Bildflackern zu sehen ist, kann ATI auch nicht einfach im 2D-Modus den Speichertakt runtertakten, da man bei jedem Lastwechsel ein Flackern am Schirm hat. Dementsprechend ist auch ein alter PCGH-Artikel sehr irreführend, wo dem Leser empfohlen wurde einfach ein BIOS mit niedrigeren 2D-Speichertaktraten zu flashen.

Die automatische Taktumschaltung der ATT geht da nen ganz anderen Weg. Sobald ne Anwendung gestartet wird, wird überprüft, ob 3D-Funktionen der GraKa genutzt werden und falls ja, wird dann hochgetaktet.

Dieses Konzept hätte sich zwar für PP2.0 angeboten, nur hätte man das ganze bisherige R&D übern Haufen werfen müssen, und hätte zusätzlich das Problem gehabt, dass man von nem einheitlichen Powerplay Abstand nehmen hätte müssen - weil ein niedriger 2D-Takt bei LOW-End GraKas ggf schon wieder zu Performanceproblemen unterm Vistadesktop geführt hätte.


PS:

-Furmark: ATi hat die Drosselung nur eingebaut, damit den Bastlern die GraKa nicht gleich abraucht. Denn durch Kühlerumbauten verändert sich der Luftstrom und die Spannungswandler werden oft nicht mehr ausreichend gekühlt. Und bevor den Bastlern die Grafikkarte einfach abraucht, drosstelt ATI halt den Benchmark. Meine Grafikkarte zB. läuft mit Stockkühler und 36% Lüftergeschwindigkeit bei 825/1150MHz und pendelt sich beim ungebremsten Furmark Stresstest auf 83°C ein.

Außerdem gibts es auch 4870-Karten mit analogen Wandlern, wo man selbst mit Alternativkühlern stets auf der sicheren Seite ist: http://www.pc-experience.de/wbb2/thread.php?threadid=28092

- Dass man durch Untertakten die Hardware nicht zerstören kann, und dass dadurch auch nicht die Grantie erlischt, wird dir auch jeder IHV bestätigen. Einfach mal den Support fragen, wenn du mir nicht glaubst.
 
Zuletzt bearbeitet:
1. NV-Karten kann man zwar auch undervolten/clocken, aber da bringt das kaum was, da der 2D-Modus ohnehin schon recht sparsam ist.
hast du das schonmal bei ner nvidiakarte gemacht? und wenn ja - wie gemessen?

2. Beim Untertakten gibts kaum Limits, (zumindest außerhalb von einem Bereich wo es schon wieder unsinnig wäre so niedrige Taktraten zu fahren). Du weisst ja außerdem garnicht, wie weit meine untertaktet ist. 500MHz Speicher gehen anscheinend immer
meine 285 taktet ihren speicher auf 100mhz runter - also mal eben so nur 20% von deinen hier behaupteten 500. nen riesen unterschied :P

-Furmark: ATi hat die Drosselung nur eingebaut, damit den Bastlern die GraKa nicht gleich abraucht. Denn durch Kühlerumbauten verändert sich der Luftstrom und die Spannungswandler werden oft nicht mehr ausreichend gekühlt.
das ist auch genug leuten mit originallüfter passiert und das ist sich ATI auch bewusst. wenn originallüfter nicht betroffen wären, hätten sie furmark furmark sein lassen...
 
hast du das schonmal bei ner nvidiakarte gemacht? und wenn ja - wie gemessen?

Ja, bei meiner 8800GTS. Einfach anhand der Temperatur. Da hat sich kaum was geändert.

meine 285 taktet ihren speicher auf 100mhz runter - also mal eben so nur 20% von deinen hier behaupteten 500. nen riesen unterschied :P

DDR anyone? Die 500, sind tatächliche 250. Nur GDDR5 halt. PCGH und Computerbase waren dementsprechend bei 200. Außerdem ists ja ganz toll, dass deine 285 so niedrig geht. Nur stand das nie zur Debatte und einen (so) großen Nutzen (wie ein HD4870 Nutzer) hast du ja auch nicht davon. Aber trotzdem danke für die Info. :daumen:

das ist auch genug leuten mit originallüfter passiert und das ist sich ATI auch bewusst. wenn originallüfter nicht betroffen wären, hätten sie furmark furmark sein lassen...

Dazu hätt ich jetzt wirklich gern mal eine Quelle. Denn der Originallüfter hat ne Lüftersteuerung, die schon längst vor Erreichen der kritischen Temperatur die Lüfterspeed auf laute 100% hochjagt. Deine Behauptung ist also, in Anbetracht der Umstände, nicht ganz nachvollziehbar.



[ironiemode]
Wahrscheinlich ärgerts dich nur, dass jemand mit ner 170€-Karte in manchen Spielen mehr Power hat als du mit ner GraKa, die knapp doppelt so teuer war. Deswegen muss man die Konkurrenz auch zwanghaft schlecht reden - einfach um die eigene Investition zu rechtfertigen ;)

Siehe zB die PCGH Ergebnisse von Burnout Paradise + SSAO.
[/ironiemode]
 
Ja, bei meiner 8800GTS. Einfach anhand der Temperatur. Da hat sich kaum was geändert.
das ist natürlich ein höchst aktuelles modell :rolleyes:

Außerdem ists ja ganz toll, dass deine 285 so niedrig geht. Nur stand das nie zur Debatte und einen (so) großen Nutzen (wie ein HD4870 Nutzer) hast du ja auch nicht davon.
das ist nicht nur meine, dass ist das standardprofil für 2D-Desktop mode

Dazu hätt ich jetzt wirklich gern mal eine Quelle. Denn der Originallüfter hat ne Lüftersteuerung, die schon längst vor Erreichen der kritischen Temperatur die Lüfterspeed auf laute 100% hochjagt. Deine Behauptung ist also, in Anbetracht der Umstände, nicht ganz nachvollziehbar.
ich hatte nie eine HD4870, aber vllt äußert sich Dr. Cox ja mal dazu :)

Wahrscheinlich ärgerts dich nur, dass jemand mit ner 170€-Karte in manchen Spielen mehr Power hat als du mit ner GraKa, die knapp doppelt so teuer war. Deswegen muss man die Konkurrenz auch zwanghaft schlecht reden - einfach um die eigene Investition zu rechtfertigen ;)[/ironiemode]
[wahrheitsmode]ich hab die karte für lau geliehen :D[/wahrheitsmode]

jetzt darfst du gern grün werden :ugly:
 
Zurück