AMD Radeon R9 285 mit Tonga-GPU im Test: Graphics Core Next 1.2, das Effizienzwunder?

ich habe mir mal 2 andere Tests von der R9 285 von MSI angesehen. Interessant ist auch hier der Stromverbrauch:
I7 3770K, 16GB RAM, Maximus V Extreme, 240GB Corsair SSD, Win 8.1 und R9 285 Gaming OC MSI --> Gesamtverbrauch System: 96W Idle, 346W Load
(HARDOCP - Power and Temp - MSI Radeon R9 285 GAMING OC Video Card Review )
I7 4960X, P9X79-E, 32GB Hyper X (4x8GB), 240GB Hyper X SSD, Win7 64Bit, R9 285 Twin Frozr --> Gesamtverbrauch System: 171W Idle, 382W Load
(AMD’s GTX 760 Killer? MSI Radeon R9 285 Twin Frozr IV Review – Techgage )
Vor allem der direkte Vergleich von der R9 285 MSI (PCGH) mit der R9 285 Gigabyte (AMD Radeon R9 285 Gaming Power Consumption Results ) ist sehr deutlich:
215W (MSI) vs. 176W (Average, Gigabyte)
Scheint also wirklich ein Trend zu sein, dass die MSI Grafikkarten deutlich mehr verbrauchen.
 
Naja sind ja auch verschiedene Testsystem von verschiedenen Seiten die auch mit verschiedenen Verbrauchsmessgeräten und generell mit zwei unterschiedlichen Karten arbeiten die eine unterschiedliche Chipgüte aufweisen. Das sind viele Faktoren die schnell mal in der Summe einen großen Unterschied ausmachen können.
Wenn ich an meiner 7970 mal mit GPU Teak die Voltage von 1050 auf 1000 absenke macht das auch mal eben schnell einen Unterschied von 38 Watt auf dem Messgerät aus, bei einem Kollege verbraucht die selbe Revision der 7970 auf 1000 Mv immer noch gute 22 Watt mehr.
 
Das ihr euch alle wegen 20-50 Watt (unter Last) ins Hemd machen müsst :ka:
Mir persönlich ist es völlig wurscht ob ich mit der oder dem GPU Hersteller hire oder da ein bissl Watt einspare und somit "Energieeffizienter" bin.
Für's Energiesparen gibt es andere Sachen im Haushalt. Beim Spielen zählt nur Leistung und Lautstärke

Das was mich eher stört ist das AMD einen schnelleren Chip mit dem SI und 2GB bremst :nene: siehe BF4 (Mantle) und Watchdogs. Sonst scheint die GPU ja gleichauf mit der R9280 zu sein bzw bei gleichem Takt sogar schneller. Und da die 280 und 280X EOL gehen brauchts halt einen Nachfolger.
 
Das ihr euch alle wegen 20-50 Watt (unter Last) ins Hemd machen müsst :ka:
Mir persönlich ist es völlig wurscht ob ich mit der oder dem GPU Hersteller hire oder da ein bissl Watt einspare und somit "Energieeffizienter" bin.
Für's Energiesparen gibt es andere Sachen im Haushalt. Beim Spielen zählt nur Leistung und Lautstärke

Das was mich eher stört ist das AMD einen schnelleren Chip mit dem SI und 2GB bremst :nene: siehe BF4 (Mantle) und Watchdogs. Sonst scheint die GPU ja gleichauf mit der R9280 zu sein bzw bei gleichem Takt sogar schneller. Und da die 280 und 280X EOL gehen brauchts halt einen Nachfolger.

Schau dir mal den Computerbase Test an. Die haben den Speicher übertaktet. Bei einer 10 Prozentigen übertaktung haben am Schluss genau 0,5 Prozent mehr Leistung rausgeschaut.

Das Speicherinterface limitiert also (bis auf Farcry) kein bisschen.

Ob und wie viel die 2 Gb. limitieren werden wir dann eh mit den ersten 4 Gb. Karten sehen.
 
@Dissi

Das Problem wurde schon bei den AMD-APU CPU Test nicht beachte von vielen Press-Redaktionen,
da wird ein Test-system mit einem 600w bzw. 750w Netzteil gesteste, was ja absolut unnötig ist,
würde man mit einem 400w Netzteil testen wären das auch schnell 25w einsparung.

Darum sind Gesammtmessung nur mit Vorsicht zu geniessen, die ht4u.net Test sind da vorzuziehen.
 
@Dissi

Das Problem wurde schon bei den AMD-APU CPU Test nicht beachte von vielen Press-Redaktionen,
da wird ein Test-system mit einem 600w bzw. 750w Netzteil gesteste, was ja absolut unnötig ist,
würde man mit einem 400w Netzteil testen wären das auch schnell 25w einsparung.

Darum sind Gesammtmessung nur mit Vorsicht zu geniessen, die ht4u.net Test sind da vorzuziehen.

Wollte ich auch gerade schreiben.
Vorallem der Idle wert schreit ja schon nahezu nach einem viel zu großem NT.
 
Endlich mal jemand der in Videos wirklich gut rüber kommt, die anderen Autoren aus der Redaktion schienen sich immer unwohl zu fühlen, schönes Video!
 
Wie kann es denn bitte schön sein, dass die R9 285 215 Watt, und die R9 280 189 Watt verbrauchte im Test, wobei die 280 einen höheren TDP von 200 aufweist, und die 285 einen TDP von 190. Sind die Werte vertauscht in der Spalte zwischen 285 und 280??
 
Endlich mal jemand der in Videos wirklich gut rüber kommt, die anderen Autoren aus der Redaktion schienen sich immer unwohl zu fühlen, schönes Video!

Die hatten mal einen Redakteur, der noch besser war in den Videos, der hat wirklich frischen Wind in die Videos gebracht.
Hach jaaa wo ist nur unser guter alter Master Föhn? :D
 
Weiß jemand ob das NT beim Testsystem-Wechsel geändert wurde?
@PCGH könntet ihr bitte die 280 auch noch mit dem neuen Testsystem gegenmessen?
(Falls nicht schon passiert)
 
Wie kann es denn bitte schön sein, dass die R9 285 215 Watt, und die R9 280 189 Watt verbrauchte im Test, wobei die 280 einen höheren TDP von 200 aufweist, und die 285 einen TDP von 190. Sind die Werte vertauscht in der Spalte zwischen 285 und 280??
Weder TDP noch typical board power (die hier tatsächlich angegeben ist), lassen direkte Rückschlüsse auf den wirklichen Verbrauch zu.
 
Weder TDP noch typical board power (die hier tatsächlich angegeben ist), lassen direkte Rückschlüsse auf den wirklichen Verbrauch zu.
Also insgesamt bin ich enttäuscht, aber hab' gar nicht so viel erwartet. Da es kein komplettes Neudesign ist, sondern nur eine Anpassung an den Markt, war kein Effizienzwunder wie Maxwell zu erwarten (leider).
Hoffe AMD arbeitet bald mal an der Effizienz, sonst zieht Nvidia maßlos davon: Nvidia schafft es mit 3.5 Mrd Transistoren AMDs nun auf 5 Mrd Transistoren angewachsenes Kärtchen gut in schacht zu halten.

Ganz was anderes: Warum weichen die Stromverbrauchsmessungen so massiv ab, je nach Test: ?
Launch-Analyse: AMD Radeon R9 285 | 3DCenter.org
 
Also insgesamt bin ich enttäuscht, aber hab' gar nicht so viel erwartet. Da es kein komplettes Neudesign ist, sondern nur eine Anpassung an den Markt, war kein Effizienzwunder wie Maxwell zu erwarten (leider).
Hoffe AMD arbeitet bald mal an der Effizienz, sonst zieht Nvidia maßlos davon: Nvidia schafft es mit 3.5 Mrd Transistoren AMDs nun auf 5 Mrd Transistoren angewachsenes Kärtchen gut in schacht zu halten.

Ganz was anderes: Warum weichen die Stromverbrauchsmessungen so massiv ab, je nach Test: ?
Launch-Analyse: AMD Radeon R9 285 | 3DCenter.org

Viele der Testseiten verwenden viel zu große Netzteile.
Da Netzteile aber erst bei einer bestimmter Auslastung richtig effizient werden, gibt es da eben riesen Unterschiede.

Normalerweise würde ich auf Tomshardware und PCGH schauen, da die das meiner Meinung nach beste Equipment haben.
Da aber sogar die beiden auseinander gehen binn ich selbst auch etwas verwirrt.

Ich kann mir das eigentlich nur mit extrem auseinandergehenden Samples erklären.
 
Also insgesamt bin ich enttäuscht, aber hab' gar nicht so viel erwartet. Da es kein komplettes Neudesign ist, sondern nur eine Anpassung an den Markt, war kein Effizienzwunder wie Maxwell zu erwarten (leider).
Hoffe AMD arbeitet bald mal an der Effizienz, sonst zieht Nvidia maßlos davon: Nvidia schafft es mit 3.5 Mrd Transistoren AMDs nun auf 5 Mrd Transistoren angewachsenes Kärtchen gut in schacht zu halten.

Ganz was anderes: Warum weichen die Stromverbrauchsmessungen so massiv ab, je nach Test: ?
Launch-Analyse: AMD Radeon R9 285 | 3DCenter.org
Zu erstens: das gilt nur für single precision Szenarien. Mit Doppelter Genauigkeit verhauen aktuelle AMD-GPUs alle Angebote von Nvidia in jeder Metrik - Perf/W, Perf/Transistor, Perf/mm²... so ziemlich alles was man sich ausdenken kann. Unter Spielen sieht man davon halt nichts, da sehen AMDs Rechenmonster eben entsprechend nicht so glänzend aus. Maxwell mag es aber schaffen, bei DP aufzuschließen und bei SP davonzuziehen, das muss man abwarten.

Zu zweitens: Es gibt kein Referenzdesign, es wurden lauter verschiedene Partnerkarten vermessen, unter denen auch OC-Versionen sind. Die wurden dann zwar auf Referenztakt gebracht (bei allen Tests die ich mir angesehen habe, imo), aber ich wette, dass das Powerlimit und die Spannungsstufen bei denen trotzdem höher liegen...
 
aber ich wette, dass das Powerlimit und die Spannungsstufen bei denen trotzdem höher liegen...
Nein, lag es nicht. Ich habe zwei Gigabyte 285 hier, die beide mit 973 MHz getaktet sind und trotzdem niedrig genug liegen. Ich habe mittlerweile ZWEI Oszillografen gekoppelt (Master-Slave) und JEDE der vier Spannungsschienen in einem gemeinsamen Durchlauf vermessen. Also 2x PCIE Strom UND Spannung, sowie 12 und 3.3 Volt, auch jeweils Strom UND Spannung. Das ergibt bei 8 analogen Eingängen insgesamt 8 Spalten mit jeweils 6.000 bzw. 60.000 Messwerten in den Log-Files, aus denen man dann recht einfach die tatsächliche Leistungsaufnahme errechnen kann. Die beiden Gigabyte-Karten differieren unter Last um weniger als 2 Prozent, da sie unterschiedliche Chipgüten besitzen. ABER: wenn ich ab 100 ms Intervallen aufwärts messe, kommt Schrott raus, der um bis zu 10% differiert. Die Karten haben Lastspitzen, die sich mit einfachen Zangenamperemetern kaum noch messen lassen.
 
Nein, lag es nicht. Ich habe zwei Gigabyte 285 hier, die beide mit 973 MHz getaktet sind und trotzdem niedrig genug liegen. Ich habe mittlerweile ZWEI Oszillografen gekoppelt (Master-Slave) und JEDE der vier Spannungsschienen in einem gemeinsamen Durchlauf vermessen. Also 2x PCIE Strom UND Spannung, sowie 12 und 3.3 Volt, auch jeweils Strom UND Spannung. Das ergibt bei 8 analogen Eingängen insgesamt 8 Spalten mit jeweils 6.000 bzw. 60.000 Messwerten in den Log-Files, aus denen man dann recht einfach die tatsächliche Leistungsaufnahme errechnen kann. Die beiden Gigabyte-Karten differieren unter Last um weniger als 2 Prozent, da sie unterschiedliche Chipgüten besitzen. ABER: wenn ich ab 100 ms Intervallen aufwärts messe, kommt Schrott raus, der um bis zu 10% differiert. Die Karten haben Lastspitzen, die sich mit einfachen Zangenamperemetern kaum noch messen lassen.
Wer bist denn du? :)
 
Zurück