majinvegeta20
Lötkolbengott/-göttin
Ahhhh bin blind. Mein Fehler.
Noch früh am Morgen.
Noch früh am Morgen.
Das ihr euch alle wegen 20-50 Watt (unter Last) ins Hemd machen müsst
Mir persönlich ist es völlig wurscht ob ich mit der oder dem GPU Hersteller hire oder da ein bissl Watt einspare und somit "Energieeffizienter" bin.
Für's Energiesparen gibt es andere Sachen im Haushalt. Beim Spielen zählt nur Leistung und Lautstärke
Das was mich eher stört ist das AMD einen schnelleren Chip mit dem SI und 2GB bremst siehe BF4 (Mantle) und Watchdogs. Sonst scheint die GPU ja gleichauf mit der R9280 zu sein bzw bei gleichem Takt sogar schneller. Und da die 280 und 280X EOL gehen brauchts halt einen Nachfolger.
@Dissi
Das Problem wurde schon bei den AMD-APU CPU Test nicht beachte von vielen Press-Redaktionen,
da wird ein Test-system mit einem 600w bzw. 750w Netzteil gesteste, was ja absolut unnötig ist,
würde man mit einem 400w Netzteil testen wären das auch schnell 25w einsparung.
Darum sind Gesammtmessung nur mit Vorsicht zu geniessen, die ht4u.net Test sind da vorzuziehen.
Endlich mal jemand der in Videos wirklich gut rüber kommt, die anderen Autoren aus der Redaktion schienen sich immer unwohl zu fühlen, schönes Video!
Weder TDP noch typical board power (die hier tatsächlich angegeben ist), lassen direkte Rückschlüsse auf den wirklichen Verbrauch zu.Wie kann es denn bitte schön sein, dass die R9 285 215 Watt, und die R9 280 189 Watt verbrauchte im Test, wobei die 280 einen höheren TDP von 200 aufweist, und die 285 einen TDP von 190. Sind die Werte vertauscht in der Spalte zwischen 285 und 280??
Also insgesamt bin ich enttäuscht, aber hab' gar nicht so viel erwartet. Da es kein komplettes Neudesign ist, sondern nur eine Anpassung an den Markt, war kein Effizienzwunder wie Maxwell zu erwarten (leider).Weder TDP noch typical board power (die hier tatsächlich angegeben ist), lassen direkte Rückschlüsse auf den wirklichen Verbrauch zu.
Also insgesamt bin ich enttäuscht, aber hab' gar nicht so viel erwartet. Da es kein komplettes Neudesign ist, sondern nur eine Anpassung an den Markt, war kein Effizienzwunder wie Maxwell zu erwarten (leider).
Hoffe AMD arbeitet bald mal an der Effizienz, sonst zieht Nvidia maßlos davon: Nvidia schafft es mit 3.5 Mrd Transistoren AMDs nun auf 5 Mrd Transistoren angewachsenes Kärtchen gut in schacht zu halten.
Ganz was anderes: Warum weichen die Stromverbrauchsmessungen so massiv ab, je nach Test: ?
Launch-Analyse: AMD Radeon R9 285 | 3DCenter.org
Zu erstens: das gilt nur für single precision Szenarien. Mit Doppelter Genauigkeit verhauen aktuelle AMD-GPUs alle Angebote von Nvidia in jeder Metrik - Perf/W, Perf/Transistor, Perf/mm²... so ziemlich alles was man sich ausdenken kann. Unter Spielen sieht man davon halt nichts, da sehen AMDs Rechenmonster eben entsprechend nicht so glänzend aus. Maxwell mag es aber schaffen, bei DP aufzuschließen und bei SP davonzuziehen, das muss man abwarten.Also insgesamt bin ich enttäuscht, aber hab' gar nicht so viel erwartet. Da es kein komplettes Neudesign ist, sondern nur eine Anpassung an den Markt, war kein Effizienzwunder wie Maxwell zu erwarten (leider).
Hoffe AMD arbeitet bald mal an der Effizienz, sonst zieht Nvidia maßlos davon: Nvidia schafft es mit 3.5 Mrd Transistoren AMDs nun auf 5 Mrd Transistoren angewachsenes Kärtchen gut in schacht zu halten.
Ganz was anderes: Warum weichen die Stromverbrauchsmessungen so massiv ab, je nach Test: ?
Launch-Analyse: AMD Radeon R9 285 | 3DCenter.org
Nein, lag es nicht. Ich habe zwei Gigabyte 285 hier, die beide mit 973 MHz getaktet sind und trotzdem niedrig genug liegen. Ich habe mittlerweile ZWEI Oszillografen gekoppelt (Master-Slave) und JEDE der vier Spannungsschienen in einem gemeinsamen Durchlauf vermessen. Also 2x PCIE Strom UND Spannung, sowie 12 und 3.3 Volt, auch jeweils Strom UND Spannung. Das ergibt bei 8 analogen Eingängen insgesamt 8 Spalten mit jeweils 6.000 bzw. 60.000 Messwerten in den Log-Files, aus denen man dann recht einfach die tatsächliche Leistungsaufnahme errechnen kann. Die beiden Gigabyte-Karten differieren unter Last um weniger als 2 Prozent, da sie unterschiedliche Chipgüten besitzen. ABER: wenn ich ab 100 ms Intervallen aufwärts messe, kommt Schrott raus, der um bis zu 10% differiert. Die Karten haben Lastspitzen, die sich mit einfachen Zangenamperemetern kaum noch messen lassen.aber ich wette, dass das Powerlimit und die Spannungsstufen bei denen trotzdem höher liegen...
Wer bist denn du?Nein, lag es nicht. Ich habe zwei Gigabyte 285 hier, die beide mit 973 MHz getaktet sind und trotzdem niedrig genug liegen. Ich habe mittlerweile ZWEI Oszillografen gekoppelt (Master-Slave) und JEDE der vier Spannungsschienen in einem gemeinsamen Durchlauf vermessen. Also 2x PCIE Strom UND Spannung, sowie 12 und 3.3 Volt, auch jeweils Strom UND Spannung. Das ergibt bei 8 analogen Eingängen insgesamt 8 Spalten mit jeweils 6.000 bzw. 60.000 Messwerten in den Log-Files, aus denen man dann recht einfach die tatsächliche Leistungsaufnahme errechnen kann. Die beiden Gigabyte-Karten differieren unter Last um weniger als 2 Prozent, da sie unterschiedliche Chipgüten besitzen. ABER: wenn ich ab 100 ms Intervallen aufwärts messe, kommt Schrott raus, der um bis zu 10% differiert. Die Karten haben Lastspitzen, die sich mit einfachen Zangenamperemetern kaum noch messen lassen.
Ich bin ich.Wer bist denn du?
Also bist du sozusagen ein "Tom"? (sprich: Mitarbeiter bei tomshardware) ^^Ich bin ich.
Aber ich glaube, die Zahl derer, die mit Oszillographen Grafikkarten messen, ist durchaus überschaubar