Radeon R9 Nano: AMDs Powerzwerg im PCGH-Testlabor

175W bei ner AMD. Na das wird ja ein Spass.
Wenn man die anderen Modelle als Referenz nimmt, wo soll die dann landen? Auf GTX 970 Niveau zum doppelten Preis?
Ich hätte mir ja gern ein CF-System mit 2 390X gebastelt (wegen der 8GB Ram), aber bei der exorbitanten Stromverbraterei die AMD betreibt.... Nein danke!
Überall stell ich auf LED-Beleuchtung um und bei dem PC nehm ich dann sowas? Zum fast gleichen Preis wie bei NV? Ja ne, is klar.
 
175W bei ner AMD. Na das wird ja ein Spass.
Wenn man die anderen Modelle als Referenz nimmt, wo soll die dann landen? Auf GTX 970 Niveau zum doppelten Preis?
Ich hätte mir ja gern ein CF-System mit 2 390X gebastelt (wegen der 8GB Ram), aber bei der exorbitanten Stromverbraterei die AMD betreibt.... Nein danke!
Überall stell ich auf LED-Beleuchtung um und bei dem PC nehm ich dann sowas? Zum fast gleichen Preis wie bei NV? Ja ne, is klar.

Unter DX12 soll der VRam addiert werden, dann hättest du 8gb mit 2 Nanos.
Bei Crossfire oder SLi über Stromverbraterei zu meckern ist ziemlich sinnlos.
 
Unter DX12 soll der VRam addiert werden, dann hättest du 8gb mit 2 Nanos.
Bei Crossfire oder SLi über Stromverbraterei zu meckern ist ziemlich sinnlos.

Soll, darauf liegt die Betonung. Es SOLL auch seit Jahren schon eine bessere Multikernausnutzung geben. Ja.
Und ob mein Bundle nun 700 Watt oder 450 Watt verbraucht, macht bei mehrstündiger Nutzung jeden Tag eben den Kohl doch fett. Da ist nichts sinnloses dran.
 
175W bei ner AMD. Na das wird ja ein Spass.
Ich hätte mir ja gern ein CF-System mit 2 390X gebastelt (wegen der 8GB Ram), aber bei der exorbitanten Stromverbraterei die AMD betreibt.... Nein danke!

Sooo viel Höher ist der AMD Stromverbrauch auch nicht. Hatte anfangs eine GTX 750ti und der PC hat beim Zocken ca 160W (stark übertacktet) verbraucht. Mit einer 7970Ghz (zugegeben
undervoltet auf 1,12V bei vollem Tackt) komme ich auf ca. 240W. Sprich doppelte Leistung und dem angemessener doppelter Stromverbrauch. Dazu 50% mehr VRam. Finde jetzt beide Hersteller
gut und hätte bestimmt nichts gegen eine gute Nvidia Karte aber der angeblich so hohe AMD mehrverbrauch und die schlechten AMD Treiber sind mehr Gerüchte als Fakt.
 
Was ist das denn für eine riesige Banane auf dem Bild?
Die muss ja mindestens einen halben Meter lang sein?
 
Bei AMD hat sich bei Crossfire ordentlich was getan. CF skaliert zum Teil erheblich besser als SLI, zumindest bei den High-End-Karten.
Negativbeispiele gibs halt auf beiden Seiten aber immer noch genug...
 
Die Karte war halt erst jetzt fertig geworden. Die Alternative wäre gewesen, den ganzen Marktstart erst Mitte September zu machen, und vorher komplett Stillschweigen zu wahren. Wäre das aus deiner Sicht besser gewesen? Dann hätten einige z.B. notgedrungen die GTX 970 Mini für ihren Gaming-HTPC gekauft, und sich vielleicht hinterher geärgert, dass sie nichts von der Fury Nano gehört hatten. Eigentlich hat man doch AMD immer zu wenig Marketing vorgeworfen... Die in den letzten Monaten durchgeführten Marketing-Veranstaltungen zu Nano (z.B. der Soft-Launch) müssten dann doch eigentlich sehr begrüßt werden :)
Ich meinte eigentlich mehr die Vorstellung von Ende August plus Livestream, aber auf Tests wartet man nach wie vor.
Das muss nichts heissen, aber löst bei mir nicht zwingend ein gutes Gefühl hins. Verfügbarkeit aus.

Die Teaser davor waren imo durchaus ok. Vielleicht ists auch einfach nur die Ungeduld. Ist imo so ziemlich die interessanteste Karte 2015 (und eig. auch 2014). :ugly:
 
175W bei ner AMD. Na das wird ja ein Spass.
Wenn man die anderen Modelle als Referenz nimmt, wo soll die dann landen? Auf GTX 970 Niveau zum doppelten Preis?
Gibt's schon zum gleichen Preis. 175 Watt auf 970 Niveau schaffst du auch mit einer undervolteten und auf 900MHz untertakteten 290X - muss man leider aber selbst basteln.
 
175W bei ner AMD. Na das wird ja ein Spass.
Wenn man die anderen Modelle als Referenz nimmt, wo soll die dann landen? Auf GTX 970 Niveau zum doppelten Preis?
Ich hätte mir ja gern ein CF-System mit 2 390X gebastelt (wegen der 8GB Ram), aber bei der exorbitanten Stromverbraterei die AMD betreibt.... Nein danke!
Überall stell ich auf LED-Beleuchtung um und bei dem PC nehm ich dann sowas? Zum fast gleichen Preis wie bei NV? Ja ne, is klar.
Willst du uns eigentlich auf den Arm nehmen? Crossfire und Effizienz, also Multi-GPU und Effizienz?! Das sind heftigste Gegensätze!
Dual-GPU bringt im BestCase +100% Performance für doppelte Leistungsaufnahme. Eigentlich könnte man meinen, dass jetzt jedem "aha, nur im BestCase, das ist garantiert nicht der NormalCase" in den Sinn kommen sollte.
Und nachdem dich noch jemand drauf hingewiesen hat...
(...)
Bei Crossfire oder SLi über Stromverbraterei zu meckern ist ziemlich sinnlos.
...redest du vollkommen dran vorbei:
(...)
Und ob mein Bundle nun 700 Watt oder 450 Watt verbraucht, macht bei mehrstündiger Nutzung jeden Tag eben den Kohl doch fett. Da ist nichts sinnloses dran.
Das wurde doch gar nicht bestritten, nur ausgesagt, dass jemand, der sich für Effizienz interessiert, gefälligst kein mGPU-System zuzulegen hat.

(übrigens wird sich das auch in der Post-AFR-Ära nicht ändern, mGPU wird immer maximal gleich effizient, aber in der Praxis weniger effizient als sGPU sein!)
 
Die erste Grafikkarte mit einer Banane dazu, tolle Idee :P Die Leistung und Effizienz interessiert mich sehr, auch wenn ich momentan keine neue brauche, will ich es trotzdem wissen.
 
Willst du uns eigentlich auf den Arm nehmen? Crossfire und Effizienz, also Multi-GPU und Effizienz?! Das sind heftigste Gegensätze!
Dual-GPU bringt im BestCase +100% Performance für doppelte Leistungsaufnahme. Eigentlich könnte man meinen, dass jetzt jedem "aha, nur im BestCase, das ist garantiert nicht der NormalCase" in den Sinn kommen sollte.
Und nachdem dich noch jemand drauf hingewiesen hat... ...redest du vollkommen dran vorbei:
Das wurde doch gar nicht bestritten, nur ausgesagt, dass jemand, der sich für Effizienz interessiert, gefälligst kein mGPU-System zuzulegen hat.

(übrigens wird sich das auch in der Post-AFR-Ära nicht ändern, mGPU wird immer maximal gleich effizient, aber in der Praxis weniger effizient als sGPU sein!)

Entschuldigung, ich will dich arme Maus nicht "auf den Arm nehmen".
Wenn ich Leistung - insbesondere für 4K - haben will, ist SLI oder CF trotz 980TI oder Fury X noch "the way to go". Mein Hauptinteresse liegt erstmal in FPS-Leistung pro Euro (nicht in reiner Energieeffizienz, wie du mir hier andichten willst). Ich muss in diese Berechnung eben auch den Stromverbrauch hinzuziehen. Ich zahle meinen Strom eben selber und muss nicht vollkommen unnötig mehr verbrauchen. Und eben deswegen macht es für mich schon einen Unterschied.
 
Entschuldigung, ich will dich arme Maus nicht "auf den Arm nehmen".
Wenn ich Leistung - insbesondere für 4K - haben will, ist SLI oder CF trotz 980TI oder Fury X noch "the way to go". Mein Hauptinteresse liegt erstmal in FPS-Leistung pro Euro (nicht in reiner Energieeffizienz, wie du mir hier andichten willst). Ich muss in diese Berechnung eben auch den Stromverbrauch hinzuziehen. Ich zahle meinen Strom eben selber und muss nicht vollkommen unnötig mehr verbrauchen. Und eben deswegen macht es für mich schon einen Unterschied.

Bei FPS pro Euro führt momentan in nahezu allen Preisbereichen AMD. Und bis du über den etwas geringeren Stromverbrauch der Nvidia-Karten die Preisdifferenz wieder eingefahren hast, sind einige Jahre vergangen. In realen Gaming-Szenarien ist z.B. die Verbrauchsdifferenz zwischen R9 390 und GTX 970 etwa 50-60 Watt (siehe Tests von TomsHardware - nur die haben ein geeignetes Mess-Setup, um die wirklichen Verbräuche zu ermitteln). Das sind dann wahnwitzige 1,25 Cent, die du pro Stunde Zocken mit der R9 390 mehr ausgibst als mit der GTX 970 :ugly: ;)

Macht bei (völlig unrealistischen) 6 Stunden Dauer-Zocken an 365 Tagen im Jahr ganze 27 Euro :)
 
Ja, ich will auch nen dicken V8 mit 540 PS fahren, der darf im Stadtverkehr aber nicht mehr als 9 Liter verbrauchen! :schief:

Zweifel ja mal stark an dass bei der Karte OC mässig noch viel geht - lass mich aber gerne eines besseren belehren.
 
Also ich finde die Strategie gar nicht mal so schlecht. Seit Monaten ist die Banano in aller Munde. ^^
Wenn sie es schaffen, dass die Angaben halbwegs wahrheitsgemäß ist, dann war das für mich eine erfolgreiche Marketing Kampagne. Aber ich bin ja auch kein Marketing Experte ;-)
 
Entschuldigung, ich will dich arme Maus nicht "auf den Arm nehmen".
Wenn ich Leistung - insbesondere für 4K - haben will, ist SLI oder CF trotz 980TI oder Fury X noch "the way to go". Mein Hauptinteresse liegt erstmal in FPS-Leistung pro Euro (nicht in reiner Energieeffizienz, wie du mir hier andichten willst). Ich muss in diese Berechnung eben auch den Stromverbrauch hinzuziehen. Ich zahle meinen Strom eben selber und muss nicht vollkommen unnötig mehr verbrauchen. Und eben deswegen macht es für mich schon einen Unterschied.
Auch bei FPS pro Euro solltest du nicht über Crossfire oder SLI nachdenken, das ist nur was, wenn maximale Average-FPS das Ziel sind. Bei Hinzunahme der Leistungsaufnahme in die pro Euro-Betrachtungen verstärkt sich das sogar noch. Wem wirklich globale FPS pro Euro das höchste Gut sind, der sollte spätestens bei der Single 390 den Schlusstrich ziehen und auf danach folgende Gens warten. Falls es doch nicht so elementar wichtig ist: Natürlich zu den SingleGPUs dadrüber greifen, wieso denn auch nicht? :huh:

Ich weiß nicht woher deine Aggressivität kommt, ich habe nicht vor dir etwas anzudichten, du hast dich einfach nicht glücklich ausgedrückt UND bisher nicht genügend darüber nachgedacht, ob mGPU wirklich für dich eine sinnvolle Sache ist! Ich warne dich nur---Karten unterhalb der Topmodelle miteinander verbinden? Mit deiner Ansicht von Preis-Leistung keine gute Idee!
 
Zurück