Radeon R9 Fury X im Test: Die leiseste High-End-Grafikkarte seit fast einer Dekade

schönes ding, hab den thread und den test nicht ganz erforscht.. deshalb bitte ich um rücksicht, aber meine frage wäre die, ob eine 8gb version erscheinen wird in den nächsten ~6 monaten?
 
Lieber Carsten,
lieber Raffael,

ich glaube, Ihr versteht entweder den Kritikpunkt nicht oder wollt ihn nicht verstehen. Ich zitiere:

"Unter Last wird der von AMD angegebene, typische Verbrauch von 275 Watt ebenso überschritten wie die mittlere genannte Kerntemperatur von 50 Grad Celsius. Unser Messprotokoll zeigt schlimmstenfalls eine Leistungsaufnahme von 383 Watt PCGH VGA-Tool bei 65 °C - von diesen Werten ist die Radeon R9 Fury X unter Spielelast jedoch weit entfernt, hier beträgt die maximale Leistungsaufnahme 329 Watt [Update 26:06.: Dieser Wert wurde gemessen mit unserem bewährten Savegame in Risen 3, welches als Ausgangspunkt auch für unsere Fps-Messungen dient. In Anno 2070 beträgt die Leistungsaufnahme geringere 313 Watt, weniger anspruchsvolle Spiele oder Benchmarks kommen teils mit deutlich weniger Strom aus.].Powerarme Spiele wie Crysis 3 und Skyrim (von uns nicht gemessen) liegen noch deutlich darunter."

Alternativvorschlag von mir und daran sieht man, wie wichtig Formulierung und Wortwahl für die Message ist, die man rüberbringen möchte:

Der Verbrauch der Fury X ergibt ein gemischtes Bild. In powerarmen Spielen wie Crysis 3 und Skyrim (von uns nicht gemessen) liegt die Leistungsaufnahme bei..... In Anno2070 oder Risen 3 hingegen, wo wir den Verbrauch selbst gemessen haben, beträgt die maximale Leistungsaufnahme 313 bzw. 329 Watt. Laut Messprotokoll hat die Fury X allerdings schlimmstenfalls eine Leistungsaufnahme von 383 Watt PCGH VGA-Tool bei 65 °C - von diesen Werten ist die Radeon R9 Fury X unter Spielelast jedoch weit entfernt. , hier beträgt die maximale Leistungsaufnahme 329 Watt. Fazit: Viele Spiele oder Benchmarks kommen teils mit deutlich weniger Strom aus, in bestimmten Fällen werden die von AMD angegebene Durchschnittsverbrauch von 275 Watt allerdings auch deutlich überschritten.


Lest Ihr die beiden Artikel, habt ihr dieselben Informationen und am Ende einen jeweils anderen Eindruck. Und so etwas müsst ihr euch vorwerfen lassen. Jeder gute Journalist weiß, dass durch Umstellungen von Sätzen etc. ebenfalls eine Meinung geäußert werden kann bzw. Berichterstattung eine gefärbte Note bekommt.



Verstehst du auch, was du damit in letzter Konsequenz verlangst? Eine Umstellung unserer Testmethoden, weil ein neues Produkt nicht im idealen Licht präsentiert wird.

Übrigens beginnt unser Absatz zur Leistungsaufnahme mit den Worten:
„Die Leistungsaufnahme der Radeon R9 Fury X ist aus High-End-Perspektive in Ordnung […]“
Deiner mit:
„Der Verbrauch der Fury X ergibt ein gemischtes Bild.“
Ich sehe nicht, wo wir die Fury X hier schlecht dastehen lassen, aber vielleicht mag der Kollege Vötter sich ja noch zu seinem Baby äußern.

edit: Wir überlegen, ob wir unsere Messungen zur Leistungsaufnahme zur nächsten turnusmäßigen Erneuerung des Parcours erweitern. Natürlich gehen wir auch mit der Zeit - wir ergänzen ja schließlich auch Spiele-Titel oder sich etablierende, neue Auflösungsstandards. Doch für ein einzelnes Review Tests extra auf das jeweilige Produkt anzupassen halte ich für schwierig argumentierbar, gelinde gesagt.
 
Zuletzt bearbeitet:
Ich selber identifiziere meine Graka nur an Hand meiner aktuellen Spiele, hauptsächlich bei mir FarCry4, dann fange ich erst an mich für Verbrauch bzw technische ( extrem)- Details zu interessieren. Hier setzte ich an da es mich täglich begleitet und genau das muss ich kühlen. Natürlich ist es interessant die Fury X zu maximieren und mit unter die Kühleigenschaften zu testen in dem ich fordernde Bench oder Testprogramme durchlaufen lasse. Andere Spiele darunter finde ich nicht so interessant. Es ist dennoch wichtig bei nagelneuen Karten min u max. Einstellung zu testen und ich werde den Teufel tun mich mit einzelnen Qualitätsstufen zu beschäftigen,bzw. zu kritisieren, das kann ich selber später feststellen. Wenn es denn so einfach wäre, könnte man gleich anhand von zwei Spielen, das am wenigsten und am stärksten fordernde Spiel testen und fertig. Und ich weiß, daß es in der nächsten PCGH stehen wird, das reicht mir dicke, dafür kaufe ich die Fachzeitschrift.
MfG.wolflux
 
Zuletzt bearbeitet:
Ohhh Gott AMD meint wirklich die Staudamm Mentalität in sachen HBM zu propagandieren :wall:
Weil die Bandbreite der Grafikkarte größer ist kann man ja die Texturen aus dem RAM laden ist garkein Problem :ugly:
Finde es ja super, dass die Fury X eine optimierte Speicherverwaltung bekommt aber, dass so ein Schrott von AMD kommt hätte ich nie gedacht.

Erklärung: Laut Richard Huddy werden die 4GB HBM als Cache mit Verbindung zum System RAM genutzt (also wie es schon immer war) und soll nun dank hoher Bandbreite problemlos Daten aus dem RAM holen können (aha weil da GDDR5 limitiert hat ne ?) dahingehend soll wohl auch das Speichermanagement optimiert worden sein (traurig das es nicht schon vorher passiert ist) aber wehe ein Spiel weis nix davon oder ein Treiber weis nix vom Spiel (dann ist es wie mit schlechtem Streaming) -> läuft nix.
 
Zuletzt bearbeitet:
Wieso eine Umstellung eurer Testmethoden? Nur eine Umstellung eurer Darstellung. Fakt ist, dass PCGH bei Anno 2070 gemessen hat und das als zweiten Satz hervorhebt. Das ist halt eine gefärbte Darstellung. Aber wichtig ist, dass Ihr einfach erkennt, was der Kritikpunkt ist, weniger eure Testmethoden, ich finde das legitim, dennoch würde ich persönlich umstellen. Weil der Verbrauch bei Anno2070 und Risen 3 nicht repräsentativ sind für alle Spiele, aber dieser Eindruck erweckt wird. Und das könnt Ihr auch am Threadverlauf verfolgen, wo nur noch eben jene 330 MW der Fury X von Postern angeführt wurden.
 
edit: Wir überlegen, ob wir unsere Messungen zur Leistungsaufnahme zur nächsten turnusmäßigen Erneuerung des Parcours erweitern. Natürlich gehen wir auch mit der Zeit - wir ergänzen ja schließlich auch Spiele-Titel oder sich etablierende, neue Auflösungsstandards. Doch für ein einzelnes Review Tests extra auf das jeweilige Produkt anzupassen halte ich für schwierig argumentierbar, gelinde gesagt.

Ihr hattet zum Launch der GTX680 einen Vergleich, wo die Effizienz von Tahiti und GK104 in 10(?) (edit: 9) Spielen aus dem Benchmarkparcours verglichen wurde, jeweils detailliert aufgeschlüsselt in Stromverbrauch und FPS in der jeweiligen Szene. Genau das würde ich mir hier ebenfalls wünschen. Das hat dann auch nichts mit Anpassung des Reviews an ein Produkt zu tun, aber viel mit Transparenz und Seriosität; Wissenschaftlichkeit, wenn man so will.
 
Zuletzt bearbeitet:
Ihr hattet zum Launch der GTX680 einen Vergleich, wo die Effizienz von Tahiti und GK104 in 10(?) (edit: 9) Spielen aus dem Benchmarkparcours verglichen wurde, jeweils detailliert aufgeschlüsselt in Stromverbrauch und FPS in der jeweiligen Szene. Genau das würde ich mir hier ebenfalls wünschen. Das hat dann auch nichts mit Anpassung des Reviews an ein Produkt zu tun, aber viel mit Transparenz und Seriosität; Wissenschaftlichkeit, wenn man so will.

Klar, da hatten wir 2 Wochen+ Zeit. Hier haben wir Mitte letzter Woche die Karte bekommen, dazu die komplette 300-Reihe neu vermessen müssen, uns durch das Treiber-Gefrickel hacken (Tessellation/Witcher-3-Performance mit dem 15.15 Beta), das Heft am Freitag fertigstellen und dann noch den kostenlosen Online-Test hinzaubern. Montag Abend wurde die Karte dann wieder abgeholt, Dienstag kam eine weitere.

Sobald wir wieder Luft zum Atmen haben und auch die Foren bedient haben, die uns wieder mal inkompetent/gekauft/faul/dumm wähnen, können wir weiterarbeiten und zusätzliche Messungen anstellen. Unter anderem weitere Frametime-Messungen, Stromverbrauch in zusätzlichen Szenarien, Geräusch mit zusätzlichen Radiatorpositionen etc.

--

Erstes Messergebnis:
Mit einem winzigen Stückchen Schaumstoff zwischen Frontplatte und Pumpengehäuse sinkt die Pumpenlautstärke von 1,3 auf 1,1 Sone. Immerhin.
 
Klar, da hatten wir 2 Wochen+ Zeit. Hier haben wir Mitte letzter Woche die Karte bekommen, dazu die komplette 300-Reihe neu vermessen müssen, uns durch das Treiber-Gefrickel hacken (Tessellation/Witcher-3-Performance mit dem 15.15 Beta), das Heft am Freitag fertigstellen und dann noch den kostenlosen Online-Test hinzaubern. Montag Abend wurde die Karte dann wieder abgeholt, Dienstag kam eine weitere.

Sobald wir wieder Luft zum Atmen haben und auch die Foren bedient haben, die uns wieder mal inkompetent/gekauft/faul/dumm wähnen, können wir weiterarbeiten und zusätzliche Messungen anstellen. Unter anderem weitere Frametime-Messungen, Stromverbrauch in zusätzlichen Szenarien, Geräusch mit zusätzlichen Radiatorpositionen etc.

--

Erstes Messergebnis:
Mit einem winzigen Stückchen Schaumstoff zwischen Frontplatte und Pumpengehäuse sinkt die Pumpenlautstärke von 1,3 auf 1,1 Sone. Immerhin.

Im Idle finde ich eigentlich alles über 0,5 Sone nervend, habe auch selber gern (viel) weniger. Aber da ist Ansichtsache.

Frage:
Ist es im Rahmen des möglichen, das nochmal ein Nachtrag kommt mit einer 980(ohne ti)@1500/4000?
Und nein, muss nicht sofort sein.

Grüße

PS:
Lasst euch nicht so fertig machen ;)
 
Es kommt sehr auf die Art des Geräusches an, ein Luftrauschen ist lange nicht so nervig wei ein Fiepen gleicher Lautstärke.
 
Und ob der Speicher in naher Zukunft limitiert muss erst noch bewiesen werden, bisher scheint es nicht der Fall zu sein. Zudem kann jeder seine eigenen Limits festlegen.

Natürlich kann jeder sein Limit festlegen. Aber sollte man wirklich eine mögliche Limitierung bei einer 700 € Karte hinnehmen, dass nicht wirklich nötig wäre? Ich für meinen Teil würde das nicht.
 
Klar, da hatten wir 2 Wochen+ Zeit. Hier haben wir Mitte letzter Woche die Karte bekommen, dazu die komplette 300-Reihe neu vermessen müssen, uns durch das Treiber-Gefrickel hacken (Tessellation/Witcher-3-Performance mit dem 15.15 Beta), das Heft am Freitag fertigstellen und dann noch den kostenlosen Online-Test hinzaubern. Montag Abend wurde die Karte dann wieder abgeholt, Dienstag kam eine weitere.
Ich würdige eure Arbeit ja auch entsprechend mit einem Abonnement. ;)
Sobald wir wieder Luft zum Atmen haben und auch die Foren bedient haben, die uns wieder mal inkompetent/gekauft/faul/dumm wähnen,
Den Schuh ziehe ich mir daher auch nicht an, ich halte meine Kritik dann doch eher für die konstruktive Sorte.
können wir weiterarbeiten und zusätzliche Messungen anstellen. Unter anderem weitere Frametime-Messungen, Stromverbrauch in zusätzlichen Szenarien, Geräusch mit zusätzlichen Radiatorpositionen etc.
Sehr fein :daumen:
 
Die Frage ist , wenn 4bg HBM nicht mehr reicht, wird 6GB DDR5 dann noch soviel mehr sein?

Kommt sich darauf an. Was die Verwaltung des Speichers angeht, hat NV das eigentlich immer gut geregelt, wenn man bedenkt, dass die Geforce Karten für gewöhnlich etwas weniger VRAM hatten als vergleichbare Radeons ohne dabei wirklich ins Hintertreffen zu geraten. Deswegen gehe ich schon davon aus, dass 6GB GDDR5 tatsächlich "mehr" sind als 4GB HBM, wenn es um die Wurst geht.
 
Kommt sich darauf an. Was die Verwaltung des Speichers angeht, hat NV das eigentlich immer gut geregelt, wenn man bedenkt, dass die Geforce Karten für gewöhnlich etwas weniger VRAM hatten als vergleichbare Radeons ohne dabei wirklich ins Hintertreffen zu geraten. Deswegen gehe ich schon davon aus, dass 6GB GDDR5 tatsächlich "mehr" sind als 4GB HBM, wenn es um die Wurst geht.
Ein Vergleich dieser Art kann ja eigentlich nicht mehr lange auf sich warten lassen :D
 
Zurück