Radeon R9 Fury X im Test: Die leiseste High-End-Grafikkarte seit fast einer Dekade

das mit dem traum für übertakter ist doch noch nicht vorbei man kann IMMERNOCH die spannungen nicht ändern

Meine olle R9 290 schafft ohne Spannungserhöhung 1150 Mhz. Und danach ist bei +50mV 1290/1550 Mhz Benchstable schluss. Gamestable sind es +29mV 1250/1475 Mhz.
Das heisst: Ich packe 200 Mhz locker ohne Spannungserhöhung mit einer Karte die dafür bekannt ist nicht wirklich gut übertaktbar zu sein.
Allerdings hab ich ein recht gutes Sample erwischt.
Jetzt nehmen wir mal zum Vergleich die ganzen Fury X´s:
Das beste mir bekannte (Stabile) Ergebnis 1185 Mhz. Die meisten Krebsen bei 1100 Mhz herum.
Das deutet für mich leider darauf hin das auch mit höheren Spannungen nur die wenigsten Fijis auch nur annähernd in Regionen von 1300 Mhz kommen.
 
Laut Toms Hardware verbraucht die Fury 220, also Rund 12 Watt weniger als die 980ti. Kann das den stimmen? Bei allen Test die ich bis jetzt gesehen hab verbraucht die Fury einiges mehr.
Ja das kann stimmen. TH haben immer noch die besten Messmittel.

Das stimmt - Igor/THG haben sicher das aufwendigste Testequipment.
Aber, das fragte ich mich gerade auf dem Heimweg, warum hat AMD dann eine „typical gaming power“ [meine Hervorhebung] von 275 Watt angegeben und zwei Achtpin-Anschlüsse aufgelötet? Gut, letzteres könnte man mit dem 100-MHz-Avg.-OC erklären …
 
Wenn wirklich mal wer den Kühler runter baut, den Haufen WLP vom Chip entfernt und das ganze dann mal vernünftig macht dürfte das mit dem Verbrauch ganz anders aussehen.
 
Bei der Diskussion um "100 °C" geht es aber nicht um deine Messungen der Kartenaußenseite, sondern um unser Beispielbild, dass die Hotspots im Inneren verdeutlicht. Dieses wurde ohne Speziallack angefertigt, da wir unser(e) Testmuster, unverändert zurückgeben mussten. Ein Einsatz von Tape wäre im engen inneren auch kaum möglich gewesen und eine Kalibrierung ohne direkte Messung (die man dann lieber direkt auswertet) ist schlecht möglich. Unter vergleichbaren Bedingungen haben wir in der Vergangenheit auch schon IR-Werte oberhalb der mit Kontaktfühlern gemessenen erhalten. Dies ist auch nicht verwunderlich, neben komplexen Emissionsspektren können auch Reflektionen eine IR-Kamera täuschen und der Rahmen der Fury ist nun einmal aus poliertem Metall.

Das alles ist für den Endnutzer aber auch nur von eingeschränkter Bedeutung. Wie kalibrierte IR-Fotografien eines 55 °C warmen Radiators an einer GPU mit, laut Test-Autor, finalen Temperatur von 54 °C im gleichen Szenario beweisen, sind die von Endanwendern gewohnten Angaben interner Messsensoren noch weitaus ungenauer. Ich wollte nur vor Augen halten, dass "100 °C" ebensowenig 100 °C bedueten, wie "54 °C" für 54 °C stehen. Mehr als "ziemlich warm" beziehungsweise "für eine GPU kühl" sollte man daraus nicht ableiten. Wichtig ist im Zweifelsfall ohnehin nur, wie weit sich der interne Sensor von der maximal zulässigen Boost-Temperatur entfernt sieht. Alles andere beeinflusst nur die Lebensdauer und da sind ±5 K Temperaturunterschied der kleinste Unsicherheitsfaktor.

Dann hatte ich es falsch verstanden. :) Nach nunmehr über 30 Stunden ohne Schlaf warte ich nur drauf, dass endlich der letzte Espresso aufhört zu wirken. Dann gibt es Augen zu und Ruhe. :)

Rund 1 Kelvin Differenz sind fast immer als Schwund dabei , auch wenn ich manchmal das Gefühl habe, dass die GPU-Diode auch nicht die ganze Wahrheit ist. Allerdings hängen am Heatsink der Fury ja auch noch die VRM, so dass das Wasser durchaus wärmer sein kann als das, was am an der GPU auslesen kann. Was mich persönlich stört, ist jedoch die viel zu hohe Platinentemperatur. Die Wärme wandert mit der Zeit quer über die Platine und erreicht damit irgendwann auch Bauelemente, die diese Bedingungen auf Dauer nicht abkönnen. Und IR-Bilder... Es ist ja eigentlich eine IR-Kamera mit bis zu 80 Bilder pro Sekunde, die Stills mache ich später aus den Aufzeichnungen. Es ist schließlich kein Video im Herkömmlichen sinne, sondern es sind Daten aus der Pyroskopmatrix, die man auch im Nachhinein als buntes IR-Bildchen interpretieren kann. :) Ich möchte das alles nicht mehr missen, auch wenn es lange gedauert hat, bis ich begriffen habe, z.B. welches der Objektive in welchem Szenario immer noch am besten performt. Man kann nämlich wirklich viel Mist messen und wenn ich mich erinnere, wer so alles neben mir die Seminarbank gedrückt hat... Man muss es einfach lernen, sonst kommt nur Schrott raus. Es gibt aber schöne IR-Thermometer (ab ca. 150 Euro), die bei richtiger Anwendung genauso gut funktionieren, solange man die Grundlagen kennt. Es muss also nicht immer fünfstellig werden. :)
 
Naja,
wenn sie wirklich 330W zieht ist das mehr als nur eine Hausnummer höher als bei Nvidia, dazu noch die 4GB RAM. AMD hat dann auch noch alles getan um die Erwartungen in ungeahnte Höhen schnellen zu lassen und die Leute möglichst lang über die 4GB im Unklaren gelassen (ihre übliche Strategie).

Ja ich finds ja eigentlich ganz witzig wie leute die 980ti OC leistung mit fury X vergleichen und im gleichen Atemzug die Leistungsaufnahme einer Stock 980ti nennen, 980ti OC laufen gerne mit 400W+ und ganz ehrlich wer ne Grafikkarte für 700+ kauft der kann auf die 40-50 Watt sch.... Du kaufst dir ja auch ned nen Ferrari um dann vor deinen Freunden zu protzen wie Sparsam er ist.
Die 4gb haben in allen reviews die ich bis jetzt gelesen hab vollkommen ausgereicht, selbst in SoM oder anderen Spielen Vram intensiven Spielen
 
Scheint ja doch nicht der Überflieger geworden zu sein. Schade, somit sehe ich nach wie vor keine Alternative zu Nvidia.

Das verstehe ich nicht. Die Karte leistet in etwa so viel wie ne 980Ti, mit dem kommenden Treiber vielleicht mehr?

Nur weil die 1 Monat jüngere Konkurrenz nicht zerstampft wird, würde ich jene Konkurrenz nicht als völlig alternativ los betrachten.

Die Karte ist schon eine Alternative, ist aber noch etwas teuer. Wenn die noch 50€ runter geht und die Pumpe in der zweiten Charge nicht mehr fiept, ist das doch ne Top Karte?
 
Wenn wirklich mal wer den Kühler runter baut, den Haufen WLP vom Chip entfernt und das ganze dann mal vernünftig macht dürfte das mit dem Verbrauch ganz anders aussehen.
Bei einer 700€ Karte darf man einen vernünftig montierten Kühler schon erwarten - zumal die Garantie erlöschen dürfte wenn man da Hand anlegt
 
Schon klar aber hast du das Foto von dem in WLP ertränktem Chip gesehen? Ich weiss ja nicht welcher Praktikant das verbrochen hat...
 
Bei einer 700€ Karte darf man einen vernünftig montierten Kühler schon erwarten - zumal die Garantie erlöschen dürfte wenn man da Hand anlegt

bei ner 700€ karte würd ich auch mehr als 4GB Ram erwarten. und was ist? pustekucken. die kann so schnell sein wie sie will, wenn alle 970er/r9 290er ans 3,5-4GB limit kommen, machte die fury auch nixmehr. aber wie immer, in 1-2 jahren ist die fury auch wieder nur nen was altes was wieder abgelöst werden kann :)
 
Schon klar aber hast du das Foto von dem in WLP ertränktem Chip gesehen? Ich weiss ja nicht welcher Praktikant das verbrochen hat...
Ich kapier echt nicht, wieso das gefühlt bei jeder zweiten Graka und jedem zweiten Notebook passiert---auch in hochpreisigen Regionen, in denen man meinen sollte, dass da doch die Monteure FLÄCHENDECKEND genügend geschult sein sollten...
...ist ja auch nicht so, als wäre das eine neue Erkenntnis, dass bei WLP viel nicht viel hilft! :ugly:
 
bei ner 700€ karte würd ich auch mehr als 4GB Ram erwarten. und was ist? pustekucken. die kann so schnell sein wie sie will, wenn alle 970er/r9 290er ans 3,5-4GB limit kommen, machte die fury auch nixmehr. aber wie immer, in 1-2 jahren ist die fury auch wieder nur nen was altes was wieder abgelöst werden kann :)

na, da hat wohl wieder einer nicht aufmerksam gelesen und wirft mit "Stammtischparolen" um sich.
Erfreulicherweise scheinen die 4Gb HBM vollkommen auszureichen. Aber nun gut, ich überlasse es dir dich darüber zu informieren^^
 
Wie verhält sich das mit den 4GB HBM jetzteigentlich?

Da hier 4GB != 4GB sind frag ich mich, wie man das jetzt einordnen soll. Bis jetzt laufen je sämtliche Speicherfresser in 4K
 
Würde meine These bestätigen, dass bei AMD nur ca. jede 2. Generation zu gebrauchen ist.

7970
5870
x1900xt
9800Pro

Aber gut, liegt vielleicht daran, dass ich nur ca. jede 2. Generation hatte, und zwischendurch halt Nvidia...ist auch nicht so ganz ernst gemeint. Meine Schmerzgrenze liegt absolut bei 400-500 Euro für eine Karte. Da hol ich mich lieber jede Generation ne neue Mittelklasse Karte, als einmal das Top Modell der jeweiligen Generation.

Ausserdem ist mir der Zweikampf immer recht, besitze ich doch von beiden Unternehmen ein kleine Anzahl an Aktien.
 
Das stimmt - Igor/THG haben sicher das aufwendigste Testequipment.
Aber, das fragte ich mich gerade auf dem Heimweg, warum hat AMD dann eine „typical gaming power“ [meine Hervorhebung] von 275 Watt angegeben und zwei Achtpin-Anschlüsse aufgelötet? Gut, letzteres könnte man mit dem 100-MHz-Avg.-OC erklären …

Ich möchte mich über AMDs Interpretation der Verlustleistung durch deren PR auf den Folien echt nicht mehr auslassen, weil es noch nie wirklich gestimmt hat. Wie ich es im Launchartikel schrieb, hat es AMD schlicht und ergreifend vergessen, ein restriktiveres Limit einzubauen, das einfach mal den Hahn dicht macht, wenn es dunkelrot wird. Bisher haben alle Karten in exakt diesem Loop vergleichsweise hohe Leistungsaufnahmewerte verursacht. Wenn es sich mit Fiji nun ändert, muss man die Ursachen hinterfragen und ggf. komplett neue Szenarien entwickeln, in denen alle Karten wieder vergleichbare Werte erzeugen. Da ich Software, Benchmark-Run und Messung automatisch starte, hatte ich bisher auch eine identische Time-Line bei den Messungen. Ich glaube aber, dass Fiji statistisch gesehen in vielen Spielen über einen langen Zeitintervall hin gemessen wieder dort landen wird, was ich gemessen habe. Immerhin messe ich ja schon eine Minute und werde das in Zukunft auch verlängern, wenn ich die Auswertungssoftware umgeschrieben habe. Halbiere ich die Messdauer, steigt meine Fehlerquote erstaunlich hoch an, verdoppele ich sie, sind die Unterschiede wesentlich kleiner. Wenn ich nur 10 Sekunden messe, kommt totale Grütze raus.

Um Fiji wirklich zu verstehen und um der Technologie gerecht zu werden, braucht man definitiv mehr Zeit. Ich würde gern mal eine längere Reihe messen, bei der ich selbst verschiedene DX-Lasten erzeuge und sehe, wie Treiber und Telemetrie wirklich reagieren. Ich habe gestern Fiji mal eine Stunde auf Batman losgelassen (Ruckelorgie, aber das liegt eher am Spiel), die geloggte Leistungsaufnahme lag sogar bei nur reichlich 200 Watt im Mittel über die gesamte Zeit. Gemessen habe ich diesmal mit einem Logger den Spannungsabfall an der betreffenden 12V-Schiene des Netzteils über dem Shunt. Die Spitzen gehen schon mal gern hoch bis 450 Watt, um dann aber gleich wieder abzusegeln. Wie gesagt - eine sehr viel differenzierte Messung und die Analyse, wo der Sweet-Spot liegt, wären die objektivste Antwort auf die Frage nach Fijis Qualitäten :)
 
Der heutige Tag zeigt mir nur mal wieder eindrucksvoll auf, wieso ich inzwischen immer mehrere Quellen konsultiere. Die Leistungs- und Energieverbrauchswerte sind einfach viel zu gestreut, als das man mit einem einzigen Test glücklich werden könnte.
Und im Zweifelsfall glaub ich dann doch THG wenn es um Verbrauchsmessungen geht....

Zusammenfassend:
R9 Fury X ist eine gute Alternative für die Gtx 980 TI, reicht jedoch nicht ganz an diese heran. Hab ich auch nicht anders erwartet, ich bin einfach nur froh, dass wir noch keine Bulldozer-Verhältnisse im GPU Bereich haben. Noch besteht Hoffnung, dass der Wettbewerb erhalten bleibt :)
Und jetzt soll doch jeder bitte kaufen, was ihm am besten gefällt :D
 
Ich habe gestern Fiji mal eine Stunde auf Batman losgelassen (Ruckelorgie, aber das liegt eher am Spiel), die geloggte Leistungsaufnahme lag sogar bei nur reichlich 200 Watt im Mittel über die gesamte Zeit.

Bei wieviel % GPU Auslastung ist die Graka denn dann? Ich würde mal Anno2070 anreißen, das Spiel ist extrem GPU lastig, somit kann man einfach und präzise die in Spielen maximal anliegende Leistungsaufnahme ermitteln :daumen:
 
Interessant ist, dass 4GB jetzt auf einmal wieder vollkommen ausreichend sind für UHD.
Wenn man bei der 290X und UHD gefragt hat, wurden einem immer zu einer 8GB Variante geraten.
 
Zurück