• Hallo Gast,

    du hast Fragen zum PCGH-Abo oder zur Bestellung eines (Sonder)hefts von PC Games Hardware? Dann wirf einen Blick auf unser PCGH Abo-FAQ mit Antworten zu den wichtigsten Fragen. Hilfreich bei der Suche nach dem nächstgelegenen Händler, bei dem die aktuelle PC Games Hardware ausliegt, ist die Website Mykiosk. Gib dort deine Postleitzahl und PC Games Hardware (Magazin/DVD/Spezial/Sonderheft) in die Suchfelder ein und dir werden die Verkaufsstellen in deiner Nähe aufgezeigt. Wenn du PCGH digital (über App, Tablet, Smartphone oder im Webbrowser) lesen willst, haben wir eine entsprechende Anleitung für dich zusammengestellt.

AMDs Radeon R9 Fury X ... Das meinen PCGH-Redakteure

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMDs Radeon R9 Fury X ... Das meinen PCGH-Redakteure

Die Redakteure der PC Games Hardware kommentieren aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die persönlichen Meinungen der PCGH-Redakteure, heute zum Thema "AMDs Radeon R9 Fury X ..."

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMDs Radeon R9 Fury X ... Das meinen PCGH-Redakteure
 
Die Fazits decken sich mit meiner Einschätzung. Man hat aufgeschlossen, es besteht aber noch Optimierungspotential. Vom Pumpgate mal abgesehen, was sich wohl bisweilen schon gelöst hat, ist folgendes mit das größte Manko:
Statt unter hohem Kostenaufwand die ausreichende Speicherbandbreite weiter zu steigern (8 GiB/frame Bandbreite bei 64 fps - für maximal 4 GiB Daten. WTF?), hätte AMD lieber an Front- und Backend arbeiten sollen. So schafft auch Fury es nicht, die Rohleistung der CUs in fps umzusetzen.

Man verbrät erneut durch ein weiterhin nicht optimales Design zuviel Leistung, die auch noch gekühlt werden muss (man wird nicht umsonst auf ne WaKü gesetzt haben). Und Gewinn macht man mit diesem Ding wohl kaum, dafür ist die Leistung für höhere Preise zu gering (mag auch an den 4GB liegen) und der Auf- und Einbau von HBM mit der gesamten Fertigung zu komplex.
 
In meinen augen trifft es bild 9 genau richtig. Und der größte Nachteil an der Fury X ist die Wasserkühlung. Mit einer Luftkühlung würde AMD da wesentlich besser dastehen und garantiert mehr verkaufen.

Ich denke dieser Schuss wird nach hinten losgehen, Wasserkühlung ist für die meisten einfach keine Option. Man bekommt auch mit Luft wirkliche Traumtemperaturen hin. Grundsätzlich aber eine tolle Karte, jedoch mit falschem Ansatz.
 
Bis auf die Pumpe ist die Karte eigentlich genau das was ich mir vorgestellt habe. Auf jeden Fall eine sehr gute Karte :daumen:.
 
Der größte Vorteil der Fury X dürfte ihr Kühlsystem sein. 1.5 Sone bei ~300W? Hammer!
Aber warum gibt AMD der Karte nur 4GB Speicher mit auf den Weg? Das ist vor allem interessant weil die 390X mit 8GB daherkommt.

Ich selbst schlage mich derzeit noch mit 3GB in 1440p herum, das reicht im Grunde, könnte aber gerne etwas mehr sein. 4GB sind leider kaum der Rede wert, 6GB schon eher.

Was ich ebenfalls nicht verstehe ist, warum die Fury X ihre Rohleistung nicht auf die Straße bringt. Ist der Treiber Schuld? Von den technischen Eckdaten her müsste die Karte eigentlich gut 10% auf die Titan X packen, tut sie aber nicht. Schade :kaffee:
 
Der größte Vorteil der Fury X dürfte ihr Kühlsystem sein. 1.5 Sone bei ~300W? Hammer!
Aber warum gibt AMD der Karte nur 4GB Speicher mit auf den Weg? Das ist vor allem interessant weil die 390X mit 8GB daherkommt.

Ich selbst schlage mich derzeit noch mit 3GB in 1440p herum, das reicht im Grunde, könnte aber gerne etwas mehr sein. 4GB sind leider kaum der Rede wert, 6GB schon eher.

Was ich ebenfalls nicht verstehe ist, warum die Fury X ihre Rohleistung nicht auf die Straße bringt. Ist der Treiber Schuld? Von den technischen Eckdaten her müsste die Karte eigentlich gut 10% auf die Titan X packen, tut sie aber nicht. Schade :kaffee:

Bin kein Ingenieur aber: Nvida Shader =! AMD Shader.

Außerdem ist das Frontend nicht so stark und das braucht Platz und nunja, man sieht was geschieht.
 
Ion das frag ich mich auch immer wieder o.o
Selbst im Pcgh test wurde ja geschrieben, dass sie verwundert darüber sind, wo die Leistung durch ein Flaschenhals gehen könnte :/
Ich frage mich, ob AMD es weis, aber die gcn architektur nicht zu stark verändern wollen, oder ob sie wirklich selber nicht wissen warum es nicht funktioniert :hmm:

PS= Ich bin mal sehr gespannt auf die Nano und auch auf die Dual karte ... wobei sie bei der größe sogar eine Triple karte bauen könnten :devil:
 
Der größte Vorteil der Fury X dürfte ihr Kühlsystem sein. 1.5 Sone bei ~300W? Hammer!
Aber warum gibt AMD der Karte nur 4GB Speicher mit auf den Weg? Das ist vor allem interessant weil die 390X mit 8GB daherkommt.

Ich selbst schlage mich derzeit noch mit 3GB in 1440p herum, das reicht im Grunde, könnte aber gerne etwas mehr sein. 4GB sind leider kaum der Rede wert, 6GB schon eher.

Was ich ebenfalls nicht verstehe ist, warum die Fury X ihre Rohleistung nicht auf die Straße bringt. Ist der Treiber Schuld? Von den technischen Eckdaten her müsste die Karte eigentlich gut 10% auf die Titan X packen, tut sie aber nicht. Schade :kaffee:


Das hab ich mich auch schon gefragt. Denke aber das AMD sicher noch Treiberarbeit leisten wird und mehr Leistung mobilisiert.:nene:

Könnte mir auch gut vorstellen, das der Nachfolger der Fury X mit 8 GB HBM antreten wird und besserer umsetzung der zu erwartenden Rohleistung der Fiji Gpu........N.Vidia hat sich ja auch von Model zu Model verbessert , warum sollte das bei AMD nicht auch der Fall sein. Und...die Fury X ist erst das erste vorgestellte Modell....denke da kommt noch was.:cool:
 
Ion das frag ich mich auch immer wieder o.o
Selbst im Pcgh test wurde ja geschrieben, dass sie verwundert darüber sind, wo die Leistung durch ein Flaschenhals gehen könnte :/
Ich frage mich, ob AMD es weis, aber die gcn architektur nicht zu stark verändern wollen, oder ob sie wirklich selber nicht wissen warum es nicht funktioniert :hmm:

Du kannst davon ausgehen, dass die ihre Architektur sehr gut kennen und dass da unzählige Simulationen gefahren wurden. Fiji in dieser Form zu bauen war eine Designentscheidung. Offenbar wollte man auf jeden Fall sehr viel Artithmetikleistung bei einfacher Präzision haben. Das Front- und Backend ebenfalls zu verdoppeln (gegenüber Tonga XT) hätte den Chip trotz der großen Packdichte-Skills wohl Richtung 650 mm² wachsen lassen und das wäre dann technisch doppelt heikel geworden: Monsterchips laufen öfter Gefahr, einen Defekt auf ihrer Fläche zu haben als kleinere, außerdem hätte AMD dann wahrscheinlich einen größeren Interposer für den HBM gebraucht.

Ein paar interessante Zahlenspiele bezüglich Rohleistung pro Fläche von Timothy Lottes (FXAA-Erfinder bei Nvidia, mittlerweile bei AMD tätig):

AMD Fury X (aka Fiji) is a Beast of a GPU Compute Platform

MfG,
Raff
 
Bin kein Ingenieur aber: Nvida Shader =! AMD Shader.

Außerdem ist das Frontend nicht so stark und das braucht Platz und nunja, man sieht was geschieht.
Ich glaube, dass es Ion eher um Hawaii-Shader vs. Fiji-Shader ging...
Du kannst davon ausgehen, dass die ihre Architektur sehr gut kennen und dass da unzählige Simulationen gefahren wurden. Fiji in dieser Form zu bauen war eine Designentscheidung. Offenbar wollte man auf jeden Fall sehr viel Artithmetikleistung bei einfacher Präzision haben. Das Front- und Backend ebenfalls zu verdoppeln (gegenüber Tonga XT) hätte den Chip trotz der großen Packdichte-Skills wohl Richtung 650 mm² wachsen lassen und das wäre dann technisch doppelt heikel geworden: Monsterchips laufen öfter Gefahr, einen Defekt auf ihrer Fläche zu haben als kleinere, außerdem hätte AMD dann wahrscheinlich einen größeren Interposer für den HBM gebraucht.

Ein paar interessante Zahlenspiele bezüglich Rohleistung pro Fläche von Timothy Lottes (FXAA-Erfinder bei Nvidia, mittlerweile bei AMD tätig):

AMD Fury X (aka Fiji) is a Beast of a GPU Compute Platform

MfG,
Raff
Was mich viel mehr wundert ist, dass AMD nicht bei den TMUs die Schere angesetzt und der Karte dafür mehr ROPs gegönnt hat---wozu braucht man denn bitte derartige Unmengen an Texturierungsleistung?
 
Zuletzt bearbeitet:
Meiner Meinung nach ein sehr gute Karte mit Potenzial, die Kompakt-WaKü wird wohl fast jeder unterbringen können. Aber die Temperaturen sind einfach zu hoch, wen wundert's bei dem Stromverbrauch. Mann, ich dachte dass AMD endlich mahl einen Schritt in Sachen Effizienz mache würde. Ich will in nächster Zeit meine in die Jahre gekommene Grafikkarte erneuern, hoffte auf AMD, aber ich denke es wird wieder eine Nvidia. Mal sehen, was die Furys ohne "X" bringen. Die "neue" 300 Serie kommt nicht in Frage, einfach eine Aufguss der 200er Serie mit mehr Arbeitsspeicher zu einem überhöhten Preis zu präsentieren, geht gar nicht...vom horrenden Stromverbrauch (sehr hohe Lautheit inbegriffen) mal ganz abgesehen.
 
Meiner Meinung nach ein sehr gute Karte mit Potenzial, die Kompakt-WaKü wird wohl fast jeder unterbringen können. Aber die Temperaturen sind einfach zu hoch, wen wundert's bei dem Stromverbrauch. Mann, ich dachte dass AMD endlich mahl einen Schritt in Sachen Effizienz mache würde. Ich will in nächster Zeit meine in die Jahre gekommene Grafikkarte erneuern, hoffte auf AMD, aber ich denke es wird wieder eine Nvidia. Mal sehen, was die Furys ohne "X" bringen. Die "neue" 300 Serie kommt nicht in Frage, einfach eine Aufguss der 200er Serie mit mehr Arbeitsspeicher zu einem überhöhten Preis zu präsentieren, geht gar nicht...vom horrenden Stromverbrauch (sehr hohe Lautheit inbegriffen) mal ganz abgesehen.
Häh? Die Karte stellt doch gerade einen deutlichen Effizienzgewinn da und die GPU wird auch ausgezeichnet gekühlt...
...absoluter Stromverbrauch ist halt sehr stark schwankend, aber wen interessiert bei so einer Kühllösung jetzt, wie stark die Schwankungen sind, solange der Durchschnitt ordentlich ist? Genau, außer Besitzern von zu billigen Netzteilen wirklich niemanden!

Aber ja, die 300er-Serie ist so sinnvoll wie große Teile der R-200er oder GTX-700er-Serie---Rebrands halt!
 
Zuletzt bearbeitet:
Häh? Die Karte stellt doch gerade einen deutlichen Effizienzgewinn da und die GPU wird auch ausgezeichnet gekühlt...
...absoluter Stromverbrauch ist halt sehr stark schwankend, aber wen interessiert bei so einer Kühllösung jetzt, wie stark die Schwankungen sind, solange der Durchschnitt ordentlich ist? Genau, außer Besitzern von zu billigen Netzteilen wirklich niemanden!

Aber ja, die 300er-Serie ist so sinnvoll wie große Teile der R-200er oder GTX-700er-Serie---Rebrands halt!

Und nicht vergessen! AMD hat bei der 300er Reihe auch die Taktraten erhöht:D
 
Jetzt hat AMD endlich mal ein für mich angemessenes Feature Paket, mit VSR und FreeSync, gepaart mit Leistung auf Augenhöhe mit NVIDIA, welches mich endlich mal zum Kauf einer AMD Karte bewegen könnte, da setzt man zu früh auf HBM und bringt eine leistungsstarke Grafikkarte mit nur 4GB Speicher raus :wall: . Meine aktuelle GTX780ti sollte eigtl. mein letzter Speicherkrüppel sein! Die fiepende Pumpe, eigtl. auch nicht alzeptabel, würde aber sowieso direkt runter fliegen und durch einen richtigen Wasserkühler ersetzt...
 
Man verbrät erneut durch ein weiterhin nicht optimales Design zuviel Leistung, die auch noch gekühlt werden muss (man wird nicht umsonst auf ne WaKü gesetzt haben). Und Gewinn macht man mit diesem Ding wohl kaum, dafür ist die Leistung für höhere Preise zu gering (mag auch an den 4GB liegen) und der Auf- und Einbau von HBM mit der gesamten Fertigung zu komplex.

Effizienztechnisch hat sich doch was an Fiji getan, auch wenn es (leider) nicht die Auswüchse Kepler -> Maxwell erreicht hat.

Was HBM angeht finde ich, hat AMD richtig gehandelt. Wenn niemand eine tolle Idee in die Praxis umsetzt, wird diese mit aller Wahrscheinlichkeit wieder in der Versenkung verschwinden, weil man keine praktische Erfahrung sammeln kann.
Gut, AMD hätte auch 8GB GDDR5 draufkleben können, dafür hätte die Karte wieder mehr verbraucht und wär nicht so "sexy" klein geworden.
Auch wenn sie das Risiko mit der "geringen" Speichermenge eingegangen sind, kann man sie mal wieder als Motor der Industrie bezeichnen, weil sie mit dem wenigen Geld ein Wagnis eingegangen sind, dass mit besserer Ausbaustufe doch ziemlich erfolgreich werden kann.

Auch hat AMD nicht gekleckert, denn die 4GB HBM sind nach einigen Tests ja mehr als 4GB GDDR5. Sprich, während 4GB GDDR5 die Puste ausgeht, hat 4GB HBM noch etwas Luft.
 
Meiner Meinung nach ein sehr gute Karte mit Potenzial, die Kompakt-WaKü wird wohl fast jeder unterbringen können. Aber die Temperaturen sind einfach zu hoch, wen wundert's bei dem Stromverbrauch. Mann, ich dachte dass AMD endlich mahl einen Schritt in Sachen Effizienz mache würde. Ich will in nächster Zeit meine in die Jahre gekommene Grafikkarte erneuern, hoffte auf AMD, aber ich denke es wird wieder eine Nvidia. Mal sehen, was die Furys ohne "X" bringen. Die "neue" 300 Serie kommt nicht in Frage, einfach eine Aufguss der 200er Serie mit mehr Arbeitsspeicher zu einem überhöhten Preis zu präsentieren, geht gar nicht...vom horrenden Stromverbrauch (sehr hohe Lautheit inbegriffen) mal ganz abgesehen.

Wie CD scho schrieb, die Temperaturen sind nicht das Problem. Dies als große Errungenschaft zu feiern ist aber ebenso komisch, denn genau diese Vorteile erwarte ich von einer Wasserkühlung; da wurde das Rad nicht neu erfunden.
Der Fury X hier allerdings das Prädikat Platzsparend zu geben ist aber fernab der Realität; der Radi muss untergebracht werden, da AMD Customs (bisher?) nicht erlaubt, selbst vorgefertigte WaKü zum Einbau in ein bestehendes System, was der größte Nachteil der Kühlung ist. In meinem ATX-Gehäuse sind 34cm lange Karten weniger das Problem als Karte + Radiator, dürfte anderen ähnlich gehen. Ich schreibe das als Nachteil, da die Risiken mit dem HBM/Interposer-Aufbau bei einem manuellen Kühlertausch ungleich höher sind im Vergleich zu früher. Gute Customlösungen gehen ja heute sehr leise zu Werke (Abschaltung bei 2D) bei guten Temperatur- und Geräuschwerten unter Last. Und ob die GPU nun 55 oder 75 Grad hat macht den Kohl für mich als Nutzer nicht fett.
Stromverbrauch interessiert mich ebenfalls lediglich zweitrangig, sondern primär die abzuführende Verlustleistung und damit verbunden Kühlungsanforderung; eine Luftkühlung der FuryX dürfte aufgrund der Abmessungen gepaart mit Hitzeentwicklung technisch/physikalisch unmöglich sein, da HBM ab 75 Grad in den roten Bereich kommt.
Hier wird die Fury ohne X zeigen müssen, was möglich ist. Ganz besonders Nano könnte die interessanteste Karte werden...

Effizienztechnisch hat sich doch was an Fiji getan, auch wenn es (leider) nicht die Auswüchse Kepler -> Maxwell erreicht hat.

Was HBM angeht finde ich, hat AMD richtig gehandelt. Wenn niemand eine tolle Idee in die Praxis umsetzt, wird diese mit aller Wahrscheinlichkeit wieder in der Versenkung verschwinden, weil man keine praktische Erfahrung sammeln kann.
Gut, AMD hätte auch 8GB GDDR5 draufkleben können, dafür hätte die Karte wieder mehr verbraucht und wär nicht so "sexy" klein geworden.
Auch wenn sie das Risiko mit der "geringen" Speichermenge eingegangen sind, kann man sie mal wieder als Motor der Industrie bezeichnen, weil sie mit dem wenigen Geld ein Wagnis eingegangen sind, dass mit besserer Ausbaustufe doch ziemlich erfolgreich werden kann.

Auch hat AMD nicht gekleckert, denn die 4GB HBM sind nach einigen Tests ja mehr als 4GB GDDR5. Sprich, während 4GB GDDR5 die Puste ausgeht, hat 4GB HBM noch etwas Luft.

Jein. Die Entwicklung schreitet ja ständig voran, GDDR5 ist ja tatsächlich übern Zenit, das ist allen Akteuren aber bekannt. Die Frage ist, ob HBM nicht zu früh eingesetzt wurde aufgrund der limitierten Größe von 4GB. Was bringt es mir, Technologievorreiter zu sein, wenn daraus kein Vorteil entsteht? Zumal ich die ganzen Wege als erster in der Fertigung bestreiten muss und AMD nicht gerade der solventeste Marktteilnehmer ist. Sie konnten auch aus 64bit kaum Nutzen ziehen, HBM ist JEDEC Standard.
Damit möchte ich sagen, dass es für alle schon fest Stand, HBM zukünftig zu verwenden. Der sinnvollste Zeitpunkt wars mMn jedoch nicht, viele wünschen sich 8GB oder mindestens 6. Die bisher kaum sichtbaren Nachteile - wobei je nach Tests der verschiedenen Seiten auch jetzt schon Nachteile bei den Frameverläufen sichtbar sind, z.B. ACU bei golem - sind eher der Treiberoptimierung zuzurechnen als den bis zu 512GB/s von HBM.

Alles in allem bleibts ein höchst finanzielles Wagnis. AMD muss Geld verdienen, viel Geld. Die Fury X ist kein Margen-Gewinner, eher weit davon entfernt.
 
Zuletzt bearbeitet:
Und nicht vergessen! AMD hat bei der 300er Reihe auch die Taktraten erhöht:D
Ja---was halt den echt großen Unterschied macht! 5% mehr Takt bringt halt maximal 5% Performance und 5% mehr Performance bringt halt nunmal leider GAR NICHTS! :devil:
Statt 50 FPS 52,5 FPS, WOOHO! :schief:
Ne, mal wieder ernsthaft: Wenn einem die Leistungsaufnahme nicht juckt, dann sind natürlich wie immer auch noch die LastGen-Karten attraktiv!
 
Ja---was halt den echt großen Unterschied macht! 5% mehr Takt bringt halt maximal 5% Performance und 5% mehr Performance bringt halt nunmal leider GAR NICHTS! :devil:
Statt 50 FPS 52,5 FPS, WOOHO! :schief:
Ne, mal wieder ernsthaft: Wenn einem die Leistungsaufnahme nicht juckt, dann sind natürlich wie immer auch noch die LastGen-Karten attraktiv!


Klar du hast vollkommen Recht. Aber es gibt Leute die kaufen wegen der 5 % mehr FPS ne TitanX anstatt ner 980ti/FuryX :ugly:
 
Wie CD scho schrieb, die Temperaturen sind nicht das Problem. Dies als große Errungenschaft zu feiern ist aber ebenso komisch, denn genau diese Vorteile erwarte ich von einer Wasserkühlung; da wurde das Rad nicht neu erfunden.
Der Fury X hier allerdings das Prädikat Platzsparend zu geben ist aber fernab der Realität; der Radi muss untergebracht werden, da AMD Customs (bisher?) nicht erlaubt, selbst vorgefertigte WaKü zum Einbau in ein bestehendes System, was der größte Nachteil der Kühlung ist. In meinem ATX-Gehäuse sind 34cm lange Karten weniger das Problem als Karte + Radiator, dürfte anderen ähnlich gehen. Ich schreibe das als Nachteil, da die Risiken mit dem HBM/Interposer-Aufbau bei einem manuellen Kühlertausch ungleich höher sind im Vergleich zu früher. Gute Customlösungen gehen ja heute sehr leise zu Werke (Abschaltung bei 2D) bei guten Temperatur- und Geräuschwerten unter Last. Und ob die GPU nun 55 oder 75 Grad hat macht den Kohl für mich als Nutzer nicht fett.
Stromverbrauch interessiert mich ebenfalls lediglich zweitrangig, sondern primär die abzuführende Verlustleistung und damit verbunden Kühlungsanforderung; eine Luftkühlung der FuryX dürfte aufgrund der Abmessungen gepaart mit Hitzeentwicklung technisch/physikalisch unmöglich sein, da HBM ab 75 Grad in den roten Bereich kommt.
Hier wird die Fury ohne X zeigen müssen, was möglich ist. Ganz besonders Nano könnte die interessanteste Karte werden...
(...).
Die Karte verlagert ganz einfach die räumlichen Anforderungen aus dem PCIe-Slot "irgendwohin" sonst. Platzspaarend ist sie somit für genau diejenigen Nutzer, bei denen das Gehäuse nicht viel Raum für PCIe anbietet.
Bzg. der Nano: In meinen Augen hängt da alles von der preislichen Positionierung ab: Bisher gab es noch nie eine Karte, bei der man innerhalb einer Gen stark vom Schnitt abweichende Effizienz bekommen hat. Bisher gab es sowas immer nur zwischen Gens (-> 750 TI)...
...vielleicht bringt AMD die Karte für 450, vllt. für 550? Keine Ahnung, das hängt ganz davon ab, für wie groß AMD die Kundschaft der enormen Effizienzbefürworter hält und wie viel die hinterher auch wirklich zahlen werden!
Klar du hast vollkommen Recht. Aber es gibt Leute die kaufen wegen der 5 % mehr FPS ne TitanX anstatt ner 980ti/FuryX :ugly:
Was ein Verhalten ist, dass ich schon immer (okay, bitte nicht wörtlich nehmen, der Gedanke war mir noch nicht bei Geburt eingepflanzt) für dämlich gehalten habe...
...ist ja nicht so, als gäbe es nicht noch mehr als genügend andere Punkte, wegen denen man die Entscheidung AMD-Nvidia treffen kann!
 
Zurück