Erster Benchmark zu Fury X aufgetaucht.

Im Vergleich zur Non-OC Version der 980 Ti schlägt sich die Fury X doch nicht schlecht?
Erstmal die neuen Treiber abwarten, da wird sich bestimmt noch was tun.

AMD ist kein Wohltätigkeitsverein. Die werden für eine Karte, die gleich Potent oder stärker als die 980Ti ist, nicht weniger verlangen.
 
Die werden für eine Karte, die gleich Potent oder stärker als die 980Ti ist, nicht weniger verlangen.

Doch werden und müssen sie. Allein weil Nvidia eigene Features hat, welche AMD nicht nutzen kann.
Sind beide Karten gleich schnell und besitzen auch den gleichen Preis, wird wohl der Großteil zur Nvidia Variante greifen.
 
Doch werden und müssen sie. Allein weil Nvidia eigene Features hat, welche AMD nicht nutzen kann.
Sind beide Karten gleich schnell und besitzen auch den gleichen Preis, wird wohl der Großteil zur Nvidia Variante greifen.

Mir fällt momentan nur ein Feature ein welches AMD nicht hat, das Speicherfeature:ugly:

Und komm mir jetzt nicht mit Physics:schief:
 
Nvidia hat Gameworks.
Meist kann man es ruhig als Game not works bezeichnen, aber es ist da und sorgt in der Regel für bessere FPS auf Nvidia-Karten wenn man es abschaltet :P
 
Also mir ist gestern meine r290 abgeraucht,guter Zeitpunkt wie ich finde :).Ich hoffe das die Fury X genau so Fix unterwegs ist wie die 980ti aber wenn die gleich teuer ist werde ich mir heute noch eine 980ti bestellen 4gb vs 6gb gewinnt eindeutig für mich die 980ti.Ja mag sein das 4gb für die meisten Games noch reicht aber wie sieht es in ein Jahr aus ?Und ich habe nicht vor mir in ein jahr nochmal ne neue Karte zu kaufen.Sollte schon 2-3 jahre reichen
 
Ich frage mich ja, was der Vorteil durch Mantle ab Windows 10 und den ersten DX12 Spielen noch wert sein wird? :D Ob das AMD und die Fury X vom hohen Ross werfen wird?
 
Die VMOD-Charts sind mir ehrlich gesagt ein wenig suspekt. Die R9 290X soll also angeblich in Crysis 3 - wohlgemerkt in 4k! - 44fps schaffen? Und in FarCry4 ca. das selbe? Dafür schafft eine GTX960 in Dying Light einen 20fps-Vorsprung auf die R9 380? Das ganze kommt dann auch noch mit ständig wechselnder Besetzung - mal sind Karten dabei, mal nicht; mal werden SLI-Gespanne getestet, mal nicht... me no gusta.

Zumindest das Verhältnis non-oc FuryX zu non-oc TitanX sieht halbwegs realistisch aus. OC dagegen sieht komplett halbgar aus, als würden z. B. irgendwelche Treiber oder Tools fehlen, die das OC auf FuryX erst richtig ermöglichen.
Abgesehen davon: Wer solche Diagramme verbricht, dem glaube ich auch nicht, dass er sauber arbeitet.^^

Da warte ich lieber auf die Artikel bei PCGH, TH, Techspot etc. anstatt mir jetzt den Kopf über Graphen zu zerbrechen, deren Glaubwürdigkeit selbst im besten Fall diskutabel erscheint.
 
Ich frage mich ja, was der Vorteil durch Mantle ab Windows 10 und den ersten DX12 Spielen noch wert sein wird? :D Ob das AMD und die Fury X vom hohen Ross werfen wird?

waum vom hohen Ross werfen? Von DX12 profitieren doch beide oder stehe ich auf denn Schlauch,und habe ich was verpasst das DX12 only die grünen Puscht?
 

waum vom hohen Ross werfen? Von DX12 profitieren doch beide oder stehe ich auf denn Schlauch,und habe ich was verpasst das DX12 only die grünen Puscht?

Sehe ich das etwa falsch oder sind die "offiziellen" AMD-Benchmarks wirklich teilweise mit Mantle erstellt wurden? Daraus resultiert, dass die Fury X einen Boost durch Mantle bekommen hat, da die API hardwarenah arbeitet im Vergleich zu reinem DX11. Da DX12 die Eigenschaften aber von Hause aus mitbringen wird/soll, stellt sich mir die Frage ob AMD dadurch an Boden verlieren wird, sobald die ersten Spiele mit DX12 rauskommen? Immerhin wird/würde das den Wert von Mantle als eigene API doch erheblich mindern.

PS: Hab ich echt so unverständlich geschrieben? :D?
 
waum vom hohen Ross werfen? Von DX12 profitieren doch beide oder stehe ich auf denn Schlauch,und habe ich was verpasst das DX12 only die grünen Puscht?

Klar tun es beide, aber die Auswirkungen sind noch unbekannt. Das eine Lager kann stärker davon profitieren.
Wie sehr sich das auswirkt, sieht man an den AMD-Treibern, da wird der Abstand auf ein mal deutlich kleiner nur durch einen neuen Treiber, bei derselben Hardware.
 
Ich denke das wird sich noch zeigen welches Lager stärker davon profitiert.Wichtig für mich ist heute Preis,Leistung,verfügbarkeit :) brauche ganz schnell ersatz für meine gegrillte 290^^
 
Sehe ich das etwa falsch oder sind die "offiziellen" AMD-Benchmarks wirklich teilweise mit Mantle erstellt wurden? Daraus resultiert, dass die Fury X einen Boost durch Mantle bekommen hat, da die API hardwarenah arbeitet im Vergleich zu reinem DX11. Da DX12 die Eigenschaften aber von Hause aus mitbringen wird/soll, stellt sich mir die Frage ob AMD dadurch an Boden verlieren wird, sobald die ersten Spiele mit DX12 rauskommen? Immerhin wird/würde das den Wert von Mantle als eigene API doch erheblich mindern.

PS: Hab ich echt so unverständlich geschrieben? :D?

ach so meinst du das ^^

naja mal sehen, wenn durch die Low Level API`s die Ressourcen besser genutzt werden, könnte AMD durch die wesentlich höhere Shader Anzahl weiterhin profitieren
 
Sehe ich das etwa falsch oder sind die "offiziellen" AMD-Benchmarks wirklich teilweise mit Mantle erstellt wurden? Daraus resultiert, dass die Fury X einen Boost durch Mantle bekommen hat, da die API hardwarenah arbeitet im Vergleich zu reinem DX11. Da DX12 die Eigenschaften aber von Hause aus mitbringen wird/soll, stellt sich mir die Frage ob AMD dadurch an Boden verlieren wird, sobald die ersten Spiele mit DX12 rauskommen? Immerhin wird/würde das den Wert von Mantle als eigene API doch erheblich mindern.

PS: Hab ich echt so unverständlich geschrieben? :D?

Die meisten der aufgeführten Spiele unterstützen kein Mantle, und laut AMD wurde bei den bereitgestellten Benches nur SniperElite3 mit Mantle getestet.
Abgesehen davon werden solche Benches normalerweise mit High End-CPUs erstellt; die profitieren ohnehin kaum von Mantle. Der Witz von Mantle ist ja gerade, dass die CPU entlastet wird. Wenn die aber ohnehin fernab ihres Maximums läuft, dann fehlt dem Witz die Pointe.^^
 
Das ist alles extrem traurig. Ich hatte so auf gute neue Karten gehofft, aber es scheint wirklich so, dass Fury "nur" der leicht optimierte Vollausbau von Tango mit neuem Speichercontroller und HBM Speicher ist. Das ist ein riesiger Fortschritt, aber eben nicht genug, um gegen eine GTX 980TI oder Titan anzustinken. Wenn es zumindest 8GB Speicher gäbe. Im nächsten Schritt dann.

Noch hoffe ich weiter und warte auf erste unabhängige PCGH-Tests, aber die Hoffnung, 20-50% Mehrleistung als eine Titan zu bekommen und endlich 4K mit einer Singlecard immer mit hoher Qualität nutzen zu können schwindet. Der Preis wäre dann egal. Es wird keinen Grund geben, meine R9-295X gegen eine Fury auszutauschen. Die R9-295X wird weiterhin die schnellste Karte bleiben,
 
Das ist alles extrem traurig. Ich hatte so auf gute neue Karten gehofft, aber es scheint wirklich so, dass Fury "nur" der leicht optimierte Vollausbau von Tango mit neuem Speichercontroller und HBM Speicher ist. Das ist ein riesiger Fortschritt, aber eben nicht genug, um gegen eine GTX 980TI oder Titan anzustinken. Wenn es zumindest 8GB Speicher gäbe. Im nächsten Schritt dann.

Noch hoffe ich weiter und warte auf erste unabhängige PCGH-Tests, aber die Hoffnung, 20-50% Mehrleistung als eine Titan zu bekommen und endlich 4K mit einer Singlecard immer mit hoher Qualität nutzen zu können schwindet. Der Preis wäre dann egal. Es wird keinen Grund geben, meine R9-295X gegen eine Fury auszutauschen. Die R9-295X wird weiterhin die schnellste Karte bleiben,

Deine Karte wird auch noch die nächste Generation überleben. Bis eine SingleGPU deine DualGPU merklich überholt, vergehen noch paar Jährchen.

Sowohl AMD als auch Nvidia können nicht zaubern, wir kommen langsam in den Bereich wo die CPUs schon sind - von einer Generation zur nächsten werden die Teile minimal schneller, dafür aber deutlich sparsamer und mit mehr Speicher. Enthusiasten freuen sich da natürlich nicht so drüber, weil sie mehr Leistung, bessere Übertaktbarkeit und neuste Technologien wollen (bzw genug Leistung um diese auch zu nutzen).
4K zu befeuern ist aktuell immer noch unmöglich mit einer SingleGPU und ich denke nicht das auch die nächste Generation so einen heftigen Sprung schafft.
 
Das ist ein riesiger Fortschritt, aber eben nicht genug, um gegen eine GTX 980TI oder Titan anzustinken. Wenn es zumindest 8GB Speicher gäbe. Im nächsten Schritt dann.

Noch hoffe ich weiter und warte auf erste unabhängige PCGH-Tests, aber die Hoffnung, 20-50% Mehrleistung als eine Titan zu bekommen und endlich 4K mit einer Singlecard immer mit hoher Qualität nutzen zu können schwindet. Der Preis wäre dann egal.

Was denn nun? Dagegen anstinken oder 20-50% Mehrleistung? Leistung auf dem Level einer TitanX/980Ti ist schon mal ein riesiger Sprung und war auch zu erwarten. Viel mehr ist mit der aktuellen Fertigung vielleicht einfach nicht zu machen?
Weiß man eigentlich inzwischen, wie es mit DP bei Fiji ausschaut?
 
Zurück