Radeon R9 Fury im PCGH-Test: AMDs Angriff auf die Geforce GTX 980

Habe mir jetzt mal alle 21 Seiten durchgelesen und bin einfach wirklich erstaunt,
was hier zum Teil alles verglichen wird - Äpfel mit Birnen und so weiter...:lol:

Nein Spaß bei Seite...
Meiner Meinung nach ist es eine solide Leistung seitens Sapphire, das wir unter Last mit
so wenig Geräuschemission belastet werden - selbst 1,7 Sone von meiner MSI GTX 780 Ti Gaming sind nicht
wirklich störend...
Und ich muss ganz ehrlich sagen, das ich nicht derjenige bin, der neue und aktuelle Hardware, die man bekanntlicher-
weise für viel Geld erstanden hat, sofort auf ein Maxiumum übertakten muss...
Das einzige was ich mal gemacht hatte, war ne Karte undervolten ;)

Und wenn man von übertakten redet, sollte man auch den Preis dafür zu zahlen bereit sein - mehr Strom.
Das AMD/ATI das Übertakten noch nicht freigibt, kann ich gut verstehen, da laut diversen Aussagen keine Langzeittests
für die Lebensdauer des HBM's bei Übertaktung bestehen - ist im Prinzip aus meiner Sicht ein Schutz des Verbrauchers,
damit er sich die Karte nicht zerschießt - würde mich aber nicht wundern, wenn das demnächst evtl. durch nen seperates
Tool seitens AMD/ATI oder diverser Partner behoben wird - immer in der Hoffnung, damit die Aussage über das Übertakten
bestätigt oder wiederlegt werden kann.

Zu den Ausmaßen der Karte kann ich nur eines sagen: Wer sich eine Karte für über 500€ zulegt, der sollte auch das Geld für
ein ordentliches Gehäuse haben, wo entsprechend genug Platz ist - in einem Mini wirds halt eng und nicht nur mit der Karte,
das betrifft in der Leistungsklasse fast alle...
Habe auch gerade mal meine Reserverkarte ausgemessen, ist ne PowerColor HD7950PCS+, die hat auch ihre 28cm Länge und
die hat ohne Probleme in mein Gehäuse gepasst...

Sobald sich der Preis - bei Verfügbarkeit wohlgemerkt - eingependelt hat, ist diese Diskussion über
den Preis eh einfach nur noch egal - hoffe ich zumindest.

Abschließend möchte ich nur noch beitragen, das man die Kaufentscheidung vom Gesamtpaket abhängig machen
soll und was man alles erwartet von einer Karte und deren Hersteller...und das liegt halt wie üblich (auch bei Autos)
im Auge des Betrachters.
AMD hat sich halt mal wieder als Vorreiter für Neues eingesetzt und muss nun mit den Konsequenzen leben, aber das
ist ja nichts Neues, sage nur 3dfx mit dem seperaten Stromanschluss für Grafikkarten...und was ist aus denen geworden....?
Kann nur hoffen, das es AMD/ATI nicht genauso ergeht, nur weil die eine neue Technik ausprobiert haben um auch zu schauen,
wie die Möglichkeiten des HBM's sind.

In dem Sinne - viel spaß beim auseinanderpflücken meines Posts;)

Dann hab ich ja alles richtig gemacht :P
Fury X, passendes Gehäuse, WQHD Monitor mit FreeSync, ... :D
 
Einerseits natürlich das, was Raff sagt!Andererseits solltest du (dir) ein paar Fragen beantworten:Willst du dir ein FreeSync-Display kaufen? Wenn ja, welche Auflösung möchtest du haben?Falls du dein jetztiges behalten möchtest: Hat dein jetztiges Display mehr als 1080P als Auflösung? Wenn nein, dann ist bereits die 390 ziemlicher Overkill! Wenn ja: Siehe unten!Falls du dir ein FreeSync-Display holen willst: 1440P oder 2160P? Bei 1440P ist die 390 schon sinnvoll, bei 2160P die Fury gerade sinnvoll, wobei natürlich bei beiden FreeSync ordentlich unter die Arme greift.1440P +Fury ist natürlich auch attraktiv, 2160P und 390/gebrauchte 290 läuft auf eine neue Karte im nächsten Jahr hinaus! Auch nicht unattraktiv...

Nix von dem ;) es wird ein 1440er Monitor, wohl der 32 Zöller von BenQ BL3200PT oder der 21:9 von LG 34UM95‹, ich sehe als Strategiespieler (noch)keinen Sinn in Adaptive Snyc. Es soll aber eben ein Lustkauf werden, ich weiß dass eine 970 reichen würde, aber ich möchte diesesmal einfach ne dicke Karte haben, die mehr kann als nur 1440 ;) Die Nachfolgerin wird wohl erst 2017 werden, aber mal sehen.
 
Zuletzt bearbeitet:
Nochmal!
Das übertakten des Speichers ist das eine,die GPU das andere.

Sieht man sich die Bandbreite an,halte ich ein limitieren ersteres für eher unwahrscheinlich und läuft unter der Kategorie "Feintuning".

Was richtig FPS bringt ist ein massiv erhöhter Takt der GPU da dieser oft nahezu eins zu eins skaliert und da ist Fij allem Anschein nach ein Flop.

Man muss bedenken das alle Tests und der Leistungs Index auf Basis der Hersteller Angaben basieren (Raff erklärt das in der aktuellen Ausgabe sehr gut warum).

Von dieser Basis ausgehend (also 1075 Mhz für die 980Ti) kann man sich also schnell ausrechnen wo die Karte mit 1400 Mhz und mehr landet.

Ich persönlich übertakte meine Komponenten schon seit vielen Jahren von Anfang an auf das Maximum und hatte noch nie einen Defekt,trotzdem macht das nicht jeder und ist kein Maßstab,soweit klar!
Wenn ich aber über 600€ für eine Grafikkarte auf den Tisch lege,dann möchte ich kompromisslose Leistung und auch möglichst das ganze Potential nutzen.
Aus diesem Grund ist die Fury (X) eine Enttäuschung für mich,zumal AMD einfach still in dieser Hinsicht bleiben hätte sollen.

Was mit mehr Spannung möglich ist muss noch bewiesen werden.einzelne Exemplare werden dann vermutlich auch über 1200 Mhz stemmen,aber das ist lange nicht das was ich erwartet habe.
Der Verbrauch ist mir dahingehend eigentlich egal,aber ab 300 Watt wirds dann in Puncto Abwärme einfach aufwendig das ganze leise zu kühlen.

Zumal HBM ja an dieser Stelle auch noch massiv spart (man munkelt 50-70 Watt),zeigt es doch wie ineffizient die Architektur gegenüber Maxwell arbeitet.

So,genug gemeckert.
Denn andererseits hat AMD alles raus geholt was machbar ist.
Mit GDR5 wären die Verbrauchswerte durch die Decke,mehr als 4 Gigabyte HBM technisch und / oder aus Kostensicht nicht möglich gewesen.
Und die Leistung liegt auf Augenhöhe,fraglich ob zu diesen Preisen die breite Masse nicht gleich zu Nvidia gegriffen wird und wie viel Spielraum für Preissenkungen vorhanden sind da die Produktionskosten sehr hoch sein dürften.
 
Zuletzt bearbeitet:
Nix von dem ;) es wird ein 1440er Monitor, wohl der 32 Zöller von BenQ BL3200PT oder der 21:9 von LG 34UM95‹, ich sehe als Strategiespieler (noch)keinen Sinn in Adaptive Snyc. Es soll aber eben ein Lustkauf werden, ich weiß dass eine 970 reichen würde, aber ich möchte diesesmal einfach ne dicke Karte haben, die mehr kann als nur 1440 ;) Die Nachfolgerin wird wohl erst 2017 werden, aber mal sehen.
Gerade Strategiespieler sind doch große Kandidaten für VariableRefreshRate. Da man bei denen ja oft CPU-Limitierte Szenen hat, wodurch es unmöglich wird die Bildrate stabil zu halten! Außerdem sind gerade beim Scrolling die Tri-Buff-Ruckler besonders präsent---nicht umsonst wurde GSYNC auf einigen Messen mit StarCraft vorgeführt!

Es gibt nur eine Gruppe, die sich um VariableRefreshRate nicht kümmern braucht und das sind diejenigen, die ausschließlich Spiele spielen, in den sie rockstable FPS bekommen, also vor allen Dingen 2D-Spiele, älteres oder Jump n´Runs!
Jetzt noch ein Display ohne VRR zu kaufen ist auf jeden Fall nicht sinnvoll, zumindest dann nicht, wenn es mehr als eine Not-Übergangslösung sein soll! Vor allen Dingen auch deshalb, weil gerade bei den ansonsten von dir angestrebten Eigenschaften der Preisunterschied nicht mehr gigantisch ausfällt---was sind schon 15-25% mehr Preis, wenn dafür die Signifikanz von Framedrops fast vollkommen verschwindet? Um das durch reine Hardwarepower zu erreichen, bräuchte man MASSIV viel mehr Performance im Gesamtsystem! (und so starke Prozessoren gibt es nicht...)

Auf der GSYNC-Seite solltest du einen Blick auf den hier werfen: Acer Predator XB270HUbprz, 27" (UM.HB0EE.009) Preisvergleich | Geizhals Deutschland
Kann eigentlich alles, was der BenQ kann, aber halt in besser!
ASUS-Äquivalent auf FreeSync-Seite: ASUS MG279Q, 27" (90LM0103-B01170) Preisvergleich | Geizhals Deutschland
Bei deinen Ultra-Widescreen-Ambitionen wird es schon was schwieriger, denn da hat LG bisher noch nicht alle Modelle neu mit FreeSyncaufgelegt, bisher haben es dort nur die 2560x1080er-Modelle geschafft...
...allerdings gibt es enormes Luxus-Modell von Acer:
Acer Predator XR341CKbmijpphz, 34" (UM.CX1EE.001) Preisvergleich | Geizhals Deutschland (FreeSync-Variante)
Acer Predator X34 XR341CKAbmiphz, 34" (UM.CX1EE.A01/UM.CX1EE.006) Preisvergleich | Geizhals Deutschland (GSYNC-Variante)
Aber da du dir ja eh mal was gönnen willst...
...zumindest bei den 21:9ern würde ich dann natürlich schon zur Fury (X) oder 980 (Ti) raten, für so einen 1440er kanns auch ne 390 oder ne 970 leisten, gerade dank FreeSync-GSYNC reichen die dann gut für flüssige Erlebnisse aus!

Edit:
Also bei Amazon kostet er knapp über 500€, bei den meisten andren Händlern 499. Acer Predator XG270HUomidpx 69 cm LED Monitor schwarz: Amazon.de: Computer & Zubehör
Es sah mir jetzt nicht gerade danach aus, als dass Unrockstar sich mit TN zufrieden geben würde!
 
Zuletzt bearbeitet:
Gerade Strategiespieler sind doch große Kandidaten für VariableRefreshRate. Da man bei denen ja oft CPU-Limitierte Szenen hat, wodurch es unmöglich wird die Bildrate stabil zu halten! Außerdem sind gerade beim Scrolling die Tri-Buff-Ruckler besonders präsent---nicht umsonst wurde GSYNC auf einigen Messen mit StarCraft vorgeführt!

Es gibt nur eine Gruppe, die sich um VariableRefreshRate nicht kümmern braucht und das sind diejenigen, die ausschließlich Spiele spielen, in den sie rockstable FPS bekommen, also vor allen Dingen 2D-Spiele, älteres oder Jump n´Runs!
Jetzt noch ein Display ohne VRR zu kaufen ist auf jeden Fall nicht sinnvoll, zumindest dann nicht, wenn es mehr als eine Not-Übergangslösung sein soll! Vor allen Dingen auch deshalb, weil gerade bei den ansonsten von dir angestrebten Eigenschaften der Preisunterschied nicht mehr gigantisch ausfällt---was sind schon 15-25% mehr Preis, wenn dafür die Signifikanz von Framedrops fast vollkommen verschwindet? Um das durch reine Hardwarepower zu erreichen, bräuchte man MASSIV viel mehr Performance im Gesamtsystem! (und so starke Prozessoren gibt es nicht...)

Auf der GSYNC-Seite solltest du einen Blick auf den hier werfen: Acer Predator XB270HUbprz, 27" (UM.HB0EE.009) Preisvergleich | Geizhals Deutschland
Kann eigentlich alles, was der BenQ kann, aber halt in besser!
ASUS-Äquivalent auf FreeSync-Seite: ASUS MG279Q, 27" (90LM0103-B01170) Preisvergleich | Geizhals Deutschland
Bei deinen Ultra-Widescreen-Ambitionen wird es schon was schwieriger, denn da hat LG bisher noch nicht alle Modelle neu mit FreeSyncaufgelegt, bisher haben es dort nur die 2560x1080er-Modelle geschafft...
...allerdings gibt es enormes Luxus-Modell von Acer:
Acer Predator XR341CKbmijpphz, 34" (UM.CX1EE.001) Preisvergleich | Geizhals Deutschland (FreeSync-Variante)
Acer Predator X34 XR341CKAbmiphz, 34" (UM.CX1EE.A01/UM.CX1EE.006) Preisvergleich | Geizhals Deutschland (GSYNC-Variante)
Aber da du dir ja eh mal was gönnen willst...
...zumindest bei den 21:9ern würde ich dann natürlich schon zur Fury (X) oder 980 (Ti) raten, für so einen 1440er kanns auch ne 390 oder ne 970 leisten, gerade dank FreeSync-GSYNC reichen die dann gut für flüssige Erlebnisse aus!

Edit:
Es sah mir jetzt nicht gerade danach aus, als dass Unrockstar sich mit TN zufrieden geben würde!

Danke dir :) Also so habe ich das bisher noch nicht gesehen, wobei Starcraft einfach mies gecodet ist. Aber was mir nicht ins haus kommt ist dieser Curved Quatsch. Und nein TN Panel habe ich noch und will weg davon, da ich IPS, bzw VA Panels viel besser finde. Faktisch muss ich nur nach einem Monitor Ausschau halten mit HDMI 1,4 oder DP 1,2 da diese Modelle das Adaptive Sync können sollten. Der Asus ist schonmal ganz nett, aber nicht so mein Geschmack. Werde mal die Augen offenhalten
Nunja mein IVY wird ja wohl die Katrten nicht massiv einbremsen, ich bin eh gespannt wie gut DX12 wird.
 
Schade, dass es noch keine Fury für ca. 500-550€ mit so kurzer Länge kaufbar ist. In mein Gehäuse passt nur eine Graka mit max. 23cm rein :D
Wenn die Nano den Vollausbau hat, dann kostet die sicher mehr als die Fury X.
 
Danke dir :) Also so habe ich das bisher noch nicht gesehen, wobei Starcraft einfach mies gecodet ist. Aber was mir nicht ins haus kommt ist dieser Curved Quatsch. Und nein TN Panel habe ich noch und will weg davon, da ich IPS, bzw VA Panels viel besser finde. Faktisch muss ich nur nach einem Monitor Ausschau halten mit HDMI 1,4 oder DP 1,2 da diese Modelle das Adaptive Sync können sollten. Der Asus ist schonmal ganz nett, aber nicht so mein Geschmack. Werde mal die Augen offenhalten
Nunja mein IVY wird ja wohl die Katrten nicht massiv einbremsen, ich bin eh gespannt wie gut DX12 wird.
Nicht ganz, nur weil ein Display einen DP 1.2 hat, muss es noch lange kein FreeSync oder GSYNC beherrschen! Am einfachsten ist es, dir diese beiden Listen als Favoriten zu hinterlegen:
LCD-Monitore mit Gaming: AMD FreeSync (Adaptive-Sync) Preisvergleich | Geizhals Deutschland
LCD-Monitore mit Gaming: NVIDIA G-Sync Preisvergleich | Geizhals Deutschland
Dein Ivy bremst überall dort massiv, wo auch ein DevilsCanyon noch massiv bremsen würde. Und auch nach dem Release von DirectX 12 wird er dort weiterhin bremsen und es wird sicher mindestens fünf Jahre dauern, bis mal irgendein Prozzi rauskommt, der genügend Single-/ Dual-Thread-Performance hat, um diese "Altlasten" zu bewältigen! Aber nein, in gut optimierten (NEUEN, DirectX 12 oder Vulkan-nutzende) Spielen sollte er nicht bremsen, denn für gut optimierte Spiele sind unsere heutigen CPUs in der Regel wiederrum vollkommen OP!

Zum Thema Curved: Ich würde dem nicht den Sinn absprechen, auch wenn ich privat daran kein Interesse habe! (Notebookuser, und wenn ich zum Desktop zurückkehren sollte, dann werd ich meine Linie der kleinen 16:9 Displays mit hoher Pixeldichte sicher fortsetzen und mich eher im Bereich 24-Zoll@2160P umsehen)
Klar, Curved darf nicht als Checklistenfeature wie "geringer Inputlag", "hoher Kontrast" oder "VariableRefreshRate" gesehen werden, denn es ist ohne weiteres möglich ein Display damit sogar schlechter zu machen: Ein Curved 16:9er mit TN-Panel wäre zum Beispiel eine ziemliche Katastrophe... :D
...aber für blickwinkelstabile 21:9er ist es durchaus eine Betrachtung wert; besonders bei großen Diagonalen/ geringem Sitzabstand! Aber ich will dich zu nichts (also abgesehen von der VariableRefreshRate :D) nötigen oder gar sagen, dass du UNBEDINGT ein Curved bräuchtest...
 
Jetzt noch ein Display ohne VRR zu kaufen ist auf jeden Fall nicht sinnvoll, zumindest dann nicht, wenn es mehr als eine Not-Übergangslösung sein soll! Vor allen Dingen auch deshalb, weil gerade bei den ansonsten von dir angestrebten Eigenschaften der Preisunterschied nicht mehr gigantisch ausfällt---was sind schon 15-25% mehr Preis, wenn dafür die Signifikanz von Framedrops fast vollkommen verschwindet? Um das durch reine Hardwarepower zu erreichen, bräuchte man MASSIV viel mehr Performance im Gesamtsystem! (und so starke Prozessoren gibt es nicht...)

Aber auf was soll man denn aktuell setzen? FreeSync oder GSync? Habe mich mit dem Thema nicht ausführlich befasst,aber es gibt doch keinen einheitlichen Standard. :ka:
Habe aktuell zwar eine Nvidia aber wer weiß wie es nach dem nächsten Aufrüsten aussieht?
 
Zuletzt bearbeitet:
Schade, dass es noch keine Fury für ca. 500-550€ mit so kurzer Länge kaufbar ist. In mein Gehäuse passt nur eine Graka mit max. 23cm rein :D
Wenn die Nano den Vollausbau hat, dann kostet die sicher mehr als die Fury X.
Mehr?! Das glaub ich kaum...
...das Kühlsystem wird sicherlich (hoffentlich...:ugly:) nicht das günstigste, aber auch ganz sicher günstiger als eine Wasserkühlung! Auch bei der Stromversorgung könnte man die Karte beschneiden, anders als die Fury und Fury X soll die Karte ja nicht "narrensicher" mit bis zu 500 Watt versorgt werden können!
 
Aber auf was soll man denn aktuell setzen? FreeSync oder GSync? Habe mich auch mal mit dem Thema nicht ausführlich befasst,aber es gibt doch keinen einheitlichen Standard. :ka:
Habe aktuell zwar eine Nvidia aber wer weiß wie es das nach dem nächsten Aufrüsten aussieht?
Mögliche Folgerungen:
1. Den Displaykauf bis zur nächsten Graka hinausschieben und dann damit leben, sich auf mehrere Generationen zu binden!
2. Den Displaykauf so lange hinausschieben, bis es einen gemeinsamen Standard gibt und damit leben, wahrscheinlich mehrere Generationen warten zu müssen.
3. Eine Radeon und ein FreeSync-Display kaufen, um den Wandel zum gemeinsamen Standard zu beschleunigen! (solange sich FreeSync-Monitore nicht bedeutend besser als GSYNC-Monitore verkaufen werden, wird es keine Druck seitens der Hersteller geben, was genau das wäre, was ein Einlenken von Seiten Nvidias beschleunigen würde)
4. Ein GSYNC-Display kaufen und sich für die nächsten Jahre an Nvidia binden. Für Nvidia-Fans und auch solche, die aus irgendwelchen Gründen eh an Nvidia gebunden sind eine legitime Möglichkeit...
5. Sich mit Zockern im Freundeskreis die wechselnder Käufer sind absprechen, jeder kauft ein Display und bei Herstellerwechsel tauscht man halt! :daumen: (ist allerdings nicht leicht zu koordinieren und nicht immer möglich)

Neue (teure) Graka und neues (teures) Display jetzt kaufen ohne auf VRR zu wechseln ist auf jeden Fall nicht sinnvoll, denn damit liegen im Endeffekt bedeutende Mengen an Resourcen brach!
Nur, falls es wen interessiert: Persönlich plane ich den Kauf eines GSYNC-Notebooks im nächsten Jahr passend zu Pascal... (da Notebook-GSYNC kein GSYNC-Modul braucht, bin ich fein aus der Verantwortung raus---naja, mehr oder weniger, immerhin schiebe ich trotzdem Nvidia verdammig viel Geld in den A****)
 

Also ich habe es aktuell nicht eilig , bin mit meinem aktuellen Monitor noch zufrieden. (24 Zoll,FHD,60hz,IPS,16:9) Ja ich weiß wie kann er nur ? ^^
Mein nächster Monitor soll dann aber auf jeden Fall ein 4k IPS Monitor sein,aber dann muss ich halt abwarten wie es mit der Hardware aussieht.
Aktuell reicht sie mir halt nicht.War halt daher so eine allgemeine Frage,werde mich wohl noch zurücklehnen.
 
Schade, dass es noch keine Fury für ca. 500-550€ mit so kurzer Länge kaufbar ist. In mein Gehäuse passt nur eine Graka mit max. 23cm rein :D
Wenn die Nano den Vollausbau hat, dann kostet die sicher mehr als die Fury X.

Unwahrscheinlich, da sie mit 1x8 Pin (max. 225W) in der Leistungsaufnahme stark beschränkt ist und daher als Vollausbau mit ~800MHz Chiptakt erscheinen könnte. Bei einer eigentlichen Länge von 6 inch=15,2cm wird sie zwar durch den 1x8Pin Stromanschluss am Ende der Karte etwas länger, dein Platz von 23cm sollte aber locker ausreichen.
 
Schade, dass es noch keine Fury für ca. 500-550€ mit so kurzer Länge kaufbar ist. In mein Gehäuse passt nur eine Graka mit max. 23cm rein :D
Wenn die Nano den Vollausbau hat, dann kostet die sicher mehr als die Fury X.

Hm, man küsste mal "Perversionen" ausprobieren: Fury oder Fury X plus Accelero Mono Plus. Das sähe witzig aus, wenn die Karte fast so hoch wird wie sie lang ist. :ugly: Ansonsten: Was hast du denn gerade im Rechner? Abhängig davon wäre entweder eine GTX 970 im ITX-Format ein schönes Upgrade oder eine R9 380 OC mit 4 GiB (ich glaube, die Sapphire Nitro könnte passen).

MfG,
Raff
 
Erst einmal ein nettes hallo in die Runde hier :) .


Was mich interessieren würde, ob der Fiji Chip gegenüber dem Maxwell Chip Vorteile unter DX12 entwickeln könnte.
Gibt es in den jeweiligen Architekturen Gründe für einen Vorteil unter DX12 ?

Oder läuft es darauf hinaus, dass mal der Eine und dann der Andere Vorteile unter DX12 hat ?

Ich weiß, dass die Antworten wohl spekulativ sind, trotzdem würde ich sie gerne lesen.

Schöne Grüße
 
Aber auf was soll man denn aktuell setzen? FreeSync oder GSync? Habe mich mit dem Thema nicht ausführlich befasst,aber es gibt doch keinen einheitlichen Standard. :ka:
Habe aktuell zwar eine Nvidia aber wer weiß wie es nach dem nächsten Aufrüsten aussieht?

Freesync (adaptiv sync ) ist ein Vesa Standart den NVIDIA ohne Probleme übernehmen könnte.
G-Sync ist NVIdia exclusiv.
 
Zurück