AMD R9 Fury X2/Gemini: Laut AMD mit 12 TFLOPS Single-Precision-Performance

Ist doch war BO3, Batman @4K reicht die Rohleistung meiner Ti für Maximale Deatails jedoch nicht der 6GB Speicher.
Das neue TR macht es schon ganz ordentlich jedoch hab ich dort auch ab und an mal Nachladeruckler im Verhältnis zu BO3 jedoch zu vernachlässigen.

Macht sich doch kaum einer mehr richtig Mühe die Konsolenports vernünftig auf PC zu portieren.
Da werde ich mich sicher nicht auf 4GB HBM und irgendwelche versprechen verlassen schon gar nicht werde ich auf irgendwelche Fan Chöre hören.
Immerhin wird die Karte höchstwarscheinlich mit ca.1500 Euro an den Start gehen.
Ne ne nicht mit mir.

Hast du dir mal einen Test durchlesen mit einer Fury X und einer Titan X?

Ich denke nicht!

Dann hole das mal lieber nach!

Eine Fury X mag unter FHD langsamer sein als eine 980Ti, aber unter 4K ist diese so schnell wie die Titan X!

Und von Rohleistung brauch man nicht reden. Da ist AMD schon seid Jahren um Welten besser, problem ist nur, die bringen es nicht auf den Bildschirm.

Test 1. Fury X schneller als Titan X in 4K

Verfügbarkeit und Fazit - Radeon R9 Fury X im Test: AMDs Wasserzwerg schlägt Nvidias Titan in 4K - Golem.de

CB auch noch mal dazu:

Grafikkarten-Rangliste: Kaufberatung für Februar 2016 - ComputerBase

Verstehe nicht wieso man bei 4K eine Nvidia nimmt. Viel zu teuer, für viel zu wenig Leistung.
 
Hast du dir mal einen Test durchlesen mit einer Fury X und einer Titan X?

Ich denke nicht!

Dann hole das mal lieber nach!

Eine Fury X mag unter FHD langsamer sein als eine 980Ti, aber unter 4K ist diese so schnell wie die Titan X!

Und von Rohleistung brauch man nicht reden. Da ist AMD schon seid Jahren um Welten besser, problem ist nur, die bringen es nicht auf den Bildschirm.

Test 1. Fury X schneller als Titan X in 4K

Verfügbarkeit und Fazit - Radeon R9 Fury X im Test: AMDs Wasserzwerg schlägt Nvidias Titan in 4K - Golem.de

CB auch noch mal dazu:

Grafikkarten-Rangliste: Kaufberatung für Februar 2016 - ComputerBase

Verstehe nicht wieso man bei 4K eine Nvidia nimmt. Viel zu teuer, für viel zu wenig Leistung.
Mh ja was soll mir der Test sagen .
Meine Ti läuft mit 1530/4000 .
Das die Fury X ne gute ist für hohe Auflösungen bestreite ich nicht bis zu dem Punkt wo es um den Ram geht den das sieht man nicht in 20 Sekunden Szennen .
Und ausgehend von 2 solcher Monster Chips wird es noch schlimmer wen nur 4GB an Board sind .

Ich habe die Tests sehr wohl gelesen darum ist es ja auch eine Ti geworden.
Ich lasse mir doch für fast das selbe Geld nicht das langsamere Produkt andrehen mit weniger Speicher.
 
Typisch AMD zwei GPU CHIP,s mit brachialer Rechenleistung und nur mickrige 4GB VRAM :lol:
Und dann wird die Karte sicherlich mindestens 1200,- Eur +.... kosten :devil:
 
Typisch AMD zwei GPU CHIP,s mit brachialer Rechenleistung und nur mickrige 4GB VRAM :lol:
Und dann wird die Karte sicherlich mindestens 1200,- Eur +.... kosten :devil:

Zum (mindestens) zehnten mal: Die Karte wird für LiquidVR gemacht, da rendert jeweils eine Karte eine Seite der VR-Brille. Da reichen die 4GB HBM, vor allem, da die Auflösungen der VR-Brillen gering sind.

An der Karte habe ich ganz andere Kritikpunkte, der VRAM ist einfach keiner, gemessen am Einsatzgebiet.
 
Verstehe nicht wieso man bei 4K eine Nvidia nimmt. Viel zu teuer, für viel zu wenig Leistung.
Du weisst schon dass ne ordentliche 980ti gerade mal 20-30€ teurer ist?
Zudem ist das dann ein Customdesign und die sind in 4K mal eben 10% schneller als eine Fury X.
Dh ich bezahl bei Nvidia 5% Aufpreis für 10% mehr Leistung und 50% mehr VRAM.
Warum werden dann auch noch knapp 20 mal soviele 980ti wie Fury X verkauft?
Achja stimmt, weil über 50% der PCGHX Nutzer FHD nutzen und die 980ti da nochmal schneller ist.
 
Liest du die News zur Karte eigentlich such mal. Spätestens die Tatsache dass die Karte längst fertig ist, Aber trotzdem nicht gebracht wird, sondern erst mit den Brillen, dürfte dir doch Antwort genug sein.
 
Das nimst du nur an aber hast von AMD keine Aussage das die Gemini nur für VR ist ;)

Wir sprechen uns wieder wenn die Gemini auf nem Monitor in 4K getestet wird ;) und dann an ihren mickrigen 4GB VRAM Verhungert:devil:
 
Siehst du die fury denn in 4K verhungern?

Welchen Grund sollten sie sonst haben, die Karte zurück zu halten? Gerade wenn sie nicht dafür gedacht wäre, würden Sie doch jetzt noch versuchen so viel Geld wie möglich damit zu verdienen, bevor Nvidia nachzieht.
 
Die Zahlen von Dual-GPU Karten sind wie immer phantastisch egal ob bei AMD oder NVIDIA. Das einzige sind die 375 Watt die dafür auffallen, vermutlich erneut auf Kosten des GPU-Taktes.
In der Praxis werden diese Dual-GPU-Karten, wie immer egal AMD oder NVIDIA ihre Power in Spielen nicht auf den Bildschirm bringen und darauf kommt es ja nunmal an, denke ich. So viel Hoffnung ich auch in AMD stecke, spart euch das Geld für diese Produktionen und verwendet es für etwas Brauchbares. Sehen die Hersteller unser komisches Grinsen nicht? Zynismus!
Das wäre wirtschaftlicher, als so zu tun, sie müßten mit der Konkurenz mithalten nur weil diese auch eine Dual-GPU-Karte haben, werden.
Das ist hart, und obwohl ich gerne etwas positiveres schreiben möchte, aber das ist nunmal tatsächlich. Warum sind kluge Entwickler nicht in der Lage das so umzusetzen, dass man mehr als 130% FPS von 2 GPU's hat, wenn denn überhaupt Spiele noch unterstützt werden? Warum machen die das schon ewig so, ohne positive Ergebnisse zu bringen und zu erkennen, das sie in einer Sackgasse stehen. Darüber zu schreiben ist fast schon Zeit-Verschwendung aber den Frust darüber muß man irgendwie loswerden. So lange diese Entwickler nicht in der Lage sind neue Optionen zu erkennen bezahle ich nicht einen Cent dafür. Wer ist so naiv 200% zu bezahlen wenn er nur 150% erhält, ist doch nicht Wirtschaftlich oder?
Gruss w
 
Zuletzt bearbeitet:
Also ich weiß ja nicht wann du das letzte mal mit Multi GPU gespielt hast, aber bei meinen beiden alten 7970ern bringt es zwischen 180 und 200%. Bei meinem Lieblingsschinken, Gothic 3, Sind es beispielsweise statt 27-30 fps dann 56-60 fps (mods, .ini Tuning und downsampling).
 
Zurück