AMD R9 Fury X2/Gemini: Laut AMD mit 12 TFLOPS Single-Precision-Performance

Hat es für mich einen Vorteil ausser das ich Strom spare wenn ich diese Karte anstatt 2 einzelne R9 Furys nehme?? Mikroruckler haben doch sicher beide oder???
 
Weiß man schon ob hier Fiji pro- oder Fiji XT-GPUs verwendet werden? Beide haben ja von Haus aus mehr als 7 TFlop jeweils, also müssen die GPUs im Takt reduziert sein, auch wegen der Leistungsaufnahme. Sonst käme man ja auf 15, 16 TFlop.

Die Karte wäre eigentlich recht interessant, wenn da nicht die 4GB VRAM wären.
 
Die Leistungsaufnahme der Karte liegt dabei ungefähr bei 375 Watt. Im Vergleich dazu wartet die Radeon R9 295X2 mit einem Single-Precision-Compute von 11,5 TFLOPS auf. Hierbei liegt die TDP jedoch bei circa 500 Watt. Die Energieeffizienz der Gemini bezüglich Rechenleistung ist also ungefähr 40 Prozent höher als bei der R9 295X2.

Äh... Und wenn die Gemini nur 250 Watt verbraucht dann ist sie 80% effizienter als die 295X2 obwohl sie immer noch 50% des Stroms verbraucht ? Eure 40% Angabe haut nicht hin, liebes PCGH Team.
 
Hat es für mich einen Vorteil ausser das ich Strom spare wenn ich diese Karte anstatt 2 einzelne R9 Furys nehme?? Mikroruckler haben doch sicher beide oder???

Von meinem Gefühl her Hast du diese Vorteile :

-Bessere Kühlung
-Günstiger
-Zwei Single GPU´s lassen sich besser Verkaufen wie eine Dual
-Wenn eine Davon Defekt geht, dann hast du noch eine drin.

Nachteile :

-Mehr Kabelsalat
-Weniger Platz


Das war es schon so ungefähr :D


Man sollte beachten das bei der Fury 2 sich etwas ändern wird.
 
Äh... Und wenn die Gemini nur 250 Watt verbraucht dann ist sie 80% effizienter als die 295X2 obwohl sie immer noch 50% des Stroms verbraucht ? Eure 40% Angabe haut nicht hin, liebes PCGH Team.

Doch, das haut sehr wohl hin, lieber Pumpi.

Radeon R9 295X2: 11,5 TFLOPS / 500W = 0,023 TFLOPS/W
Gemini: 12 TFLOPS / 375W = 0,032 TFLOPS/W

0,032/0,023 = 1,40 (gerundet)

oder anders gesagt die Gemini ist 40% effizienter
(bei einem Wert von 1 wäre sie genauso effizient)

MFG
 
Problem an der Sache: Damit diese Karte ihre Power aussopielen könnte braucht man Auflösungen von UHD und darüber, da bringt die theoretische Power richtig was. Blöd nur, wenn die 4GB vRAM dann schon lange alle sind. :ka:
Nicht. Höhere Auflösungen kosten eine Handvoll kBytes VRam. Da machen 4 oder 6 GB keinen nennenswerten Unterschied. Oder 3,5 oder 4. Texturen und ob eine Engine über ein funktionierendes Streaming verfügt, sind da alles.

Richtig, jetzt hat AMD mal was gutes, aber der HBM 1 Speicher limitiert wieder in der größe. 4 GB Ram sind einfach zu wenig. Wenn ich GTA5 in WQHD Spiele hab ich schon gute 5Gb Ram verbraucht XD

Und wenn Du GTA5 mit einer 4GB-Karte spielst werden 3-4 GB vollgeladen, bei einer 3,5GB Karte 3-3,5. Auch 12GB sind problemlos vollstopfbar. Zu der Frage, ob exzessives VRam-Chaching praktisch irgendetwas für die Spielbarkeit, Frametimes o.ä. bringt, ist damit aber überhaupt nichts sinnvolles gesagt. :rolleyes:
 
Zuletzt bearbeitet:
In Rise of the Tomb Raider sind auch meine 6GB VRAM durchgehend bis zum letzen MB voll. Viele Spiele (ROTTR, Ark, Lords of the Fallen, Black Ops 3, GTA V, usw) cachen den Speicher einfach voll ohne negative Performance Probleme.
 
Nicht. Höhere Auflösungen kosten eine Handvoll kBytes VRam. Da machen 4 oder 6 GB keinen nennenswerten Unterschied. Oder 3,5 oder 4. Texturen und ob eine Engine über ein funktionierendes Streaming verfügt, sind da alles.
Die Rechnung würde ich gern mal sehen. Es ist ja nicht getan mit einer 32-Bit-RGBA-Oberfläche – da wären es in der Tat nur wenige Megabyte (immer noch ein paar Größenordnungen über der Handvoll kBytes).

In Rise of the Tomb Raider sind auch meine 6GB VRAM durchgehend bis zum letzen MB voll. Viele Spiele (ROTTR, Ark, Lords of the Fallen, Black Ops 3, GTA V, usw) cachen den Speicher einfach voll ohne negative Performance Probleme.

Was auch vollkommen sinnvoll ist. Dasselbe „Problem“ gab es doch schon bei der Markteinführung von Windows Vista: „Himmel Hilf, es belegt ja viel mehr Speicher als Windows XP - Vista ist voll unoptimiert!“ hieß es da vielerorten. Doch wozu brauche ich viel RAM? Doch um Transfers von der Festplatte möglichst zu vermeiden und da ist (spekulatives) Caching das Mittel der Wahl. Wurden die falschen Daten gecached, wird's im Bruchteil der Zeit wieder freigegeben, die es dauert, auch nur die erste Byteline von der Festplatte nachzufüllen. Dasselbe Spielchen mit dem Grafikspeicher.

Darum sind übrigens auch Grafikspeicherbelegungsmessungen mit „High-GiB-Modellen“ nur arg begrenzt sinnvoll. Diese zeigen nur, was ein Spiel oder eine Anwendung gern belegen würde, wenn es dürfte. Nicht, was es braucht um gut zu performen.
 
Zuletzt bearbeitet:
Nicht. Höhere Auflösungen kosten eine Handvoll kBytes VRam. Da machen 4 oder 6 GB keinen nennenswerten Unterschied. Oder 3,5 oder 4. Texturen und ob eine Engine über ein funktionierendes Streaming verfügt, sind da alles.

Da sprichst du einen sehr interessanten Punkt an. Es gilt heute als "Allgemeinwissen", dass der VRAM-Verbrauch mit der Auflösung stark ansteigt - das liest man an jeder Ecke. Ich frage mich aber schon immer, wieso das angeblich so sein soll...

Was liegt denn alles im VRAM? Da haben wir in erster Linie Unmengen an Texturen in verschiedenen Mipmap-Stufen. Die belegen 95% des Gesamtverbrauches. Die Auflösung der Texturen hängt aber nur von den Settings im Menü ab ("Texturqualität"), nicht jedoch von der Bildschirm-Auflösung. Als nächstes wären dann die Geometrie-Daten dran (Vertex Buffers, Tessellation Buffers etc.). Die sind klein im Vergleich zu den Texturen (vielleicht 100 MiB insgesamt in einem sehr polygonreichen Spiel), und auch deren Größe ist absolut unabhängig von der Auflösung. Zu guter Letzt bleiben dann noch der Front- und der Backbuffer für's Rendering, sowie der Z-Buffer. Deren Größe ist in der Tat von der Auflösung abhängig. Auf FullHD hat ein solcher Puffer eine Größe von 1920*1080*4 = 8 MiB. Auf 4K-Auflösung sind es 32 MiB. Es gibt i.d.R. drei dieser Buffer (Front-, Back-, Z-Buffer). Das heißt, man würde auf 4K Auflösung genau 72 MiB mehr an VRAM verbrauchen als auf FullHD :)

Anscheinend ist es ja nicht so, und meine Betrachtung stimmt irgendwie nicht. Ich würde mich freuen, wenn mir endlich mal jemand technisch fundiert erklären könnte, wieso höhere Auflösungen mehr VRAM belegen sollten :)

Die Rechnung würde ich gern mal sehen. Es ist ja nicht getan mit einer 32-Bit-RGBA-Oberfläche – da wären es in der Tat nur wenige Megabyte (immer noch ein paar Größenordnungen über der Handvoll kBytes).

Vielleicht kannst du mir ja schreiben, was genau im VRAM alles mit der Auflösung skaliert, außer den drei benannten Puffern...
 
Doch, das haut sehr wohl hin, lieber Pumpi.

Radeon R9 295X2: 11,5 TFLOPS / 500W = 0,023 TFLOPS/W
Gemini: 12 TFLOPS / 375W = 0,032 TFLOPS/W

0,032/0,023 = 1,40 (gerundet)

oder anders gesagt die Gemini ist 40% effizienter
(bei einem Wert von 1 wäre sie genauso effizient)

MFG

Die 295x kann nicht mehr als 450 Watt verbrauchen.
AMD hat das veröffentlicht und Thomshardware hat das ganze mit Furmark messungen nochmal bestätigt.
 
Vielleicht kannst du mir ja schreiben, was genau im VRAM alles mit der Auflösung skaliert, außer den drei benannten Puffern...

Na zum Beispiel alle intermediären Puffer, wie zum Beispiel der G-Buffer eines deferred Renderers/Shaders, der Engine, die oft – nicht immer – in Gleitkommagenauigkeit abgelegt sind, dazu gern auch die durch Multisample-AA aufgeblähten Bildpuffer.

Zum Beispiel belegt allein der G-Buffer in FP16 für ein 4-MRT pro Pixel 64 Byte. Für Full HD sind das 132.710.400 Byte, für Ultra HD schon 530.841.600, ergo 506,25 MiByte. Allein für den G-Buffer.
 
Na zum Beispiel alle intermediären Puffer, wie zum Beispiel der G-Buffer eines deferred Renderers/Shaders, der Engine, die oft – nicht immer – in Gleitkommagenauigkeit abgelegt sind, dazu gern auch die durch Multisample-AA aufgeblähten Bildpuffer.

Zum Beispiel belegt allein der G-Buffer für ein 4-MRT pro Pixel 64 Byte. Für Full HD sind das 132.710.400 Byte, für Ultra HD schon 530.841.600, ergo 506,25 MiByte. Allein für den G-Buffer.

Ahh, Ok. Mit Deferred Rendering habe ich mich noch nicht beschäftigt. Als ich damals viel mit 3D-Engine-Entwicklung befasst war (vor 12 Jahren, zu frühen DirectX 9-Zeiten) war das wohl noch nicht so in Mode :) Danke für die Information, dann muss ich mich mal wieder mit modernen 3D-Pipelines beschäftigen ;)
 
AMDs Maßnahme schnell noch die alten GPUs raus zuhauen bevor sie keiner mehr will. Gab es nicht auch Gerüchte um eine NV Karte mit 2 Gpus
komischer Zufall. Wenn dann sollten sie die Preise ihrer High-End Karten senken wenn sie schon genau wissen das in 6 Monaten sie keiner mehr kaufen wird.
 
AMDs Maßnahme schnell noch die alten GPUs raus zuhauen bevor sie keiner mehr will. Gab es nicht auch Gerüchte um eine NV Karte mit 2 Gpus
komischer Zufall. Wenn dann sollten sie die Preise ihrer High-End Karten senken wenn sie schon genau wissen das in 6 Monaten sie keiner mehr kaufen wird.

Pascal wurde wahrscheinlich auf 2H verschoben, AMD hatte schon vor Nvidia eine Dual Karte angekündigt und während der letzten Präsentation wurde ein Stück Holz seitens Nvidia gezeigt was Pascal sein sollte
 
AMDs Maßnahme schnell noch die alten GPUs raus zuhauen bevor sie keiner mehr will. Gab es nicht auch Gerüchte um eine NV Karte mit 2 Gpus
komischer Zufall. Wenn dann sollten sie die Preise ihrer High-End Karten senken wenn sie schon genau wissen das in 6 Monaten sie keiner mehr kaufen wird.

Die FuryX2 bzw. Gemini war schon länger angekündigt und sollte eigentlich schon Ende letzten Jahres erscheinen und ja es gab Gerüchte zu einer Dual GPU Karte von Nvidia. Da ist aber noch nichts bestätigt.
 
Zuletzt bearbeitet:
Zurück