AMD R9 Fury X2/Gemini: Laut AMD mit 12 TFLOPS Single-Precision-Performance

Bin ich jetzt doof oder stand in dem Artikel nicht etwas von 4GB pro Kern (also insgesamt 8GB)? Das wäre schon eine Ansage. Und damit könnte man vielleicht sogar einer Titan X das Leben schwer machen.
 
Die FuryX2 soll doch zwei Kerne haben. Pro Kern 4 GB VRM heißt 2x4GB = 8 GB insgesamt. So kann man auch die GPUs runtertakten um die TDP zu reduzieren...
 
Genau dafür kommt die Karte ja auch auf den Markt ;) Es ist ja kein Zufall, dass sie nahezu zeitgleich mit den ersten VR-Brillen auf den Markt kommen wird (ebenso wie Nvidias Dual-GPU-Karte).

Ok, wieder was gelernt. Es ist klar, das bei dem ganzen Hype um die VR Brillen kein Grafikkarten Hersteller es sich leisten kann, keine Exklusiv-Karte dafür raus zubringen. Vor allem ist so was relativ günstiger zu entwickeln als einen völlig neuen Chip auf den Markt zu bringen (wäre zwar cooler, aber deswegen werden keine Roadmaps abgeändert).

Und ja bei Crossfire und SLI wird das Bild soweit ich weiß in der Mitte geteilt und jede Grafikkarte berechnet für sich "ihren" Teil des Gesamtbildes. Aber man verliert dadurch effektiv Leistung (20-30%?) aufgrund des Zusammenführens des Bildes.
 
Na zum Beispiel alle intermediären Puffer, wie zum Beispiel der G-Buffer eines deferred Renderers/Shaders, der Engine, die oft – nicht immer – in Gleitkommagenauigkeit abgelegt sind, dazu gern auch die durch Multisample-AA aufgeblähten Bildpuffer.

Zum Beispiel belegt allein der G-Buffer in FP16 für ein 4-MRT pro Pixel 64 Byte. Für Full HD sind das 132.710.400 Byte, für Ultra HD schon 530.841.600, ergo 506,25 MiByte. Allein für den G-Buffer.

Macht dann zusammengefasst ein Delta von 0,4 bis 0,5 GB über alles von FullHD auf 4k. Mit heavy AA vielleicht noch etwas mehr. Das sind jedenfalls deutlich weniger, als die 4GB VRam oder mehr, die hier mancher für hohe Auflösungen für notwendig hält. Oder fehlt noch etwas? Ansonsten würde ich sagen, nichts, womit ein passables Streaming nicht in der Regel umgehen könnte.
 
Und ja bei Crossfire und SLI wird das Bild soweit ich weiß in der Mitte geteilt und jede Grafikkarte berechnet für sich "ihren" Teil des Gesamtbildes. Aber man verliert dadurch effektiv Leistung (20-30%?) aufgrund des Zusammenführens des Bildes.

Fast, es gibt bzw. gab verfahren da haben sich beide GPU´s das Bild in bestimmte Fragmente bzw. Teile aufgeteilt und diese dann für sich berechnet und das Bild wurde dann zusammengesetzt und zum Monitor geschickt.
Dies konnte unterschiedlich geschehen, ob es nun ein bestimmtes Raster war, das Bild oben und unten oder links geteilt wurde, war je nach Verfahren unterschiedlich.

Heutzutage trifft man soweit ich weiß hauptsächlich auf AFR, (Alternate Frame Rendering) dieses wurde damals von ATI für die Rage Fury Maxx entwickelt um die Last auf mehrere GPU´s zu verteilen.
Das bedeutet das jede GPU für sich ein Bild rendert und dieses losschickt (ggf. wird es kurz im zwischenspeicher gehalten um auf die andere GPU zu warten).
Dabei ist aber das große Problem das nicht beachtet wird das die Frames unterschiedliche komplexitäten aufweisen und es so länger oder kürzer dauert diese zu rendern.
Im Endeffekt kommen dabei die uns bekannten Mikroruckler, welche uns ein "ruckeliges" Bild bei hohen FPS Raten vortäuschen, zustande :)

Und ja es kommt zu Leistungsverlust bei meheren Grafikkarten, einfach eine dazustecken und hoffen man hat 2x soviele FPS geht leider nicht.
Da spielen Treiber und co eine nicht unbedeutende Rolle, denn Spiel und Treiber müssen natürlich wissen was vor sich geht :D
Auch wenn man widerrum durch AFR den höchsten Leistungsgewinn hat... der widerrum zu Mikrorucklern führt.
 
Zuletzt bearbeitet:
Ok, wieder was gelernt. Es ist klar, das bei dem ganzen Hype um die VR Brillen kein Grafikkarten Hersteller es sich leisten kann, keine Exklusiv-Karte dafür raus zubringen. Vor allem ist so was relativ günstiger zu entwickeln als einen völlig neuen Chip auf den Markt zu bringen (wäre zwar cooler, aber deswegen werden keine Roadmaps abgeändert).

Und ja bei Crossfire und SLI wird das Bild soweit ich weiß in der Mitte geteilt und jede Grafikkarte berechnet für sich "ihren" Teil des Gesamtbildes. Aber man verliert dadurch effektiv Leistung (20-30%?) aufgrund des Zusammenführens des Bildes.

aufgrund des Kopierens und Synchronisieren, obwohl man wahrscheinlich viel mehr Performance herausholen könnte man nicht das Bild in der Mitte Teilen würde und einfach die Karten mit Compute, Graphik Berechnungen auslasten um so Latenzen zu reduzieren . da wird DX12 hoffentlich mehr bringen als jetzt, sagt ja keine das beide Karten rendern müssen gleichzeitig ?
 
Und ja bei Crossfire und SLI wird das Bild soweit ich weiß in der Mitte geteilt und jede Grafikkarte berechnet für sich "ihren" Teil des Gesamtbildes. Aber man verliert dadurch effektiv Leistung (20-30%?) aufgrund des Zusammenführens des Bildes.

Stark vereinfacht kann man das so ausdrücken, ja. Das große Problem bei dieser Technik ist, dass verschiedene Bildbereiche unterschiedliche Anforderungen an das Rendern stellen. Wenn z.B. der Bildbereich für Grafikkarte 1 nur eine weiße Wand enthält, der Bildbereich für Karte 2 aber einen in die Ferne schweifenden Blick mit hunderten Bäumen und Büschen, dann wird Karte 2 für ihren Teil wesentlich länger brauchen als Karte 1. Das Bild kann aber erst angezeigt werden, wenn beide Teile fertig sind. Also wartet Karte 1 im Idle, bis der andere Teil auch endlich kommt. Das führt natürlich zu einer schlechten Effizienz...

Wenn man für VR-Anwendungen jede Karte das Bild eines Auges berechnen lässt, kann man annehmen, dass die Bilder für die Augen nahezu gleiche Komplexität aufweisen (die beiden 3D-Halbbilder unterscheidet sich ja kaum - die Augen sind ja nicht sehr weit voneinander entfernt). Dementsprechend wird dann dieses Problem so nicht auftreten :)
 
Stark vereinfacht kann man das so ausdrücken, ja. Das große Problem bei dieser Technik ist, dass verschiedene Bildbereiche unterschiedliche Anforderungen an das Rendern stellen. Wenn z.B. der Bildbereich für Grafikkarte 1 nur eine weiße Wand enthält, der Bildbereich für Karte 2 aber einen in die Ferne schweifenden Blick mit hunderten Bäumen und Büschen, dann wird Karte 2 für ihren Teil wesentlich länger brauchen als Karte 1. Das Bild kann aber erst angezeigt werden, wenn beide Teile fertig sind. Also wartet Karte 1 im Idle, bis der andere Teil auch endlich kommt. Das führt natürlich zu einer schlechten Effizienz...

Wenn man für VR-Anwendungen jede Karte das Bild eines Auges berechnen lässt, kann man annehmen, dass die Bilder für die Augen nahezu gleiche Komplexität aufweisen (die beiden 3D-Halbbilder unterscheidet sich ja kaum - die Augen sind ja nicht sehr weit voneinander entfernt). Dementsprechend wird dann dieses Problem so nicht auftreten :)

Muss da mal einhaken. Die SLI Funktion, wie du/ihr sie beschreibt ist schon etwas länger Vergangenheit. Euere Rede ist von Split Frame Rendering. Diese Technik nutzt man heute nicht mehr. Wurde ja schon richtig erleutert, mit den verschieden zugewiesenen Bildbereichen. Die heutige Technik welche in SLI bei den meißten Spiele angewandt wird ist AFR (Alternative Frame Rendering). Dabei wird Frame1 von einer Karte berechnet und das darauf folgende Bild von der anderen Karte. Quasi berechnen die Karten immer Abwechselnd die Bilder. Damit wurde eine stabilere Frame Rate erreicht! Einfluss hat das ebenfalls keinen auf die VR-Brillen^^... Nur mehr Leistung!

Ich habe schon zig SLI Systeme bisher gefahren (Quad 7950GX2, 2 und 3wege 8800GTX, 2 und 3 wege 280GTX, 2 und 3 wege GTX 480 und 2 wege GTX 680 (demnächst Pascal :))) und bin auch mittlerweile soweit, das man sagen kann das die AFR Technik soweit ausgereift ist, jedoch immernoch Schwächen hat, welche man mit der Technik nicht beseitigen kann (keine 100% mehr Leistung!, gleich bleibender Speicher, obwohl man Grafikkarten dazusteckt). Mal sehen ob NVLink mit Pascal im Privatbereich kommt und ob es hier neue Möglichkeiten gibt!

Grüße LK
 
Muss da mal einhaken. Die SLI Funktion, wie du/ihr sie beschreibt ist schon etwas länger Vergangenheit. Euere Rede ist von Split Frame Rendering.

Ahh, Ok, das wusste ich nicht. Mir war klar, dass meine Beschreibung für SFR gilt, und dass es auch noch AFR gibt. Aber ich dachte irgendwie, SLI und Crossfire würden noch auf SFR setzen. Gerade mal schnell nachgelesen - du hast Recht, heute kommt größtenteils AFR zum Einsatz :) Dann sind meine obigen Argumente natürlich mehr oder weniger hinfällig.
 
Muss da mal einhaken. Die SLI Funktion, wie du/ihr sie beschreibt ist schon etwas länger Vergangenheit. Euere Rede ist von Split Frame Rendering. Diese Technik nutzt man heute nicht mehr. Wurde ja schon richtig erleutert, mit den verschieden zugewiesenen Bildbereichen. Die heutige Technik welche in SLI bei den meißten Spiele angewandt wird ist AFR (Alternative Frame Rendering). Dabei wird Frame1 von einer Karte berechnet und das darauf folgende Bild von der anderen Karte. Quasi berechnen die Karten immer Abwechselnd die Bilder. Damit wurde eine stabilere Frame Rate erreicht! Einfluss hat das ebenfalls keinen auf die VR-Brillen^^... Nur mehr Leistung! K

Leider nicht ganz so Richtig, das SFR ist eine neue Funktion in DX12 und soll so denn gigantischen RAM Verbrauch verbessern.
Denn bei SFR kann man den vollen RAM nutzen (z.B. 2x8 GB= 16GB), bei AFR hat man nur einfachen RAM, da jede Karte für sich arbeitet (z.B. 2x8 GB = 8GB).
 
Ahh, Ok, das wusste ich nicht. Mir war klar, dass meine Beschreibung für SFR gilt, und dass es auch noch AFR gibt. Aber ich dachte irgendwie, SLI und Crossfire würden noch auf SFR setzen. Gerade mal schnell nachgelesen - du hast Recht, heute kommt größtenteils AFR zum Einsatz :) Dann sind meine obigen Argumente natürlich mehr oder weniger hinfällig.

DX11 kann soweit ich weiß gar kein SFR mehr.
 
Muss da mal einhaken. Die SLI Funktion, wie du/ihr sie beschreibt ist schon etwas länger Vergangenheit. Euere Rede ist von Split Frame Rendering. Diese Technik nutzt man heute nicht mehr. Wurde ja schon richtig erleutert, mit den verschieden zugewiesenen Bildbereichen. Die heutige Technik welche in SLI bei den meißten Spiele angewandt wird ist AFR (Alternative Frame Rendering). Dabei wird Frame1 von einer Karte berechnet und das darauf folgende Bild von der anderen Karte. Quasi berechnen die Karten immer Abwechselnd die Bilder. Damit wurde eine stabilere Frame Rate erreicht! Einfluss hat das ebenfalls keinen auf die VR-Brillen^^... Nur mehr Leistung!

Ich habe schon zig SLI Systeme bisher gefahren (Quad 7950GX2, 2 und 3wege 8800GTX, 2 und 3 wege 280GTX, 2 und 3 wege GTX 480 und 2 wege GTX 680 (demnächst Pascal :))) und bin auch mittlerweile soweit, das man sagen kann das die AFR Technik soweit ausgereift ist, jedoch immernoch Schwächen hat, welche man mit der Technik nicht beseitigen kann (keine 100% mehr Leistung!, gleich bleibender Speicher, obwohl man Grafikkarten dazusteckt). Mal sehen ob NVLink mit Pascal im Privatbereich kommt und ob es hier neue Möglichkeiten gibt!

Grüße LK

Danke für die Erklärungen Leute!
 
4 GB Vram ? Peinlich...

D.h. für 4K-Auflösung kann man das Teil fast schon vergessen, oder ist sie nicht spezell für derartige Rechenanforderungen gedacht ?
 
Zurück