Ashes of the Singularity Beta - Benchmark 2.0 mit DirectX 12, Asychronous Compute und pikanten Ergebnissen

Bis jedoch DX12 greift
Was genau soll das bedeuten?


Naja ich würde erstmal die Beine stillhalten, da es noch keinen Treiber von Nvidia gibt
Es gibt noch keinen DX12-Treiber?


Das ist nett, jedoch noch nichts weltbewegendes. Es ist entweder nicht der "Heilige Gral", wie viele immer vermuten, oder AMD muss ihre Treiber dahingehend noch anpassen.
Die Effizienz steigt dadurch etwas, mit DX12 ist AMD da nicht mehr so extrem weit von NVIDIA entfernt.


Ist nur die Frage, ob die Nvidia-Karten in einem DX12 Gameworks-Spiel besser dastehen.
Davon sollte man ausgehen, sie werden wohl keine Async Shader nutzen!
 
Die addiert sich angeblich unter DX12... das heißt 4 GiByte + 4 GiByte = 8 GiByte (ich bin mir fast sicher, dass stimmt nicht so ganz, ein bisschen PR ist immer, aber zumindest tendenziell ist da was dran).

@Locuza: War Anandtech... das ist sicher auch noch mal einen Blick wert - aber das ist insgesamt grad so viel Input, dass man dass selbst in Kooperation mit zwei Redakteuren nicht flott genug abgearbeitet bekommt - wir bleiben aber sicher dran :)

Gruß,
Phil
Das 4 GB + 4 GB = 8 GB Zeug ist starkes Marketing, du kannst nicht 100% aller Ressourcen unabhängig halten und gute Resultate erhält man auch nur, wenn sich der Entwickler entsprechend viele Gedanken gemacht hat.
So wie Ashes AFR nützt, bringt es natürlich gar nichts und wenn es dann Spiele gibt die vereinzelt den Inhalt im Speicher nicht duplizieren, lohnt sich das natürlich nur für die bereitwilligen Käufer.
Eine Nische in einer Nische.

Und bezüglich Radeon Master + Nvidia Slave:
Kollock schrieb:
In terms of why there are differences, it's hard to say exactly. The primary GPU has some additional responsibilities in order to the handle the present. The present occurs on a separate queue that has to pre-empt the main rendering for a ms or 2 to get the frame from the other GPU on the display and deal with the upload of the shared memory resource. Usually what I see in GPU view with 2 identicle GPUs is that the second GPU isn't maxed out because it has a little less work to do. For this reason, if you have an asymmetry setup, I'd recommend always putting the faster GPU as the primary.
[AnandTech] GeForce+Radeon: Previewing DirectX 12 Multi Adapter with Ashes of the Singularity - Page 6

Es wäre möglich das beim pre-empting Radeons besser zurecht kommen und deswegen generell als Master verwendet werden sollten, außer der Performance-Unterschied ist extrem.

Interessant, DX12 entfernt den CPU Overhead bei AMD gänzlich und AMD Karten können ihre starke Rohleistung auf die Straße bringen.
Vielleicht wird meine nächste Karte ein Polaris, wer weiß.:)
Am Ende profitiert Polaris von der ganzen Sache weniger, als die aktuellen Radeons. :D

Asynchronous Compute ist doch kein Gameworks in rot ;)
Das Schlimmste was es tun kann ist Nichts - und das tut es bei Nvidia.
Es kann auch bisschen Performance kosten.

# Intel, für die grafischen Außenseiter, weil ich möchte wissen wie Intel abschneidet.
Intel sollte auch nicht davon profitieren, aber bei ihnen vermute ich auch weniger oder gar kein Verlust vs. Nvidia bei on.
 
AMD arbeitet eng mit den Devs von Ashes of Singularity zusammen, ebenso mit den Devs von Hitman. Interessant wären Werte von einem "neutralen" Spiel, aber die werden wir so schnell wohl nicht sehen. Bei so ziemlich jeden kommenden DX12 Titel hat immer einer der IHVs seine Finger im Spiel.

Ehrm.. Ich hab jetzt nicht nachgeguckt, aber kommen solche Kommentare auch, wenn es ein TWIMTBP Titel rauskommt? Normalerweise wird dann doch das Ende von AMD bescheinigt (nicht von dir, nur im Allgemeinen).
Ich habe deinen Kommentar nur genommen, da es der Erste war, der auf die Thematik IHV und deren Kooperation mit Developern abzielt.

Ansonsten schön zu sehen, dass DX12 doch mehr zu bringen scheint, als von einigen behauptet. Wie schon jemand schrieb, mir sind 2 gleichwertige Mitspieler (Performancetechnisch) lieber als ein "Alleinherrscher".
Jetzt muss AMD noch das Marketing verbessern bzw, Marktanteile zurückkriegen, dann bin ich vollauf zufrieden. Also los los.. lasst uns die Regale leerkaufen, wenn Polaris da ist :ugly:
 
Hallo, ich als langjähriger SLI/CrossFire nutzer (ich habe per Treiber - Gemorkel schon 2GTX470 im SLI mit einer AMD7990 kombiniert), finde diese Entwicklung bei DX12 extrem interessant. Ich würde gerne wissen, ob diese Funktion auch Vorteile bei einer 7990 bringen könnte, bekannter weise sind auf der Karte 2x 3GB Vram verfügbar, was bei aktuellen Spielen in Kombination mit hohen Auflösungen wie 3440x1440 ja leider etwas knapp wird. Wäre dank diesem neuen Render Modus dann die 2x3GB als 6GB ansprechbar, also der effektiv nutzbare Speicher quasi verdoppelt?
 
Uuiiiii was geht denn hier ab? Erst Division, dann Hitman und jetzt das hier?

Fury X 40% vor einer gut übertakteten 980 Ti, alles klar. Auch noch in Full HD. Da hat nVidia wohl noch ein wenig Arbeit beim DX12 Treiber vor sich.....

Wobei ich mir denke, vielleicht liegt es gar nicht am Treiber sondern einfach an einer extremen Auslastung der AMD-Karten? Ich meine, die Fury X kann theoretisch 8,6 Tflop/s, die 980 Ti kommt nur auf ca. 6Tflop/s. Vielleicht waren die Radeons bisher doch nicht wie vermutet durch das Front-End o.Ä. limitiert, sondern wirklich NUR durch eine miese DX11 Implementierung, und bei DX12 kümmert sich ja bekanntermaßen der Entwickler um die Optimierung?

Wie auch immer, schön für Radeon-Besitzer. Wenn AMD jetzt noch ähnlich gute Arbeit beim (Vulkan) Linux Treiber leistet, und Polaris wirklich gut wird, dann wechsle ich ins rote Lager...

@PCGH: Das mit FreeSync /G-Sync im hybriden GPU-Modus würde mich auch interessieren. Könnt ihr das bei Gelegenheit mal testen?
 
Die addiert sich angeblich unter DX12... das heißt 4 GiByte + 4 GiByte = 8 GiByte (ich bin mir fast sicher, dass stimmt nicht so ganz, ein bisschen PR ist immer, aber zumindest tendenziell ist da was dran).

Das war ein Gespräch zwischen Usern zum Thema bei PC Gamer:

I'm not even sure how to word this...
I own (2) gtx 690's.
They have (2) gpu's each at 2gb.
Will I be considered having 8gb with direct x12 games?
I know right now I have a bottleneck with direct x11.
So when I see a minimum 3gb required for a game with direct x12, I should be covered right?...
I guess I'll find out how well direct x12 is going to work when quantum break comes out...
No...you have 8GB VRAM total, but the way Oxide is doing things in Ashes, it will behave like four 2GB cards. Other games could choose to do things differently, but there's a massive bottleneck in pulling data from one GPU to another over the PCIe bus. At best, a 16-lane Gen3 PCIe bus would give you around 16GB/s of bandwidth. Compare that with the 384GB/s of local GDDR5 bandwidth on a GTX 690, and it's not even close.

So you can send frames or parts of frames over the PCIe bus without much difficulty (an entire 3840x2160 frame is about 33MB of data, so even at 60 FPS you're "only" using 2GB/s), but trying to access one GPU's VRAM via a second GPU is no better than trying to access data in system RAM from a CPU. An X99 rig with DDR4-2666 for example has a theoretical 85GB/s of system memory bandwidth. Not that you'd ever be able to use all that, of course, as you'd still be accessing it over the PCIe bus.

Der Argumentation zufolge wird das große Bottleneck bei Multi-GPU Lösungen immer der VRAM sein, speziell bei einer Kombination von älteren Karten mit individuell geringeren Speichergrößen. Wenn der PCIe-Bus hier technisch limitiert, kann auch DX12 keine Wunder vollbringen...

Was meinst du dazu?
 
Da hat nVidia wohl noch ein wenig Arbeit beim DX12 Treiber vor sich.....
Bei DX12 gibt es nicht viel zu optimieren.

Wobei ich mir denke, vielleicht liegt es gar nicht am Treiber sondern einfach an einer extremen Auslastung der AMD-Karten?
GCN wurde für DX12/Vulkan entwickelt.
Maxwell für DX11.
Mit Treibern hat das nichts zutun, ist eine reine Hardwareangelegenheit.
Lack of Async Compute on Maxwell Makes AMD GCN Better Prepared for DirectX 12 | techPowerUp

Vielleicht waren die Radeons bisher doch nicht wie vermutet durch das Front-End o.Ä. limitiert, sondern wirklich NUR durch eine miese DX11 Implementierung
Die serielle fütterung der GPU hat da limitiert.
 
Ehrm.. Ich hab jetzt nicht nachgeguckt, aber kommen solche Kommentare auch, wenn es ein TWIMTBP Titel rauskommt? Normalerweise wird dann doch das Ende von AMD bescheinigt (nicht von dir, nur im Allgemeinen).
Ich habe deinen Kommentar nur genommen, da es der Erste war, der auf die Thematik IHV und deren Kooperation mit Developern abzielt.
DX12 ist noch neu und die Vergleichswerte fehlen mangels Spielen. Deshalb würde ich auch fragen, wenn Nvidia jetzt an der Stelle von AMD wäre. Bei DX12 Titeln ist AMD aktuell oft vertreten, beim kommenden Hitman wurde sogar angekündigt, dass es die bisher fortschrittlichste Implementierung der Async Shader bieten wird. Wenn das Ergebnis noch eindeutiger ausfällt als aktuell bei AoS, muss irgendeine Reaktion von Nvidia kommen. Das wäre sonst pures Gift fürs Marketing, noch schlimmer als die GTX 970 Geschichte. Denn das betrifft nun alle Maxwell Besitzer.

GCN wurde für DX12/Vulkan entwickelt.
Maxwell für DX11.
Mit Treibern hat das nichts zutun, ist eine reine Hardwareangelegenheit.
Das kann man so definitiv nicht stehen lassen. Als GCN 1.0 fertig war, war von DX12 noch überhaupt keine Rede. Auch von Mantle nicht. AMD hat damals sogar offen in Interviews gesagt, dass sie nichts zu Plänen über einen DX11 Nachfolger wissen.
 
DX12 ist noch neu und die Vergleichswerte fehlen mangels Spielen. Deshalb würde ich auch fragen, wenn Nvidia jetzt an der Stelle von AMD wäre. Bei DX12 Titeln ist AMD aktuell oft vertreten, beim kommenden Hitman wurde sogar angekündigt, dass es die bisher fortschrittlichste Implementierung der Async Shader bieten wird. Wenn das Ergebnis noch eindeutiger ausfällt als aktuell bei AoS, muss irgendeine Reaktion von Nvidia kommen. Das wäre sonst pures Gift fürs Marketing, noch schlimmer als die GTX 970 Geschichte. Denn das betrifft nun alle Maxwell Besitzer.


Das kann man so definitiv nicht stehen lassen. Als GCN 1.0 fertig war, war von DX12 noch überhaupt keine Rede. AMD hat damals sogar offen in Interviews gesagt, dass sie nichts zu Plänen über einen DX11 Nachfolger wissen.

Was soll den da von Nvidia kommen außer vielleicht der Versuch die Konkurrenz künstlich zu limitieren?
 
Allen interessierten Usern würde ich übrigens mal den ausführlichen Artikel zum Thema mit sehr viel mehr Benchmarks empfehlen:

Ashes of the Singularity Beta 2 - Maximum PC

Scheinbar ist die Engine bzw. die Optimierung ziemlich crazy mit genauso verrückten Ergebnissen, vor allem, wenn man verschiedene GPUs in Multi-GPU Settings verbindet. Ich bin mir daher nicht sicher, ob man aus diesem Spiel/Benchmark so viel allgemeine Aussagen ableiten sollte, zumindest nicht, bevor es irgendwelche Vergleichswerte von anderen Spielen/Engines gibt...


Was soll den da von Nvidia kommen außer vielleicht der Versuch die Konkurrenz künstlich zu limitieren?

Eine neue Hardwaregeneration?
 
Das kann man so definitiv nicht stehen lassen. Als GCN 1.0 fertig war, war von DX12 noch überhaupt keine Rede. Auch von Mantle nicht. AMD hat damals sogar offen in Interviews gesagt, dass sie nichts zu Plänen über einen DX11 Nachfolger wissen.
Bitte nicht füttern, aber eine Sache dazu, was Roy Taylor als PR-Mann erzählt muss nicht unbedingt der Wahrheit entsprechen.
Intern bin ich mir ziemlich sicher, dass die Leute häufiger mit einander gesprochen haben.
Es ging aber vermutlich zu schleppend voran.
 
Welche Möglichkeiten gibt es hier?
Kann man eine DX12 Grafikkarte mit einem DX12 fähigen Intel HD Grafikchip bündeln?
Noch interessanter wäre ein AMD A10 Kaveri/Godavari.
 
Intern bin ich mir ziemlich sicher, dass die Leute häufiger mit einander gesprochen haben.
Es ging aber vermutlich zu schleppend voran.
Ziemlich wahrscheinlich. AMD hat sicher öfters mal bei MS angeklopft und da kam entweder keine oder nur eine vertröstende Reaktion. Das Resultat kennen wir - Mantle.
 
Zurück