Hitman (2016): Asynchronous Compute mit DirectX 12 - nur bei Radeons?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Hitman (2016): Asynchronous Compute mit DirectX 12 - nur bei Radeons?

AMD hat angekündigt, dass Hitman (2016) das DirectX-12-Feature Asynchronous Compute unterstützen wird. Dabei handle es sich um die bisher beste Umsetzung dieser Technologie, wodurch die AMDs GCN-Radeons besser ausgelastet werden. Die Pressemitteilung suggeriert, dass die Funktion bei Nvidia deaktiviert wird.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Hitman (2016): Asynchronous Compute mit DirectX 12 - nur bei Radeons?
 
bis das Ding komplett ist mit allen Episoden wirds bestimmt auch mit NVIDIA klappen dann. :D Häppchen kaufe Ich ungern. Life is strange habe ich auch jetzt erst im Sale die Complete Edition geholt mit allen Episoden. ;)
 
Nun, die Frage ist halt, was Async Compute bei Nvidia Karten grundsätzlich bringen würde, würden sie es Hardwareseitig unterstützen.

Grundsätzlich wird die GPU dadurch ja soweit ich das verstehe besser ausgelastet. Aber genau dieses Problem haben AMD Karten in vielen Spielen. Sie werden nicht vollständig ausgelastet, die Einheiten bekommen somit erst bei höheren Auflösungen was zu tun, was dann quasi die Holzhammer Methode darstellt, da man die Auslastung erst erzwingen muss.

Nvidia hat dieses Problem aber nicht in der Form. Die Karten werden auch schon in Full HD sehr gut ausgelastet und setzen die leistung gut in entsprechend höhere Frameraten um und verlieren entsprechend in höheren Auflösungen logischerweise etwas mehr FPS, als AMD.

Ich würde daher fast davon ausgehen, dass Nvidia Karten von diesem Feature, würden sie es unterstützen, nur bedingt profitieren würden, da sie schon weitestgehend optimal ausgelastet werden. (Zumindest suggerrieren das sämtliche DX11 benchmarks mit unterschiedlichen Auflösungen und dem Vergleich mit AMD)
Wahrscheinlich wird AMD jetzt in Titeln mit Async Compute den relativen performancegewinn zu Nvidia, den sie in 1440p und 4K Auflösungen erreichen, auch in 1080p erreichen, da die Karten eben schon von Anfang an voll ausgelastet werden und nicht erst mit höheren Auflösungen.

Prinzipiell scheint Async Compute wohl auch nur einen Effekt zu erzielen, der wohl am ehesten mit SMT bei Intel CPUs vergleichbar ist. Ein effizienterer Code der quasi "das selbe in weniger Arbeitsschritten" ermöglicht oder einen Softwareseitigen Flaschenhals beseitigt resultiert daraus ja nicht. Es ist vereinfacht gesagt "nur" eine bessere Auslastung von GPUs möglich.

So verstehe ich das zumindest. Ihr könnt mich gerne korrigieren, wenn das Unsinn ist.
 
Der mögliche Performancegewinn Nvidia-Architekturen lässt sich nur überhaupt nicht abschätzen, weil die bisher vorhandenen Architekturen (Maxwell und älter) einen context switch von graphics zu compute abwarten müssen und dadurch mögliche Performancegewinne wieder zunichte machen.
Dass die Hardware nicht die nötige Funktionalität besitzt, um von Async Compute zu profitieren, heißt noch lange nicht, dass es nicht Leistung zu gewinnen gäbe. Eine solche Annahme ist zu diesem Zeitpunkt und mit der gegebenen Faktenlage einfach unfundiert.
 
Dass die Hardware nicht die nötige Funktionalität besitzt, um von Async Compute zu profitieren, heißt noch lange nicht, dass es nicht Leistung zu gewinnen gäbe. Eine solche Annahme ist zu diesem Zeitpunkt und mit der gegebenen Faktenlage einfach unfundiert.
Seite 23:
https://software.intel.com/sites/de...ndering-with-DirectX-12-on-Intel-Graphics.pdf

Das sieht bei Nvidia mit hoher Wahrscheinlichkeit genau so aus.

Letztendlich ist das nur eine Ausführungsstruktur.
Intel und Nvidia führen es durch nur einen Hardware-Scheduler eben so aus, wie sie es ansonsten auch ausführen würden.
Bei AMD kann unter DX12 der Treiber für die ACEs jetzt verständliche Anweisungen generieren.
 
naja nvidia braucht das ja auch nicht da die mit dx 11 schon so schnell sind wie die radeons bei dx 12^^
Ich glaube du missverstehst das.
Mit DX 12 könne man viel mehr Objekte darstellen als mit dx11. Gar kein Vergleich. Und wenn die DX12-Maxwellkarten das nicht können, ist das für mich Betrug!
Auch wenn Sie nur zum teil DX12 Kompatibel sind, die wohl wichtigste Funktion Asynch.Compute können die neuen Nvidia Karten nicht.
Deshalb war es wohl meine letzte NV Karte Gewesen.
:daumen2:
 
Und sind Nvidia Karten unter DX12 meilenweit hinter AMD, weil Async Compute nicht in der gleichen Art und Weise unterstützt wird?
 
Um das zu beurteilen bräuchte man etwas mehr als ein einziges halbfertiges Spiel mit DX12-Unterstützung. Aber sie müssten gar nicht hinten liegen, selbst wenn sie unter DX12 gleichauf wären (zb 980Ti vs Fury X), dann wäre das für Nvidia eine schlechtere Situation als die jetzige mit DX11.
 
So sieht es aus m4xw0lf . Der Vorsprung wäre weg und darum denke ich auch das bei ark dx 12 zurück gehalten wird. Bei tomb raider bin ich mir nicht sicher .
 
Um das zu beurteilen bräuchte man etwas mehr als ein einziges halbfertiges Spiel mit DX12-Unterstützung. Aber sie müssten gar nicht hinten liegen, selbst wenn sie unter DX12 gleichauf wären (zb 980Ti vs Fury X), dann wäre das für Nvidia eine schlechtere Situation als die jetzige mit DX11.
Natürlich braucht man mehr als ein Spiel, weswegen es auch unsinnig ist da eine Empörung zu schieben, weil Nvidia nicht davon profitiert.
Und natürlich ist es gerade für die Radeons gut, aber das ist so ein Schwachsinn zu denken, dass Nvidia seine Finger in fast jedes Studio reinbohrt und das ganze um Monate verzögert.
Als ob das so ein Ultra-Mafia Verein mit unendlichen Geldressourcen ist, wo AMD und Intel überhaupt gar nicht ankommen können.
Doch, können sie, wie Nvidia haben auch die anderen vereinzelte ISV-Deals und Wunder oh Wunder, die lassen auch auf sich warten.

Der Vorsprung wäre weg und darum denke ich auch das bei ark dx 12 zurück gehalten wird. Bei tomb raider bin ich mir nicht sicher .
Ja, dass ist natürlich die wahrscheinlichste Option, nicht das der DX12 Pfad noch als experimentell unter der UE4 von Epic deklariert ist und zu dem Zeitpunkt noch alle mögliche Komplikationen auftreten konnten.
Nvidia geht da einfach hin, sagt hier Closed-Library müsst ihr Nutzen, hier Marketing Deal und ach ja, DX12 ist für paar Monate verboten.
 
Locuza
Mal ganz ehrlich, klingt das soo doof? Bei ark sollte der schon 3 mal kommen. Da kam der Mist doch erst raus das nv das so nicht kann. Und ja nvidia hat schon genug getan das man dabei an sowas denkt .
 
Na hoffendlich kommt kein zusätzlicher Schalter in das Optionsmenü, wo man Async-Shader abschalten kann. Dann seh ich mir schon die "phöse" Begründung beim Benchen jenes abzuschalten, um Gleichstand zu schaffen. Allerdings ist es hier anders als bei GameWorks-Effekten, da Asyn ja ein Teil von DX12 ist.
 
Zurück