DirectX 12: Maxwell soll Asynchronous Compute via CPU emulieren

Ashes of the Singularity ist ein Spiel, welches für Funder als Beta verfügbar ist.
Desweiteren sieht es so als, als ob Mirror's, Deus Ex Mankind und Rise of the Tomb Raider auf den Konsolen Async Compute verwenden.
Weitere Spiele werden dem Folgen.
Die genannten sollten noch im H1 2016 erscheinen.
Ob die PC-Umsetzungen dann auch Async Compute verwenden, ist unter Umständen aber nicht bei jedem Titel garantiert.

Bei Pascal zweifel ich bisher, ob Nvidia Async Compute umsetzten wird.
Fine-grained pre-emption ist für die Zukunft angekündigt, aber das senkt dann "nur" die Kosten dafür, effektiv Async Compute wäre es weiterhin nicht.

Alles klar, habe die Diskussion nur am Rande verfolgt. Aber diese Asynch Shaders ziehen doch mit DX12 ein oder? Diese Specs dazu sollten schon vor locker 1 Jahr raus sein. Also würde es mich wundern, wenn NV das mit Pascal nicht supportet.
 
Natürlich ärgerlich für Leute die für teures Geld ne 980/TI erworben haben und dann kann die weniger als eine viertel so teure AMD Karte. Naja wer das Geld hat für 700€ ne Graka zu erwerben der wird auch in 2 Jahren sich eh wieder ne neue Karte gönnen.
 
Alles klar, habe die Diskussion nur am Rande verfolgt. Aber diese Asynch Shaders ziehen doch mit DX12 ein oder? Diese Specs dazu sollten schon vor locker 1 Jahr raus sein. Also würde es mich wundern, wenn NV das mit Pascal nicht supportet.

GPUs werden 2-3 Jahre vor dem Erscheinen entwickelt, sollte NVidia nicht von selbst auf die Idee gekommen sein Asynchronous Shader zu unterstützen wird auch Pascal garantiert dieses Feature nicht beherrschen.
 
Natürlich ärgerlich für Leute die für teures Geld ne 980/TI erworben haben und dann kann die weniger als eine viertel so teure AMD Karte. Naja wer das Geld hat für 700€ ne Graka zu erwerben der wird auch in 2 Jahren sich eh wieder ne neue Karte gönnen.
Warum sollte ich mich ärgern? Ich habe die Karte gekauft weil ich die Leistung genau zu diesem Zeitpunkt gebraucht habe und die Karte für mich genau da das beste Angebot war. Und wenn dann mal ein Dx12 Spiel rauskommt wo die Karte nicht mehr reicht, kann ich ans Upgraden denken und mich ggf. ärgern. Jetzt habe ich eine Karte die leise und schnell genug für meine Ansprüche ist.

EDIT: Btw. finde ich auf der Webseite nur ein Logo von AMD. Da hat das ganze Theater auch irgendwie einen kleinen Nachgeschmack. Wäre dort nur das nVidia-Logo zu sehen und AMD würde schlechter abscheiden würde das hier im Forum natürlich wieder breit getreten und sonstige Verschwörungstheorien ausgepackt, wie damals bei Project Cars.
 
Zuletzt bearbeitet:
@manimani89,hat nix mit den Treibern zu tun, das ist Fiji´s Hardwareschwäche, wurde aber schon überall durchgekaut woran es hapert. Denn theoretisch sollte die Fury schon schneller sein als jede 980 Ti bzw Titan X.
Das hat auch was mit dem Treiber zu tun und mit dem Shader-Compiler für GCN.
GCN kann mit Async Compute mehr von seiner Rohleistung umsetzen, dass bedeutet aber nicht, dass ohne die Performance "so schlecht" ausfallen muss, wie sie es häufiger tut.

Aber diese Asynch Shaders ziehen doch mit DX12 ein oder? Diese Specs dazu sollten schon vor locker 1 Jahr raus sein. Also würde es mich wundern, wenn NV das mit Pascal nicht supportet.
Das Feature heißt Multi-Engine in DX12 und bietet den Programmierern die Möglichkeit mehrere Queues verschiedener Typen abzuschicken, mit verschiedener Priorität zu versehen und das ganze zu synchronisieren.
Wie die Hardware und der Treiber das umsetzt, ist dann Vendor spezifisch.
Es ist natürlich trotzt relativ "alter" Spec nicht einfach möglich die eigene Architektur so umzugestalten oder zu erweitern, dass Feature X dann optimal unterstützt wird.
 
wenn der treiber wirklich Asynchronous Compute versucht über die CPU zu emulieren, wäre das ein echter treppenwitz...

aber, NV wird das sicher klären, is bestimmt wieder nur ein 'komunikations-problem' so wie beim verkrüppelten V-RAM der 970 und damit dann für alle wieder 'garkein problem' ........

achja, nein, ich will die 970 nicht 'bashen' , aber verkrüppelte ram-anbindung bleibt verkrüppelte ram-anbindung :-) egal wie das komuniziert wurde, weshalb ich mir eine 970 auch nicht kaufen würde obwohl es sonst eine klasse karte ist.

mfg
robert
 
Viele sprechen halt immer doch wie schlecht NV mit ihren Aktionen ist und dass sie dieses "Ansehen" nicht verdienen. Das kann ja irgendwo nicht ganz passen, wenn sie solch einen Market Share haben. Und eben andersrum.

On jetzt eine Firma gute oder schlechte Aktionen bringt ist dem Kunden an sich doch egal. Es geht dem normalen Kunden rein um das Produkt und da bietet Nvidia nun mal erstklassige Ware an.
Es interessiert z.B. auch keinen wie Lee, Lewis, Versace oder andere Jeans produziert werden, das Endprodukt, die Qualität, der Preis und der Markenname ist wichtig, jedoch nicht die Hintergrundgeschichte.
 
EDIT: Btw. finde ich auf der Webseite nur ein Logo von AMD. Da hat das ganze Theater auch irgendwie einen kleinen Nachgeschmack. Wäre dort nur das nVidia-Logo zu sehen und AMD würde schlechter abscheiden würde das hier im Forum natürlich wieder breit getreten und sonstige Verschwörungstheorien ausgepackt, wie damals bei Project Cars.
Immerhin hat sich AMD zu dem Thema geäusert (bzw. zu DX12 und den Grafikkarten), während Nvidia das schweigend aussitzt ohne mal Klartext zu reden.
Bin jedenfalls von Nvidia enttäuscht und überlege ernsthaft ob meine nächste nicht eine AMD werden wird. Auch wenn ich für die Titan ne Menge Geld gezahlt habe und zufrieden bin, finde ich solche Geschäftsgebaren die Nvidia in letzter Zeit abgezogen hat alles andere als unterstützenswert.
 
wenn der treiber wirklich Asynchronous Compute versucht über die CPU zu emulieren, wäre das ein echter treppenwitz...
Wird es nicht.
Die CPU kompiliert einfach die nächste Command-List für die GPU.
Da wird nichts emuliert bzw. stattdessen auf der CPU berechnet.
Der ganze Benchmark hat mit der Praxis auch nichts gemeinsam.

Es wird einfach nur wieder ein Atompilz mit allen möglichen (falschen) Spekulationen kreiert.
 
Warum sollte ich mich ärgern? Ich habe die Karte gekauft weil ich die Leistung genau zu diesem Zeitpunkt gebraucht habe und die Karte für mich genau da das beste Angebot war. Und wenn dann mal ein Dx12 Spiel rauskommt wo die Karte nicht mehr reicht, kann ich ans Upgraden denken und mich ggf. ärgern. Jetzt habe ich eine Karte die leise und schnell genug für meine Ansprüche ist.

EDIT: Btw. finde ich auf der Webseite nur ein Logo von AMD. Da hat das ganze Theater auch irgendwie einen kleinen Nachgeschmack. Wäre dort nur das nVidia-Logo zu sehen und AMD würde schlechter abscheiden würde das hier im Forum natürlich wieder breit getreten und sonstige Verschwörungstheorien ausgepackt, wie damals bei Project Cars.

Das liegt daran, dass NVidia nur Exklusivdeals macht. Arbeitest Du wenigstens auch mit AMD zusammen, dann verweigert NVidia komplett. Genauso wie mit ihren PhysX-Treibern, wo sie GPU-Compute deaktivieren, wenn Du auch eine AMD-Karte im System hast.
 
Warum sollte ich mich ärgern? Ich habe die Karte gekauft weil ich die Leistung genau zu diesem Zeitpunkt gebraucht habe und die Karte für mich genau da das beste Angebot war. Und wenn dann mal ein Dx12 Spiel rauskommt wo die Karte nicht mehr reicht, kann ich ans Upgraden denken und mich ggf. ärgern. Jetzt habe ich eine Karte die leise und schnell genug für meine Ansprüche ist.

Genau. Ich habe mich für die 980Ti entschieden, um in 4K zu zocken. Die Ti hat mir persönlich dafür das beste Gesamtpaket geliefert. Das einzige DX12 Spiel, was mich bis jetzt interessiert ist Deus Ex. Wie meine Tis darin funktionieren muss ich dann im Februar 2016 (!) mal schauen. Ich gehe aber mal davon aus, dass ich es vermutlich werde spielen können. :ugly:
Alle andere Games, die ich bis in 2016 hinein auf dem Radar habe, unterstützen kein DX12 (zumindest bis jetzt).
Alles in allem besteht also aktuell überhaupt kein Grund, mich zu ärgern.
 
Zuletzt bearbeitet:
Qualitätsjournalismus wieder mit voller Kraft voraus.
Der Autor hat selber keine Ahnung, dichtet etwas hinzu, was bei dem Quatsch allgemein schon nicht notwendig ist und dann fressen es die User.
Diese häufige Routine kann einen schon wahnsinnig machen.
Der Autor ist Entwickler bei Oxide. :ugly: Ich geh davon aus, dass der seine eigene Engine - und wie Nvdias und AMDs Karten auf sie ansprechen - kennt.

I can't divulge too many details, but GCN can cycle in work from an ACE incredibly efficiently. Maxwell's schedular has no analog just as a non hyper-threaded CPU has no analog feature to a hyper threaded one. [...] It didn't look like there was a hardware defect to me on Maxwell just some unfortunate complex interaction between software scheduling trying to emmulate it which appeared to incure some heavy CPU costs. [...] I don't believe there is any specific requirement that Async Compute be required for D3D12, but perhaps I misread the spec.
 
Das wars dann wohl mit Nvidia, erst der 3.5GB+0.5GB Betrug, nun das. Wenn das wirklich stimmt, unterstützt die 900er Reihe kein richtiges DX12, denn async ist das wichtigste Key-Feature von DX12, welches die größten Hoffnungen birgt.

Dann komm auch noch die nutzlosen und völlig verbuggten Windows 10 Treiber hinzu...

https://forum.beyond3d.com/threads/dx12-performance-thread.57188/page-21
 
Zuletzt bearbeitet:
On jetzt eine Firma gute oder schlechte Aktionen bringt ist dem Kunden an sich doch egal. Es geht dem normalen Kunden rein um das Produkt und da bietet Nvidia nun mal erstklassige Ware an.
Es interessiert z.B. auch keinen wie Lee, Lewis, Versace oder andere Jeans produziert werden, das Endprodukt, die Qualität, der Preis und der Markenname ist wichtig, jedoch nicht die Hintergrundgeschichte.

Das wollte ich ja damit zum Ausdruck bringen, dass das Produkt eben BISHER doch noch Vorteile hat gegenüber der Konkurrenz. Der VRAM-Krüppel z.B. ist eine super Karte. In der Mini-Variante mit etwas OC macht die richtig Laune. Da kann man auch mal Downsampling betreiben.

Das war dann wohl mit Nvidia, erst der 3.5GB+0.5GB Betrug, nun das. Wen das wirklich stimmt, unterstützt die 900er Reihe kein richtiges DX12, denn async ist das wichtigste Key-Feature von DX12, welches die größten Hoffnungen birgt.

Dann komm auch noch die nutzlosen und völlig verbuggten Windows 10 Treiber hinzu...

Zu DX12 kommen noch eine ganze Menge Änderungen soweit ich das im Hinterkopf habe. Und naja, Windows 10 ist derzeit ein einzelner Bug. Das geht AMDlern auch nicht besser laut diversen Foren.
 
Zuletzt bearbeitet:
Genau. Ich habe mich für die 980Ti entschieden, um in 4K zu zocken. Die Ti hat mir persönlich dafür das beste Gesamtpaket geliefert. Das einzige DX12 Spiel, was mich bis jetzt interessiert ist Deus Ex. Wie meine Tis darin funktionieren muss ich dann im Februar 2016 (!) mal schauen. Ich gehe aber mal davon aus, dass ich es vermutlich werde spielen können. :ugly:
Alle andere Games, die ich bis in 2016 hinein auf dem Radar habe, unterstützen kein DX12 (zumindest bis jetzt).
Alles in allem besteht also aktuell überhaupt kein Grund, mich zu ärgern.

man gibt halt gerne soviel Geld aus und dann kommt man drauf die Karte ist schon wieder total veraltet.
 
Der Autor ist Entwickler bei Oxide. :ugly: Ich geh davon aus, dass der seine eigene Engine - und wie Nvdias und AMDs Karten auf sie ansprechen - kennt.

I can't divulge too many details, but GCN can cycle in work from an ACE incredibly efficiently. Maxwell's schedular has no analog just as a non hyper-threaded CPU has no analog feature to a hyper threaded one. [...] It didn't look like there was a hardware defect to me on Maxwell just some unfortunate complex interaction between software scheduling trying to emmulate it which appeared to incure some heavy CPU costs. [...] I don't believe there is any specific requirement that Async Compute be required for D3D12, but perhaps I misread the spec.
Nein, der Autor der unter dieser News angegeben wird ist Mark Mantel und der hat folgendes geschrieben:
News schrieb:
Das deckt sich mit den Aussagen eines Oxide-Entwicklers, laut dem eine "komplexe Interaktion" mit dem Scheduler stattfindet. Der versucht, Compute-Aufgaben auf die CPU auszulasten, während die GPU selbst wie gehabt die normalen Grafikberechnungen übernimmt. Damit wird Async Compute quasi emuliert, womit sich Nvidia die Unterstützung auf die Fahne schreiben kann.
Steht das oben in deinem Zitat? Nein.

Was hier der Fall sein dürfte, ist das der Treiber mit der Synchronisation und dem Sheduling für die GPU nicht zurecht kommt, der wird aber keine Compute-Aufgaben der GPU berechnen.
 
Zurück