DirectX 12: Kommender Geforce-Treiber soll Asynchronous Compute verbessern

@ViperZ:
Stimmt, wobei mich der Preis an sich garnicht stört. Nur die gebotene Leistung ist mir persönlich zu wenig, wenn wenigstens uneingeschränkt 4k drin wäre...
 
nur weil pascal rauskommt heist es nicht das maxwell einfach uninteressant. Viele spiele haben bei den systemanforderungen noch late karten angegeben obwohl neuere da waren
 
nur weil pascal rauskommt heist es nicht das maxwell einfach uninteressant. Viele spiele haben bei den systemanforderungen noch late karten angegeben obwohl neuere da waren

Einfach weil die der Entwickler zum Zeitpunkt der Entwicklung als Referenz genommen hat.

Kann aber dann eben durchaus sein, das ein Spiel unter Maxwell deutlich schlechter läuft als mit einer Karte die Asynchronous Compute vollständig in Hardware unterstützt. Sei es nun Pascal oder erst Volta.
 
Du meinst über Mantle-Niveau ^^. Naja die Async-Debatte muss wohl anscheinend am Leben erhalten werden. Die Benches hier zu AoS Ashes of the Singularity Bench - Overclockers UK Forums sehen auch anders aus. Auch die Kommentare sind interessant.

Ja, wenn man diese Benches sichtet ist mir die aktuelle Diskussion um einen etwaigen massiven Performancevorteil für AMD und -Nachteil für Nvidia jetzt nicht wirklich ersichtlich. Nicht dass ich AMD ein Performanceausgleich nicht wünschen würde... Pro Kräftegleichgewicht im dGPU-Bereich :)
 
Ein Treiber kann nicht verbessern, was der Chip nicht kann. Sie können evtl. die Emulation dieses Features auf der CPU verbessern, mehr nicht.
 
Geil, den treiber installier ich dann auch meiner geforce 256 aus dem jahre 2000 und dann kann die genauso viel asynchronous compute wie meine beiden gtx980ti :rofl:
 
Fraglich was Asynchronous Compute im Endeffekt bringen wird. Im Desktop-Bereich sind wir ja eher weniger CPU-limitiert als auf den Konsolen. Sehe da eher den Benefit bei den Konsoleros als im Gaming-Desktop-Segment. Ob man sich jetzt ernsthaft mit einer Nvidia Graka mit der Leistung oberhalb einer GTX970 über Asynchronous Compute Gedanken machen sollte, wage ich daher stark zu bezweifeln. Bis da die CPU so weit limitiert, dass die Performance drastisch einbricht, hat die Graka schon längst alle Segel gestrichen.
 
Asynchronous Compute wird mehr leistung bringen, da die GPU (Speziell die GPUs von AMD da diese Async. Compute unterstützen) gleichzeitig rechnen (OpenCL/CUDA) und rendern kann und dadurch besser ausgelastet wird.
 
Fraglich was Asynchronous Compute im Endeffekt bringen wird. Im Desktop-Bereich sind wir ja eher weniger CPU-limitiert als auf den Konsolen. Sehe da eher den Benefit bei den Konsoleros als im Gaming-Desktop-Segment. Ob man sich jetzt ernsthaft mit einer Nvidia Graka mit der Leistung oberhalb einer GTX970 über Asynchronous Compute Gedanken machen sollte, wage ich daher stark zu bezweifeln. Bis da die CPU so weit limitiert, dass die Performance drastisch einbricht, hat die Graka schon längst alle Segel gestrichen.


nächstes Jahr kommt AMD mit Zen welche mehr Threads haben wird also wird auch die GPU stärker belastet von dem her ist auch wichtig das die GPU diese Befehle ordentlich abarbeiten kann.
 
"arbeite man derzeit mit Nvidia zusammen, um die Asynchronous-Compute-Funktion im Geforce-Treiber zu verbessern", verbessern a.k.a. abzuschalten. Vulkan ist vermutlich auch ruiniert, da steht noch ein Vulkan-Ausbruch bevor.
 
Man darf jetzt aber auch nicht die Praxis außer Acht lassen
Ashes of the Singularity Benchmark - DirectX 12 gegen DirectX 11 [Special der Woche]
(auf DX12 umschalten).

Die Nvidia Karten platzieren sich immernoch im Rahmen dessen, was man üblicherweise erwartet.

Man darf einfach nicht vergessen:
- Es sind Oxide Games, die haben schon für AMD den Mantle Benchmark geschrieben und sticheln immer gerne gegen Nvidia.
- Das Spiel bzw. die Szenerie sind mehr oder weniger Worst Case im Vergleich zu anderen Games. Das kreide ich nicht negativ an, das ist sogar gut, da man so sieht, was wir schlimmstenfalls erwarten können.
- die Treiber sind noch nicht Final, was den Support diverser Features anbelangt.
- das Spiel wurde in 4K getestet - hohe Auflösung = die Stärke der AMD Karten.

-> Und trotz all den Punkten, die meist zu ungunsten von Nvidia ausgefallen sind, fällt nVidia nicht ungewöhnlich zurück, die min. FPS sind sogar leicht über AMD Niveau.


Es ist also davon auszugehen, dass bei "normalen" Games das Verähltnis wie gehabt sein wird.
Im Grunde würde es schon reichen, 5-10% Leistung herauszuholen, damit Nvidia wieder in Führung gehen würde.



Ich will hier Nvidia nicht in Schutz nehmen, hier wurde einfach eine Schwäche aufgedeckt bzw. verdeutlicht.
Aber wir sehen hier nur einen Benchmark, der einen Worst Case zeigt und trotzdem sind die Ergebnisse nicht schlecht ausgefallen.

So schlimm kann das Problem letzten Endes also gar nicht sein.
Ungeachtet dessen, dass Nvidias Informationspolitik ne Sauerei ist. Man sollte jetzt einfach mal den Ball flach halten, abwarten und realistisch bleiben.


Wie schonmal gesagt wurde, es wird wohl eine Schwäche vergleichbar mit der von AMDs Tessellations Leistung sein. Wenn mans nicht drauf anlegt, ist es kein wirklicher Nachteil.
Ich hab damals sowohl ne HD5850, als auch ne HD7950 in dem Wissen gekauft, dass sie weniger Tessellations Leistung hat und dabei noch kein PhysX, Gameworks und hastenichgesehen beherrscht.
Als wäre sowas jemals ein ernsthaftes Kaufargument gewesen.... Was zählt ist das, was am ende raus kommt und wie viel es kostet.
 
Zuletzt bearbeitet:
Man darf jetzt aber auch nicht die Praxis außer Acht lassen
Ashes of the Singularity Benchmark - DirectX 12 gegen DirectX 11 [Special der Woche]
(auf DX12 umschalten).

Die Nvidia Karten platzieren sich immernoch im Rahmen dessen, was man üblicherweise erwartet.

Man darf einfach nicht vergessen:
- Es sind Oxide Games, die haben schon für AMD den Mantle Benchmark geschrieben und sticheln immer gerne gegen Nvidia.
- Das Spiel bzw. die Szenerie sind mehr oder weniger Worst Case im Vergleich zu anderen Games. Das kreide ich nicht negativ an, das ist sogar gut, da man so sieht, was wir schlimmstenfalls erwarten können.
- die Treiber sind noch nicht Final, was den Support diverser Features anbelangt.
- das Spiel wurde in 4K getestet - hohe Auflösung = die Stärke der AMD Karten.

-> Und trotz all den Punkten, die meist zu ungunsten von Nvidia ausgefallen sind, fällt nVidia nicht ungewöhnlich zurück, die min. FPS sind sogar leicht über AMD Niveau.


Es ist also davon auszugehen, dass bei "normalen" Games das Verähltnis wie gehabt sein wird.
Im Grunde würde es schon reichen, 5-10% Leistung herauszuholen, damit Nvidia wieder in Führung gehen würde.



Ich will hier Nvidia nicht in Schutz nehmen, hier wurde einfach eine Schwäche aufgedeckt bzw. verdeutlicht.
Aber wir sehen hier nur einen Benchmark, der einen Worst Case zeigt und trotzdem sind die Ergebnisse nicht schlecht ausgefallen.

So schlimm kann das Problem letzten Endes also gar nicht sein.
Ungeachtet dessen, dass Nvidias Informationspolitik ne Sauerei ist. Man sollte jetzt einfach mal den Ball flach halten, abwarten und realistisch bleiben.

Nvidia stichelt aber gerne gegen alle
 
Warum ist eine 980 Ti dann in DirectX11 trotzdem 10% schneller als eine Fury X mit DirectX12 egal ob 1080p oder 4K? Und das obwohl der Ashes Benchmark doch besonders Compute intensiv sein soll....
Quelle?
Laut Computerbase ist die Fury X in DX12 13-23% schneller als eine 980Ti in DX11@1080p. In 1440p&4k sinds immer noch ein paar Prozentpunkte, die die X vorne liegt.

Edit: ich sehe gerade, auf PCGH.de ist es anders herum. Sehr seltsam :ugly:
 
Zuletzt bearbeitet:
Kann eigentlich die HD 7950 OC aka R9-280 Asynchronous Shading?

Ein Treiber kann nicht verbessern, was der Chip nicht kann. Sie können evtl. die Emulation dieses Features auf der CPU verbessern, mehr nicht.

Das ganze nennt sich Workaround und ist eigentlich eine recht gängige Sache. Man versucht mit dem auszukommen was man hat und sich so gut durchzuwuschteln wie es nur geht. Die Erfolge sind teilweise recht beachtlich und sehr vieles lief/läuft um Hintergrund mit solchen Pfuschlösungen ohne das wir es merken. Das Minimalziel ist durchaus erreichbar und wenn es dafür sorgt das man nicht ganz so abstinkt ist die Sache nur halb so schlimm (welche Karte was bei DX 12 kann versteht ohne entsprechende Tabelle sowieso kein Schwein).
 
ist doch unintressant. dx12 gehört die Zukunft, und nvidiakarten sind gar nicht wirklich bzw. unzureichend dx 12 tauglich. bin froh keine 700 euro für ne ti ausgegeben zu haben. sobald die ersten dx12 games kommen werden sich die stolzen besiter wohl in den hintern beissen. und ich werde meine karte noch nichtmal bei eBay los. Nvidia- never!
 
ist doch unintressant. dx12 gehört die Zukunft, und nvidiakarten sind gar nicht wirklich bzw. unzureichend dx 12 tauglich. bin froh keine 700 euro für ne ti ausgegeben zu haben. sobald die ersten dx12 games kommen werden sich die stolzen besiter wohl in den hintern beissen. und ich werde meine karte noch nichtmal bei eBay los. Nvidia- never!

Und dann kaufen sie eben brav schöne neue Pascal GPUs. "Working as intended".
 
Zurück