DirectX 12: Maxwell soll Asynchronous Compute via CPU emulieren

Ein unfertiges Spiel ist ein unfertiges Spiel und damit noch nicht wirklich aussagekräftig.

Die Grundlage dieser News und dieses Threads ist ja auch nicht AotS, sondern vielmehr dieser Thread bei beyond3d ( https://forum.beyond3d.com/threads/dx12-async-compute-latency-thread.57188/page-8 ), wo jemand ein Testprogramm geschrieben hat, das explizit Async Compute verwenden soll. Dort zeigen aber alle bisherigen Testergebnisse auf Geforces eine strikte Addition der Renderzeiten der compute- und Grafiklast, es wird also nichts davon parallel gerechnet. Von den GCN-Chips zeigen einige sogar dagegen die theoretisch erwartbaren Maximaleinsparungen an Rechenzeit - es wird nur die Zeit für die arbeitsintensivere Aufgabe benötigt, die "leichtere" Aufgabe läuft parallel und ist vor der "schwereren" erledigt.
Das legt nahe, dass Maxwell die Aufgaben prinzipiell nur nacheinander erledigen kann, statt gleichzeitig, wie es passieren sollte.
 
du hast wohl noch nie ein Stück Code geschrieben welcher dann irgendwo eingebunden wird aber die Hauptzeit der Berechnungen in Anspruch nimmt. Und das ist ja genau der Fall.

Was hat das damit zu tun? In wirklich jedem gottverdammten Thread über DX12 machst du finale, absolute und allgemeine Aussagen über das Kräfteverhältnis zwischen AMD und NV unter DX12 wegen eines einzigen unfertigen Strategiespiels.
Nun warte doch erst Mal ab wie sich das alles entwickelt bevor du überall deinen Stuss verbreitest!
Denn das ist im Moment das einzig Sinnvolle: Abwarten und schauen, wie die ersten fertigen DX12 Games performen. So viel Grips solltest du doch nun wirklich in der Birne haben, um das endlich mal einzusehen.
 
Was hat das damit zu tun? In wirklich jedem gottverdammten Thread über DX12 machst du finale, absolute und allgemeine Aussagen über das Kräfteverhältnis zwischen AMD und NV unter DX12 wegen eines einzigen unfertigen Strategiespiels.
Nun warte doch erst Mal ab wie sich das alles entwickelt bevor du überall deinen Stuss verbreitest!
Denn das ist im Moment das einzig sinnvolle: Abwarten und schauen, wie die ersten fertigen DX12 Games performen. So viel Grips solltest du doch nun wirklich in der Birne haben, um das endlich mal einzusehen.

schau braucht man um Aussagen zu machen ein super tolles Interface ? wo alles hübsch blink blink macht. Ich hab schon Benchmarks geschrieben und gemacht ohne jetzt eine super toller Steuerung oder Visualisierung zu haben. Der Kern des Spiel ist die API und die Engine was darum passiert ist für Performancebetrachtungen völlig egal. Sonst müsste man soweit gehen wo man die primitivsten Operation macht a=b+c eine super tolle Visualisierung machen.

Ich gebe dir zwar recht in der Aussage, dass sich die Frage stellt was in das Spiel kommt und ob die Anzahl der Objekte realistisch ist, aber ansonsten wüsste ich jetzt nichts.
 
Ist eine absolute Unverschämtheit, ich finde wir sollten alle zusammen etwas unternehmen...Geld zurück, oder Boykott. Die lügen doch und bereichern sich an uns! Das geht garnicht!
Meine nächste wird auch AMD! :daumen2:

Und da kommst du erst jetzt drauf ... Wenn deine Signatur stimmt, dann hast du entweder damals nichts unternommen, als der GTX970 Fehler publik wurde, oder du hast dir trotz dieses "Kommunikationsfehlers" seiten nVidias trotzdem eine GTX970 gekauft ... Also sollte dir bewußt sein, dass es bei nVidia zu "Kommunikationspannen" kommt.

Frage warum hast du damals nichts unternommen, willst jetzt aber die Barrikaden stürmen?
 
Aus meiner Sicht zeigt der Benchmark für AMD vorallem den Driveroverhead in DX11. Durch DX12 gewinnt man Leistung dazu.
Oxide hat nur wenig async compute verwendet daher ist aus meiner Sicht das Spiel wenig geeignet den Vorteil hier zu zeigen.
Auf NV Hardware zeigt der bench dass async compute auf NV Hardware momentan nicht gut läuft und dass NV selbst mit viel Aufwand per Treiber nicht fixen konnte. Allerdings reicht doch schon die DX11 Leistung schon für das Game aus.
Interesanter werden die Performance Unterschiede bei Games die viel Async Compute GCN einsetzen. Mal schauen ob die Entwickler da für NV einen Workaround einarbeiten damit es läuft.
Spielen wird man mit allen Karten können. Bei manchen muss man halt notfalls Schieber betätigen oder Features (z.b. Beleuchtung) runterdrehen oder abschalten. Dass fühlt sich dann halt wie Gameworks auf AMD Karten an. Nicht toll aber lebenswichtig ists nicht.
 
schau braucht man um Aussagen zu machen ein super tolles Interface ? wo alles hübsch blink blink macht. Ich hab schon Benchmarks geschrieben und gemacht ohne jetzt eine super toller Steuerung oder Visualisierung zu haben. Der Kern des Spiel ist die API und die Engine was darum passiert ist für Performancebetrachtungen völlig egal. Sonst müsste man soweit gehen wo man die primitivsten Operation macht a=b+c eine super tolle Visualisierung machen.

Ich gebe dir zwar recht in der Aussage, dass sich die Frage stellt was in das Spiel kommt und ob die Anzahl der Objekte realistisch ist, aber ansonsten wüsste ich jetzt nichts.

Es gibt einen riesigen Haufen an Fragezeichen bezüglich DX12 und genauso viele Unwägbarkeiten welche die Performance beeinflussen können. Dazu das Problem, dass keiner der beiden Hersteller alle DX12 Features unterstützen (und darüber hinaus auch noch teils unterschiedliche)
Und bis man das alles beantworten und analysieren kann, brauchen wir Games. Und zwar mehrere Games von mehreren Entwicklern. Und erst dann können wir alle hier urteilen. Vorher jedoch nicht.
Vielleicht verstehst du das ja irgendwann mal...

Aus meiner Sicht zeigt der Benchmark für AMD vorallem den Driveroverhead in DX11. Durch DX12 gewinnt man Leistung dazu.
Oxide hat nur wenig async compute verwendet daher ist aus meiner Sicht das Spiel wenig geeignet den Vorteil hier zu zeigen.
Auf NV Hardware zeigt der bench dass async compute auf NV Hardware momentan nicht gut läuft und dass NV selbst mit viel Aufwand per Treiber nicht fixen konnte. Allerdings reicht doch schon die DX11 Leistung schon für das Game aus.
Interesanter werden die Performance Unterschiede bei Games die viel Async Compute GCN einsetzen. Mal schauen ob die Entwickler da für NV einen Workaround einarbeiten damit es läuft.
Spielen wird man mit allen Karten können. Bei manchen muss man halt notfalls Schieber betätigen oder Features (z.b. Beleuchtung) runterdrehen oder abschalten. Dass fühlt sich dann halt wie Gameworks auf AMD Karten an. Nicht toll aber lebenswichtig ists nicht.

So wird es womöglich sein.
 
Es gibt einen riesigen Haufen an Fragezeichen bezüglich DX12 und genauso viele Unwägbarkeiten welche die Performance beeinflussen können. Dazu das Problem, dass keiner der beiden Hersteller alle DX12 Features unterstützen (und darüber hinaus auch noch teils unterschiedliche)
Und bis man das alles beantworten und analysieren kann, brauchen wir Games. Und zwar mehrere Games von mehreren Entwicklern. Und erst dann können wir alle hier urteilen. Vorher jedoch nicht.
Vielleicht verstehst du das ja irgendwann mal...

für mich hört sich das wie eine Verschleierungstaktik an, warten und hoffen das alles besser weil bis dahin weiß eh niemand mehr was jemand gesagt hat.
 
für mich hört sich das wie eine Verschleierungstaktik an, warten und hoffen das alles besser weil bis dahin weiß eh niemand mehr was jemand gesagt hat.

Eine Verschleierungstaktik? :lol:
Ich warte einfach auf fertige DX12 Games. Dann kann ich immer noch meckern. Abwarten ist momentan das einzig Sinnvolle.

Du hingegen willst NVIDIA Käufern jetzt schon klarmachen, dass sie einen Fehlkauf getätigt haben. Ich finde das jedenfalls echt nicht normal.
 
Wenn ich mir das hier so durchlese verstehn 90% der Leute irgendwie nicht so ganz, wie katastrophal die ganze Sachlage ist, und was für Auswirkungen das ganze hat. Async compute klingt erst mal nach irgend nem kleinen feature von vielen, die DX12 zu bieten hat... FALSCH. Async compute its quasi DAS Grundfeatre von DX12, welches erst zu den extremen Beschleunigungen und jetzt kommts, CPU Erleichterungen führt. Async compute heißt einfach nur paralleles Berechnen aka Multitasking aka nicht serielles Berechnen, dass die GPU die CPU entlastet, und mehrere Aufgaben gleichzeitig/parallel Abwickeln kann. Und genau das scheint die Geforcen Karten alle nicht zu können, und es auf der CPU zu simulieren wäre der größte Spot aller Zeiten. Ein Feature was dazu da ist die CPU zu entlasten...

Das ganze wäre so, als würd man sich einen i7 Kaufen und dann bemerken, dass er nur einen der vier/sechs Kerne effektiv nutzen kann, und dann kommt so ein Schwachsinn "egal uzuz, hab zwar 300-600 Euro für ausgegeben aber ist trotzdem noch hammer schnell dat Teil, uzuz :-)".

Und mehr als ekelhaft sind die Kommentare der Nvidia Fanboys in der Art naja "... bis DX12 Spiele raus sind hab ich mir die nächste 1xxx Reihe in PC gehaut, also kein Problem", oder noch widerlicher, "egal, meine dual 980tis laufen super auf DX11, die wurden für DX11 konstruiert also ists nicht Nvidias Schuld, ich kauf mir eh alle 2 Monate fünf neue Titans, damit der Lüfter nicht lauter wird oder Staub fängt". Unfassbar.
 
Zuletzt bearbeitet:
Eine Verschleierungstaktik? :lol:
Ich warte einfach auf fertige DX12 Games. Dann kann ich immer noch meckern. Abwarten ist momentan das einzig Sinnvolle.

Du hingegen willst NVIDIA Käufern jetzt schon klarmachen, dass sie einen Fehlkauf getätigt haben. Ich finde das echt nicht normal.

Nein nicht unbedingt für die Käufer einer R290x /390x oder Fury X zeigt sich halt wenn diese Feature eingesetzt wird sich die Langlebigkeit massiv erhöht, man muss einfach nicht nochmal so schnell zu einer neuen GPU greifen. Anstatt jedes Jahr rund 700 Euro auszugeben.
 
Nein nicht unbedingt für die Käufer einer R290x /390x oder Fury X zeigt sich halt wenn diese Feature eingesetzt wird sich die Langlebigkeit massiv erhöht, man muss einfach nicht nochmal so schnell zu einer neuen GPU greifen. Anstatt jedes Jahr rund 700 Euro auszugeben.

Weil ja jeder NVIDIA User jedes Jahr rund 700€ für eine neue Karte ausgibt. :schief:
 
Ich fuehle mich dezent veralbert und meine naechste GPU wird in zwei Jahren mit Sicherheit KEIN Nvidia Gespann mehr sein.
Selbst wenn AMD etwas langsamer und stromhungriger sind, wenigstens findet bei denen eine offene Kommunikation zum Kunden hin statt und man weiss woran man ist.


Dieses feature wird in 2016 sehr schnell Einzug halten dank der Nutzbarkeit auf den Konsolen, und wenn in 2016 meine 980ti sli ploetxlich langsamer in neuen Games sind als ein Gespann aus zwei AMD 390, dann fuehle ich mich wirklich stark veralbert von nvidia.
 
Was für ein Desaster eigentlich? Die GTX 970 hat sich weit über 4 Millionen mal verkauft. Ein Desaster sieht aber ganz anders aus.

Das Desaster ist die mangelhafte Anbindung des Speichers (nur 3.5 GB vernünftig angebunden). Die Verkaufszahlen kann man auch damit erklären, das es viele gibt die sich nicht informieren, die immernoch Infos haben, welche längst überholt sind (AMD Treiber etc.) und auch die gute Platzierung im Einzelhandel.
 
Also hier sollte man es etwas ruhiger angehen lassen...echt lustig wie hier so einige ausflippen.

Also so wie ich gesehen habe, ist die 980Ti ohne Asynchronous Compute immernoch genauso schnell wie die Fury X mit dem Asynchronous Zeugs...

Kein Grund hier für Die AMD-Fanboys dieses Feature jetzt so anzupreisen. Die AMD-Karten müssen ja auch beschleunigt werden für ne Daseinsberechtigung.^^
 
Zuletzt bearbeitet:
Zurück