DirectX 12: Maxwell soll Asynchronous Compute via CPU emulieren

Ich frage mich warum es so extrem eskaliert hier im Forum O.o Ich meine ist es nicht schon länger bekannt gewesen das Maxwell ContextSwitching bei Async Compute benutzt und somit die Vorteile eher gering ausfallen oder liege ich falsch?
 
Kein Grund hier für Die AMD-Fanboys dieses Feature jetzt so anzupreisen. Die AMD-Karten müssen ja auch beschleunigt werden für ne Daseinsberechtigung.^^

Die R9 390/290 hat sicher eine größere Daseinsberechtigung als die GTX 970, 8GB Vram/4GB Vram anstelle von 3.5GB, Asynchronous Shader auf der GPU, etc.

CUDA ist kein Argument für eine nVidia-Karte, da ein Großteil der Anwendungen welche CUDA basiert sind inzwischen auch OpenCL anbieten/ auf OpenCL umgeschwenkt sind, weitere werden in Zukunft folgen.
Stromverbrauch ist auch kein wirkliches Argument aufgrund von FrameRate Target Control (warum soll eine GPU mehr Bilder/Sekunde rendern als der Monitor darstellen kann?)
 
Ich sehe dem gelassen entgegen. Wie auch hier , wird wieder versucht , hitzige Diskussionen entstehen zu lassen. Wenn das erste richtige DX12 Mainstream Spiel heruaskommt , können wir weitereden. Anonsten interessiert es mich nicht die Bohne , was Nvidia in irgendwelchen Alphaspielen zu stande bringt. Einen wirklichen Entschluss daraus kann man eh nicht schließen , da DX12 mit einem richtigen vollständigen Spiel noch gar nicht offiziell erschienen ist.

Die R9 390/290 hat sicher eine größere Daseinsberechtigung als die GTX 970, 8GB Vram/4GB Vram anstelle von 3.5GB, Asynchronous Shader auf der GPU, etc.

CUDA ist kein Argument für eine nVidia-Karte, da ein Großteil der Anwendungen welche CUDA basiert sind inzwischen auch OpenCL anbieten/ auf OpenCL umgeschwenkt sind, weitere werden in Zukunft folgen.
Stromverbrauch ist auch kein wirkliches Argument aufgrund von FrameRate Target Control (warum soll eine GPU mehr Bilder/Sekunde rendern als der Monitor darstellen kann?)

Meine Güte , ich bin hier echt im Kindergarten.
 
FALSCH. Async compute its quasi DAS Grundfeatre von DX12, welches erst zu den extremen Beschleunigungen und jetzt kommts, CPU Erleichterungen führt. Async compute heißt einfach nur paralleles Berechnen aka Multitasking aka nicht serielles Berechnen, dass die GPU die CPU entlastet, und mehrere Aufgaben gleichzeitig/parallel Abwickeln kann.
FALSCH. Auch die NV Treiber können Befehle parallel annehmen und so die CPU entlasten. "Nur" landen sie anschließend in einer einzigen Pipeline und so wird die GPU nicht beschleunigt.
 
Die Diskussion ist derart schräg, fast nicht mehr zum Aushalten!

Von welcher Diskussion redest du denn genau und vor allem von wem?
Wieso kann es nicht Usus sein, dass man Aussagen von Forenusern zitiert, damit wenn wenigstens einen Zusammenhang herstellen lann.



Es wird hier ausgeblendet, dass Asynchronous Compute eigentlich ein AMD-Feature ist.

Asynchronous Compute ist kein AMD Feature.:schief:
Async Shaders: Fehlende DirectX-12-Funktion auf Nvidia-Grafikkarten "ein vollkommenes Desaster" | heise online
Das bewerben die Roten schon seit der R9-290X beim Release in 2013(!). Hat nur bisher niemand so wirklich wahrgenommen. Es war schon in Mantle integriert und wird jetzt erst in DX12 eingebaut. Allerdings ist es wie man hört noch optional.

Ein Optionales Directx12 Feature, kein AMD Feature.

Microsoft ist AMD hier entgegen gekommen, weil die Radeons die meisten neuen Funktionen im 12.1 Featurelevel nicht unterstützen.
Das kannst du doch gar nicht beweisen, du denkst dir das alles aus und saugst es aus den Fingern.
Was soll das?

Jetzt unterstützen einige AMD-Titel die Technik. Werden wir einmal sehen ob es sich genau so verbreitet wie Mantle oder TressFX.

Du musst die Verbreitung nicht an Mantle oder TressFX festmachen, sondern auch die Konsolen bedenken.
Die lässt du hier interessanterweise außer Acht.


Nvidia hat unter der Haube andere Methoden und Algorithmen.

Aber nicht für dieses Feature. Nvidia unterstützt es nicht, da sie es über die CPU emulieren möchten.


Hier wird AMD dann stark einbrechen. Im Endeffekt werden es dann mehr Game von welchem Hersteller unterstützt wird.

Wir haben im Gegenatz zu den Asynchronous Shadern noch nicht einen Benchmark gesehen, von denen du sprichst.
Du machst daraus einen Fakt nach dem motto --> AMD wird da stark einbrechen. Okay.:rollen:

Aktuell schweigt Nvidia sich noch aus, weil die Diskussion nur in eine Sackgasse führt.

Nein, weil Nvidia es nicht unterstüzt und es nur mit einem workaround über die CPU laufen kann.
 
Na denn....keine Sorge,unsere Generation ist besser auf eine Gpu-Apokalypse vorbereitet als auf einen Tag ohne internet...:D
 
Es ist so geil, wie Nvidia diese Problematik einfach mal totschweigt :ugly: Wahrscheinlich sitzen die Nvidia-Leute jetzt alle am runden Tisch und denken sich irgend was aus, wie sie die Sache wieder ins Loot bringen können ;)
 
Also hier sollte man es etwas ruhiger angehen lassen...echt lustig wie hier so einige ausflippen.

Also so wie ich gesehen habe, ist die 980Ti ohne Asynchronous Compute immernoch genauso schnell wie die Fury X mit dem Asynchronous Zeugs...

Kein Grund hier für Die AMD-Fanboys dieses Feature jetzt so anzupreisen. Die AMD-Karten müssen ja auch beschleunigt werden für ne Daseinsberechtigung.^^


Das Game ist ein beißpiel wie der unterschied von dx11 auf dx12 ausfällt und wenn ne fury x 60% und ne 980ti nur 10 zulegen kann im vergleich zu dx 11 und in den meisten games ist die 980ti 10% schneller als die fury x dann kannst du dir denken wie es mit dx12 aussieht...
Wie gut ein einzelnes Game mit den GPU's klarkommen wird... das können nur die ersten großen dx12 titel zeigen und nicht ein nieschenspiel in der alpha phase...

Also bleibt letztendlich nur abwarten und aufgekochtes wasser mit kräutergeschmack trinken ;)
 
Nvidia blockiert die DX12 Entwicklung?! :lol: Ok, ist wohl etwas übertrieben!

Immer ruff uff die Grünen!!! Runter vom Sockel mit denen!!!
Verdient haben sie es alle male!

Sind dann wenigstens W7, von mir aus auch 8, Nutznießer, wenn es sich nicht lohnt auf W10 zu wechseln? W10 bietet zwar noch ein wenig mehr, soviel positives dann aber doch nicht. Weil AMD wird dies bestimmt "mal wieder" nicht schaffen. 15 cm fällt mir dazu nur ein.
Aber irgendwie befürchte ich, Nvidia bügelt das "Desaster", dass noch keines ist, einfach wieder platt, wenn es vakant wird.
Apropro Desaster, meine 3 1/2 GB-Krücke rennt mit 1500 und `n paar MHz. Ich finde das jetzt nicht so desaströs. Vergessen werd´ ich es Nvidia trotzdem nicht so schnell!
Aber wer, nach 2 - 4 Tagen, wegen einer fehlenden Info von Nvidia enttäuscht ist, ist wohl auch etwas weltfremd.
 
NVIDIA GET REKT.

raus mit diesem drecks verein, das einzige was die noch tun ist lügen wie gedruckt. ich werde für immer AMD kunde bleiben, allein schon weil nvidia es einfach nicht lassen kann den kunden immer wieder aufs neue zu verarschen.

(insert linus torvalds quote)
 
Schön ist das zwar nicht das Nvidia scheinbar ein Kommunikationsproblem hat, aber um sich eine Komplette Meinung zu bilden bedarf es mehr als nur einen Benchmark. Für AMD wird es ein wichtiges Feature sein, die können scheinbar ihre High End Karten auch nicht vernünftig auslasten unter Direkt X 11. Bei Nvidia bin ich mir da nicht so sicher, jedenfalls noch nicht.

Mit Direkt X 12 werden die Karten neu gemischt, die Zukunft wird zeigen wer wo die Nase vorn hat, dementsprechend kann man als Kunde sich auch einfach eine neue Karte kaufen. Als Käufer einer Maxwell Karte ist das vielleicht etwas unglücklich, aber letzten Endes ist es eine Direkt X 11 Karte, erst die kommenden Karten werden Direkt X 12 im vollen Umfang unterstützen.
 
Es ist nicht nötig, (insert linus torvalds quote) auszudrücken. Viele Spiele befinden sich noch im Alpha/Beta-Stadium und Sie rechnen mit Problemen dass der eine Grafikkarte wegen die schlechte Performance bemängelt wird während die anderen Grafikkarten in schlimmsten Fällen gar nicht läuft bzw. fehlerhaft.
Teils kann es auch an Grafikkartentreiber liegen. Das ist schon klar dass es für ein paar Wochen/Monate dauert bis alle Fehler behoben sind.

Aber ich finde es seltsam dass Nvidia einige an Kommunikationsprobleme gab dass wie z.B. irgendwelche fehlende Informationen nicht ans Licht gekommen sind oder steht unter Schweigepflicht (aber wie? Es kann nicht sein! :ugly:).
 
Schön ist das zwar nicht das Nvidia scheinbar ein Kommunikationsproblem hat, aber um sich eine Komplette Meinung zu bilden bedarf es mehr als nur einen Benchmark. Für AMD wird es ein wichtiges Feature sein, die können scheinbar ihre High End Karten auch nicht vernünftig auslasten unter Direkt X 11. Bei Nvidia bin ich mir da nicht so sicher, jedenfalls noch nicht.

Mit Direkt X 12 werden die Karten neu gemischt, die Zukunft wird zeigen wer wo die Nase vorn hat, dementsprechend kann man als Kunde sich auch einfach eine neue Karte kaufen. Als Käufer einer Maxwell Karte ist das vielleicht etwas unglücklich, aber letzten Endes ist es eine Direkt X 11 Karte, erst die kommenden Karten werden Direkt X 12 im vollen Umfang unterstützen.

Naja Dx12 und Vulcan erlauben es die Gpu direkter anzusprechen und bei reiner Rechenpower hat Amd schon lange die Nase vorne(z.B. Mining). Vor allem im Punkte Preis/Leistung. Ich glaube einfach, dass Amd sehr darunter leidet, dass Nvidia ihre Produkte mehr ausreift und durch gezielte Optimierungen die Leistung verbessern. Ich bin der Meinung,dass es sich lohnt ein paar Monate zu warten und so nicht das Versuchskaninchen zu spielen.

Was man dazu aber auch sagen sollte ist, dass es doch sehr interessant ist, dass Apple dieses Jahr beim Macbook Pro von Nvidia zu Amd gewechselt ist, gerade wo sie ihre eigene Api entwickeln. :D
 
Es ist nicht nötig, (insert linus torvalds quote) auszudrücken. Viele Spiele befinden sich noch im Alpha/Beta-Stadium und Sie rechnen mit Problemen dass der eine Grafikkarte wegen die schlechte Performance bemängelt wird während die anderen Grafikkarten in schlimmsten Fällen gar nicht läuft bzw. fehlerhaft.
Teils kann es auch an Grafikkartentreiber liegen. Das ist schon klar dass es für ein paar Wochen/Monate dauert bis alle Fehler behoben sind.

Aber ich finde es seltsam dass Nvidia einige an Kommunikationsprobleme gab dass wie z.B. irgendwelche fehlende Informationen nicht ans Licht gekommen sind oder steht unter Schweigepflicht (aber wie? Es kann nicht sein! :ugly:).

Hmm zur Open Source Community hat sich Nvidia schon immer wie ein Stück Dreck verhalten da muss man Linus verstehen. Aber wo sie auf einmal ihre Spielekonsole auf den Markt hauen können ist Linux doch so gut und so toll.
 
Hoffentlich keine. Die Spieleentwickler sollten sich an die API DX12 orientieren und nicht darauf was Karte X kann und nicht kann. Es kann nicht sein das Spieleentwickler wichtige Features von DX12 einfach nicht nutzen, nur weil ein paar Grafikkarten das nicht unterstützen. Die Spieleentwickler sollen möglichst alle Features von DX12 nutzen und die Grafikkartenhersteller sollen eben die passenden Treiber dazu schreiben, welche dann die Features deaktivieren, die von deren Grafikkarte nicht unterstützt wird.
Jedenfalls habe ich keinen Bock auf verkrüppelte DX12 Spiele nur weil irgendwelche Early Adopter DX12 Karten damit nichts anfangen können.
Vulkan wird ebenso verschiedene Feature-Sets bieten, sogar schlimmer, Vulkan wird pro Plattform unterschiedliche Feature-Set Definitionen haben und Vulkan unterstützt Erweiterungen von IHVs, wie bei OpenGL.
Heißt im Grunde noch mehr "Chaos".

Und doch, es kann sein das Entwickler nicht alle DX12 Features nutzen können, weil einige Karten es nicht unterstützen.
Die Alternative wäre gewesen DX12 ohne Features und Feature-Levels zu spezifizieren, welche nicht schon jetzt effektiv unter allen IHVs funktionieren, dann wäre das aber ein sehr schmales Paket gewesen und auch kein langlebiges.

Das Feature Set von Nvidia ist auch im Moment knapp bemessen ...hmm ich mein auf den Maxwell Karten.
Und fehlendes FL12.1 ist bei GCN nicht knapp bemessen?

Bei allem was ich bisher gesehen habe, werden viele neue DX12-Spiele mit den Tiled Volume Ressources, Tiled Rasterization und Raster overviews ausgestattet.
Das wäre mir neu, welche denn?
 
Hmm zur Open Source Community hat sich Nvidia schon immer wie ein Stück Dreck verhalten da muss man Linus verstehen. Aber wo sie auf einmal ihre Spielekonsole auf den Markt hauen können ist Linux doch so gut und so toll.

NV und Open Source war noch nie der Bringer, das stimmt. Aber dass sie die weit aus besseren Treiber für Linux liefern, das bestätigen dir viele. Open Source ist auch immer eine Sache. Ich finde die funktioniert für manche Bereiche, aber nicht für alle. Und ich weiß nicht ob gerade bei Treibern, Featuresets oder sonstiges, dass der richtige Ansatz ist.
 
Also irgendwie denke ich ich muß mal N.Vidia in den Schutz nehmen....keine Sorge bin kein Fanboy.....hab selbst nur AMD/Ati karten bis jetzt immer gehabt........aber es istdoch offentsichtlich das N.Vidia sich wegen dem Test hier keine Sorgen machen brauch. Zum ersten weil es ein Betatest ist...den eh noch keiner auf dem PC hat.....zum zweiten hat AMD in anderen Benches mit DX12 gerade mal aufholen können zu N.Vidia und in etwa gleichziehen können von der Leistung her. Und das ist das was für die User zählt....das was sie auch aktuell unter DX12 /11anwenden können.....und nicht irgendein Bench einer noch lang nicht fertigen Beta....:motz:
 
Und doch, es kann sein das Entwickler nicht alle DX12 Features nutzen können, weil einige Karten es nicht unterstützen.
Die Alternative wäre gewesen DX12 ohne Features und Feature-Levels zu spezifizieren, welche nicht schon jetzt effektiv unter allen IHVs funktionieren, dann wäre das aber ein sehr schmales Paket gewesen und auch kein langlebiges.

Aber gerade "Asynchronous Compute" ist doch ein Feature das u.a. einen großen Vorteil gegenüber DX11 bringt, da es eine deutlich höhere Parallelisierung erlaubt.
Es wäre doch wahnsinnig dämlich eine neue API auf den Markt zu bringen die genau diesen Bottleneck angeht und dieses Key-Feature dann nicht zu verwenden.

Cunhell
 
Ich glaube einfach, dass Amd sehr darunter leidet, dass Nvidia ihre Produkte mehr ausreift und durch gezielte Optimierungen die Leistung verbessern.

Dafür muss Nvidia HBM und eine neue GPU Architektur gleichzeitig einführen. Ich vermute mal Nvidia hat die Ressourcen um das zu bewerkstelligen. Gespannt sein darf man wohl trotzdem bei einer angekündigten 17MRD Transistor GPU.
 
Zurück