DirectX 12: Kommender Geforce-Treiber soll Asynchronous Compute verbessern

Komisch erst ist die Asynchronous-Compute-Funktion nicht vorhanden und jetzt liest man das es verbessert wird???? Auch wenn es per Software gehen sollte ist das irreführend.

Ich lese die Überschrift wie folgt:" Wundertreiber soll Asynchronous-Compute-Funktion auf Nvidia karten verbessern; Hinzufügen; Herzaubern ". Ehm wie dem auch sei. Verbessern.
 
Zuletzt bearbeitet:
Komisch erst ist das Asynchronous-Compute-Funktion nicht vorhanden und jetzt liest man das es verbessert wird???? Auch wenn es per Software gehen sollte ist das irreführend.

Ich lese die Überschrift wie folgt:" Wundertreiber soll Asynchronous-Compute-Funktion auf Nvidia karten verbessern; Hinzufügen; Herzaubern ". Ehm wie dem auch sei. Verbessern.

AsyncComp ist auch bei den NVIDIA-Karten möglich, die Architektur ist nur anders als bei AMD! (Bei AMD ist diese grob gesagt effektiver!)

Gruß

Alef
 
Komisch erst ist das Asynchronous-Compute-Funktion nicht vorhanden und jetzt liest man das es verbessert wird???? Auch wenn es per Software gehen sollte ist das irreführend.

Ich lese die Überschrift wie folgt:" Wundertreiber soll Asynchronous-Compute-Funktion auf Nvidia karten verbessern; Hinzufügen; Herzaubern ". Ehm wie dem auch sei. Verbessern.

Jaja immer diese Wundertreiber, der letzte Wundertreiber von Nvidia hat DX11 auf Geforce Karten auf Mantle Niveau gebracht, so ab und an braucht die Welt einen Wundertreiber...
 
Ich fasse mal den aktuellen Stand meiner Erkenntnis zusammen.

Maxwell 2 ist für Asynchronous Compute nicht geeignet. Die Compute Units können nicht schnell genug zwischen Aufgabentypen (Grapics und Compute) wechseln. Ein Wechsel muss immer erst vom Treiber angeordnet werden. Kommunikation mit dem Treiber ist dauert aber sehr lange (für Hardwareverhältnisse).
GCN hingegen kann eigenmächtig quasi ohne Verzögerung zwischen Grafik- und Rechenaufgaben wechseln (angeblich sogar im selben Takt :hail:). Der Treiber muss die Arbeit nur auf der GPU abladen, die genaue Verteilung macht die Hardware dann alleine.

Das erklärt aber noch nicht warum Maxwell mit Asynchronous Compute sogar langsamer wird. Da muss zusätzlich noch irgendetwas im Treiber schief laufen. Das kann und wird Nvidia garantiert optimieren. Ich schätze, dass Maxwell in Zukunft mit ohne ohne Asynchronous Compute etwa die gleiche Leistung bringt. Alles darüber hinaus wäre eine Überraschung.

Hier scheint Nvidia mit dem flexiblen Software-Sheduling Ansatz, der für DX11 hervorragend ist (:hail:), gegen eine Wand gelaufen zu sein. Die Anpassungsmöglichkeiten sind gigantisch. Ich vermute, dass an diesem Punkt viel für GameWork optimiert wurde. Aber mit Asynchronous Compute hat der Ansatz wohl seine Grenze gefunden.
 
  • Like
Reaktionen: rum
Jaja immer diese Wundertreiber, der letzte Wundertreiber von Nvidia hat DX11 auf Geforce Karten auf Mantle Niveau gebracht, so ab und an braucht die Welt einen Wundertreiber...
Das hat er nicht ansatzweise. Mit einer entsprechend schwachen CPU kriegst du auch Nvidias DX11 Treiber in die Knie - während Mantle immernoch gemütlich im Grafiklimit hängt. Das hat praktisch natürlich wenig Relevanz, weil niemand einen Athlon 64 X2 mit einer GTX980Ti kombiniert.
 
Immer dieses "gibt eh noch kein Spiel mit DX12" als Argument warum Asynchronous Compute noch nicht wichtig ist. Für Ark: Survival evolved hätte Ende August der DX12-Patch erscheinen sollen, dann wurde er auf letzte Woche verschoben und jetzt ist er immer noch nicht da. Tja, dummerweise ist bei dem Spiel Nvidia mit an Bord und daher gibt's offenbar kein DX12. :wall:

Es ist eben schlecht, wenn ein Hersteller marktbeherrschend ist und noch dazu die Entwickler am Gängelband führt.
 
So schnell wendet sich das Blatt. Bei DX12 werden Nvidia Karten mit erheblichen CPU Overhead zu kämpfen haben wegen async compute.
Dazu wird jetzt scheinbar noch Pascal verschoben wegen nicht vorhandener Gebühren für HBM2. Die faking Faker von Fakevidia haben ganze Arbeit geleistet. Und wie sich alles schön geredet wird ... echt unterhaltsam ... weiter so! :love:

Ahhhhh, jetzt verstehe ich AMDs plan. Nvidia muss keine Gebühren für HBM2 bezahlen, weil sie keins bekommen ;)
 
nVidia wird HBM bekommen, nur später (AMD hat sich sicherlich Vorkaufsrechte gesichert) und eventuell zu einem höheren Preis als AMD (Amd muss weniger zahlen, da sie HBM mitentwickelt haben)

Ich weiß, ich finde nur die Vorstellung witzig, dass AMD gönnerhaft sagt, dass Nvidia keine Lizenzgebühren zahlt mit dem Hintergrund Gedanke, dass sie keines bekommen.
Ich fände es ja super. Mein großer Traum wäre, dass AMD Nvidia überholt, Nvidia dann pleite geht und AMD ein Monopol hätte und die Preise richtig hochtreibt.
Und das sage ich nicht als Fanboy, sondern als Aktionär.
Aber das wird leide nur ein Traum bleiben.
 
Ich weiß, ich finde nur die Vorstellung witzig, dass AMD gönnerhaft sagt, dass Nvidia keine Lizenzgebühren zahlt mit dem Hintergrund Gedanke, dass sie keines bekommen.
Ich fände es ja super. Mein großer Traum wäre, dass AMD Nvidia überholt, Nvidia dann pleite geht und AMD ein Monopol hätte und die Preise richtig hochtreibt.
Und das sage ich nicht als Fanboy, sondern als Aktionär.
Aber das wird leide nur ein Traum bleiben.

Ich hoffe auf einen steigenden Marktanteil von AMD 50:50 wäre für Alle (Käufer) gut
 
Welcher Hersteller tut das auch nicht bei der Präsentation? Aber darum hab ich dir ja auch nicht geantwortet, sondern wegen deiner Falschaussagen.
Wenn jemand die Karte als Titan X Killer hingestellt hat, dann wohl die Community.

Wenn ein Hersteller in seinen Präsentationen gezielt gewisse Erwartungen weckt und der Welt verkündet wie toll sein Produkt doch ist, dann muß er es sich auch gefallen lassen das er nachher daran gemessen wird. So wie es sich Nvidia mit der GTX 970 gefallen lassen muß das man ihnen vorhält das die 512MB nicht so angbunden sind wie sie es eigentlich sollten, da könnte man auch sagen "Nvidia hat ja nur von 256Bit gesprochen und nicht davon das die alle gleich angebunden sind".

Von besser habe ich nicht viel gesehen. Eher von gleichgut. Keine Ahnung wie man darauf gekommen ist, die Karte wäre der Titan X Killer.

AMD hat nie etwas von etwa gleichgut gesagt, die Karte wurde in den Himmel gelobt und AMD hatte wie immer ein Interesse daran das alle die Karte so gut wie nur irgendmöglich einschätzen. Wenn du sagst das sie nicht gelogen, sondern nur wichtige Details weggelassen haben: das hat Nvidiia mit der GTX 970 auch gemacht.

Spielst du Furmark? Der Durchschnittliche Verbrauch wie CB, PCGH und Tomshardware ihn gemessen haben ist kaum höher.
Von "irrer" Stromverbrauch halt weit entfernt.
Wie kommst du also zu der Aussage?


330W bei ordentlicher Last sind nicht gerade wenig, wenn man die Karte ordentlich unter Dampf setzt zieht sie sau viel Strom. Ein Sparsamkeitswunder ist sie nicht, das weiß auch AMD, sonst hätten sie keine Wakü Pflicht eingeführt. Der FurMark ist wichtig für die dimensionierung des Netzteils und da sind 380W nicht ohne, z.B. zuviel für mein Seasonic X460FL, da müßte ich mir ein neues kaufen.

Ich würde halt einfach den Launch abwarten, bevor man sich über ungelegte Eier Gedanken macht.

Dann wäre es schön wenn sich die Fraktion der AMD Jünger genauso verhalten hätte. Da wurde ja gejubelt als hätte man Nvidia ungespitzt in den Boden gerammt, dabei hat man "nur" endlich etwas konkurrenzfähiges zur GTX 980, wenn auch zu einem wesentlich höheren Preis (laut AMD Aussagen).

Einen 980X kenne ich nicht, genausowenig hat AMD dies angekündigt.

Google nach "i7 980X So 1366", dann kennst du ihn. Ich hab montan ein wenig um die Ohren, aber wenn ich Zeit und Muße habe schau ich mal ob ich die Ankündigung noch finde, ich weiß noch wie einige ein wenig enttäuscht waren das er "nur" 50% schneller sein sollte, das war eine böse Überraschung als es beinahe hieß "nur 50% so schnell" (so gurkig war er dann doch nicht).

Kannst du das "totale Versagen" mal anhand eines Benchmarks aufzeigen?

Einfach mal ein wenig googeln (oder was es sonst so an Suchmaschinen gibt. Selbst bei AMD redet man von einem Flop und sieht ein das es ein Griff ins Klo war, du brauchst den Mist nichtmehr schönreden.

AMD FX 8150 Bulldozer (Prozessoren) Test - Acht halbe oder vier ganze Rechenkerne im Benchmark-Test? - GameStar
FX-8150 oder Core i7-2600K kaufen? Leserbrief der Woche
AMD FX-8150 vs. Core i5-2500K and Core i7-2600K CPU Review - Hardware Secrets
AMD FX-8150 Bulldozer - Neue CPU-Generation im Test - 8-Core-Prozessor mit Turbo bis 4,2 GHz | TecChannel.de

Alles in allem ein einziges Debakel, der Bulldozer sah gegen den i7 2600K kein Land mehr, der i5 2500K war im Schnitt erheblich besser und auch der gute alte 1100T war dank seiner Einzelkernleistung klar die bessere Wahl.
 
Zurück