DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

In welchem Zusammenhang? Auf Seite 8 geht's um LDS.

Stimmt.. etwas mehr Kontext hätte gut getan.
Mir ging es dabei um die unterstützte Rechengenauigkeit.
Mir war so, dass in einem GCN white paper die Rede davon war, dass die Chips mit 4 bit Zahlen bis hoch zu 64 bit Zahlen arbeiten können.

Mich hat der Eintrag zur Rechengenauigkeit ein wenig verwirrt, da "Full precision" bei den Nvidia Chips doch ein wenig Interpretationsspielraum lässt.
Von wie viel bit bis wie viel bit reicht die Bezeichnung?
Oder ist gar "32bit" aka "single precision" gemeint?
 
Ersthaft Ashes der AMD Hauseigene Benchmark ist eher ein CGN Benchmark als ein DX12 Benchmark. Bei Hitman ist ja nach Gameplay nicht nach Benchmark mal DX11 vorne oder DX12 der unterschied
liegt bei nicht mal 1 Fps. Laut Digital Foundry's Video vergleich, eigentlich kann man getrost DX12 endlich in die Tonne kloppen den so oft ist DX12 die deutlich schlechtere Wahl wie DX11.
Bis heute empfiehlt kein Entwickler die DX12 Api und wann kam eigentlich das letze DX12 Spiel raus? War das Bf1 das wiedermal richtig schlecht mit DX12 lief, erst mit einer viel zu langsamen CPU
nütz die API dann etwas. Also bei Rechnern die eigentlich sowieso keiner hat und in diesem Jahr kam gar nichts mehr raus oder? Den DX12 ist so gut wie Tot der Hype ist vorbei, jeder hat inzwischen
begriffen das es mehr Probleme bringt als Vorteile. Angekündigt ist glaub ich auch nichts mehr woher das wohl kommt, die API hat auf ganzer Line versagt und ich könnte jetzt sagen ich hab es doch gesagt.

Low Level Apis sind gut für Konsolen, weil man ohne Low Level nicht mit so schwachen CPUs etwas erreichen würde. Beim PC ist aber die Problematik der langsamen CPUs überhaupt nicht vorhanden,
Dx11 läuft längst im GPU limit und ist viel ausgereifter als DX12. Es braucht ganz einfach keine Api die Grafisch genau das gleiche bietet, wenn dann müsste eine Api neue Effekte beschleunigt bieten wie
es bei DX11 war. Doch da hat man wie immer auch total übertrieben und es war AMD die Tessellation als neues großes Ding angepriesen haben. Jedes Spiel musste diesen Effekt haben, egal ob Sinn machte
oder nicht und AMD wollte das jedes ihrer gesponserten Spiele Tessellation und damit DX11 unterstütze. Weil Nvidia damals keine DX11 Karte hatte, es war alles nicht anderes als ein Marketing Werkzeug.
Genau das gleiche wie bei DX12 das eigentlich nur Sinn macht wenn die CPU der Flaschenhals ist was bei 99,9% der Spiele nicht zu trifft. Bei den Spielen ist dann ehr die Engine das Problem als die Api und
DX12 ist meines Wissen bei vielen neuen Spielen gar kein Thema mehr.
Mehr CPU Leistung ist ganz einfach auch mit DX11 zu verwirklichen in dem man die Engine für mehre CPU Kerne anpasst, was heute eher selten ist. Die GPUs laufen längst am Limit unter DX11 da wird nur noch minimal
Spielraum sein. Die Spiele Physik ist seit 12 Jahren ungefähr gleich geblieben, weil die Konsolen sonst das nicht mehr Umsetzen könnten. Auch die nächste Generation wird auf eine Abgespeckte Ryzen Cpu setzen im Mobilbereich
was heißt ein stink normaler Ryzen oder Intel wird deutlich schneller sein. Damit braucht man selbst in Jahren kein Low Level Api und das hat DX12 das genick gebrochen. Weil DX11 genauso schnell ist ohne großen Mehraufwand
und DX12 viel zu wenig Vorteile bietet. Solange DX12 nicht zeigen kann das es besser ist wird es nie wichtig werden. und DX12 ist nur wichtig wenn die CPU der Flaschenhals wird.
So wie z.b. es AMD in ihren Ashes Benchmark gezeigt haben, der aber nicht nur DX12 zeigen soll sondern die überlegenheit von CGN. Ich würde mich Wetten trauen das der Quellcode von Ashes ziemlich interessant wäre.
Vorallem bei einem Entwickler der schon immer gegen Nvidia gewettert hat und für AMD gearbeitet hat sollte man diesen Benchmark nicht als Beispiel nehmen.

*seufz* Exakt die gleiche Diskussion... jedes verd..te Mal... Die gab es bei jeder neuen DX Version, weil die ersten Spiele bei weitem noch nicht alles aus der Schnittstelle rausholen konnten.
Die Programmierer sind mindestens ein Jahr in der Lernphase für eine neue Schnittstelle - und dann haben sie grad mal die Grundlagen, ohne die Feinheiten und kleinen Tricks wirklich verinnerlicht zu haben.
Lass uns einfach nochmal in nem Jahr reden, wenn die Programmierer mehr Zeit hatten,
 
[...]
Mich hat der Eintrag zur Rechengenauigkeit ein wenig verwirrt, da "Full precision" bei den Nvidia Chips doch ein wenig Interpretationsspielraum lässt.
Von wie viel bit bis wie viel bit reicht die Bezeichnung?
Oder ist gar "32bit" aka "single precision" gemeint?
Full precision ist in dem Fall single precision bzw. 32-Bit.

Declare variables with minimum precision data types

To use minimum precision in HLSL shader code, declare individual variables with types like min16float (min16float4 for a vector), min16int, min10float, and so on. With these variables, your shader code indicates that it doesn’t require more precision than what the variables indicate. But hardware can ignore the minimum precision indicators and run at full 32-bit precision.
Using HLSL minimum precision (Windows)
 
naja directx 12 braucht kein schwein, alles läuft geschmeidig mit dx11. habe gestern nochmal bf1 mit dx12 getestet undf es läuft nicht so gut wie mit dx11. also irgendwie lahmt der fortschritt gewaltig.:daumen2:
Ein Auto braucht kein Schwein mein Pferd reicht doch aus.
Wofür elektrischer Strom meine Gaslampe tut es doch auch.
Wofür Schrift? Kann doch sprechen?
Wofür Speer hab doch Keule.
Ugah ugah. ..
 
Full precision ist in dem Fall single precision bzw. 32-Bit.


Using HLSL minimum precision (Windows)

Danke :-)

Allerdings finde ich das in einer Vergleichstabelle ein wenig verwirrend, wenn bei den andren verschiedene Werte wie 16 bit oder 32 bit angegeben werden.
Das kann durchaus dazu führen, dass Gedankengänge eher so aussehen "Hey, AMD kann nur 16 und 32 bit, Nvidia kann aber 'Full precision' - das ist doch sicher besser".
Wenn eine Vergleichstabelle, dann immer mit gleichen Einheiten arbeiten.
 
Die Abfrage selber gibt nur die geringste Präzision an, ohne einen Wertebereich:
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_16_BIT (2)
Direct3D feature levels discussion | Page 42 | Beyond3D Forum

In der Tabelle würde ich entsprechend nur 16-Bit schreiben.
Von mir aus soll man 16/32-Bit schreiben, wenn man Angst von falschen Einordnungen hat.
Dann steht bei AMD 16/32-Bit und bei den anderen nur 32-Bit.
Bei Intel schreibt die Tabelle auch auf Deutsch "Volle Präzision" bei Nvidia ist es auf Englisch.
Das könnte man auch ändern bzw. grundsätzlich mit 32-Bit ersetzen.
 
Zuletzt bearbeitet:
Ich schreibe das, was der DXCapsviewer ausliest – und der sagt eben 16/32 Bit bei optionaler 16-Bit-Unterstützung. Vielleicht ist das als „Vorsichtsmaßnahme“ gedacht gewesen als die ersten Chips damit um die Ecke kamen, damit nicht jemand denken könnte, sie würden nur 16 Bit beherrschen. DMitrys Tool habe ich nur für den experimentellen SM6-Support mal angeworfen. Das liest etwa auch die Preemption-Granularität oder die unter DX11 unterstützten Feature-Level und Features nicht aus sondern ist rein auf DX12 fokussiert.

Das English-Deutsch-Mischmasch bessere ich gern aus, das muss tatsächlich nicht sein (liegt daran, dass die Tabelle englisch enthält, teilweise im Heft war, wo sie fast komplett eingedeutsch war).
 
Ersthaft Ashes der AMD Hauseigene Benchmark ist eher ein CGN Benchmark als ein DX12 Benchmark. Bei Hitman ist ja nach Gameplay nicht nach Benchmark mal DX11 vorne oder DX12 der unterschied
liegt bei nicht mal 1 Fps. Laut Digital Foundry's Video vergleich, eigentlich kann man getrost DX12 endlich in die Tonne kloppen den so oft ist DX12 die deutlich schlechtere Wahl wie DX11.
Bis heute empfiehlt kein Entwickler die DX12 Api und wann kam eigentlich das letze DX12 Spiel raus? War das Bf1 das wiedermal richtig schlecht mit DX12 lief, erst mit einer viel zu langsamen CPU
nütz die API dann etwas. Also bei Rechnern die eigentlich sowieso keiner hat und in diesem Jahr kam gar nichts mehr raus oder? Den DX12 ist so gut wie Tot der Hype ist vorbei, jeder hat inzwischen
begriffen das es mehr Probleme bringt als Vorteile. Angekündigt ist glaub ich auch nichts mehr woher das wohl kommt, die API hat auf ganzer Line versagt und ich könnte jetzt sagen ich hab es doch gesagt.

Low Level Apis sind gut für Konsolen, weil man ohne Low Level nicht mit so schwachen CPUs etwas erreichen würde. Beim PC ist aber die Problematik der langsamen CPUs überhaupt nicht vorhanden,
Dx11 läuft längst im GPU limit und ist viel ausgereifter als DX12. Es braucht ganz einfach keine Api die Grafisch genau das gleiche bietet, wenn dann müsste eine Api neue Effekte beschleunigt bieten wie
es bei DX11 war. Doch da hat man wie immer auch total übertrieben und es war AMD die Tessellation als neues großes Ding angepriesen haben. Jedes Spiel musste diesen Effekt haben, egal ob Sinn machte
oder nicht und AMD wollte das jedes ihrer gesponserten Spiele Tessellation und damit DX11 unterstütze. Weil Nvidia damals keine DX11 Karte hatte, es war alles nicht anderes als ein Marketing Werkzeug.
Genau das gleiche wie bei DX12 das eigentlich nur Sinn macht wenn die CPU der Flaschenhals ist was bei 99,9% der Spiele nicht zu trifft. Bei den Spielen ist dann ehr die Engine das Problem als die Api und
DX12 ist meines Wissen bei vielen neuen Spielen gar kein Thema mehr.
Mehr CPU Leistung ist ganz einfach auch mit DX11 zu verwirklichen in dem man die Engine für mehre CPU Kerne anpasst, was heute eher selten ist. Die GPUs laufen längst am Limit unter DX11 da wird nur noch minimal
Spielraum sein. Die Spiele Physik ist seit 12 Jahren ungefähr gleich geblieben, weil die Konsolen sonst das nicht mehr Umsetzen könnten. Auch die nächste Generation wird auf eine Abgespeckte Ryzen Cpu setzen im Mobilbereich
was heißt ein stink normaler Ryzen oder Intel wird deutlich schneller sein. Damit braucht man selbst in Jahren kein Low Level Api und das hat DX12 das genick gebrochen. Weil DX11 genauso schnell ist ohne großen Mehraufwand
und DX12 viel zu wenig Vorteile bietet. Solange DX12 nicht zeigen kann das es besser ist wird es nie wichtig werden. und DX12 ist nur wichtig wenn die CPU der Flaschenhals wird.
So wie z.b. es AMD in ihren Ashes Benchmark gezeigt haben, der aber nicht nur DX12 zeigen soll sondern die überlegenheit von CGN. Ich würde mich Wetten trauen das der Quellcode von Ashes ziemlich interessant wäre.
Vorallem bei einem Entwickler der schon immer gegen Nvidia gewettert hat und für AMD gearbeitet hat sollte man diesen Benchmark nicht als Beispiel nehmen.
AMD wollte unbedingt tesselation? Hast du dazu mal eine Quelle zum nachlesen für mich? Das ist irgendwie an mir vorbei gegangen.

Zu BF1 und DX12 kann ich dir nicht zustimmen. Also bei sämtlichen Systemen in meinem Bekanntenkreis liefert DX12 bessere min.fps. Bei den max ist DX11 öfter vorne, dafür ist DX12 wenn es vorn liegt, auch weiter vorn. Also im gesamten würde ich sagen, macht DX12 dort doch die bessere Figur. Da sind aber auch mehr AMD GPUs verbaut.

Gesendet von meinem HTC 10 mit Tapatalk
 
AMD wollte unbedingt tesselation? Hast du dazu mal eine Quelle zum nachlesen für mich? Das ist irgendwie an mir vorbei gegangen.

Zu BF1 und DX12 kann ich dir nicht zustimmen. Also bei sämtlichen Systemen in meinem Bekanntenkreis liefert DX12 bessere min.fps. Bei den max ist DX11 öfter vorne, dafür ist DX12 wenn es vorn liegt, auch weiter vorn. Also im gesamten würde ich sagen, macht DX12 dort doch die bessere Figur. Da sind aber auch mehr AMD GPUs verbaut.

Gesendet von meinem HTC 10 mit Tapatalk

ATI hat Tessellation für den GPU Markt "erfunden".

Das ist schon eine ganze Weile her (beinah 16 Jahre):
ATI TruForm - Wikipedia

Allerdings wollte da niemand irrsinnige Faktoren, die zu Dreiecken führen, die nur einen Pixel groß, oder gar kleiner sind.

Aktuelle X64 Tessellation fürht aber regelmäßig zu subpixel großen Dreiecken bei Tessellation.
Wenn man da nicht unsinniges wegblocken kann, hat man ein Problem.
AMD hat deshalb immer mit der Begrenzung auf Faktor 16 gearbeitet.

Edit:
Auf Youtube gibt es ein paar Videos zu Spielen, die jemand auf TruForm umgebogen hat.
u.A. Quake III Arena, Unreal und Half-Life
Quake III Arena using ATI TruForm - YouTube
Unreal using ATI TruForm - YouTube
YouTube
 
Es gibt keine irrsinnigen Faktoren, nur die sinnige oder irrsinnige Verwendung davon.
Und es gibt unzählige Features und Möglichkeiten, die bei jedem Spiel zu suboptimalen Performanceergebnissen bei X Hardware führen können.

Mass Effect: Adromeda verwendet Faktor x16 für die Landschaftsgeometrie, AMD beschränkt den Faktor auf x8.
Praktisch sind keine Unterschiede zu sehen, die Performancegewinne bei Polaris betragen allerdings 5-7% und bei Hawaii sogar 14-15%, fast doppelt bis dreifach soviel.
Mass Effect Andromeda im Benchmark-Test - ComputerBase
 
Ich schreibe das, was der DXCapsviewer ausliest – und der sagt eben 16/32 Bit bei optionaler 16-Bit-Unterstützung. Vielleicht ist das als „Vorsichtsmaßnahme“ gedacht gewesen als die ersten Chips damit um die Ecke kamen, damit nicht jemand denken könnte, sie würden nur 16 Bit beherrschen. DMitrys Tool habe ich nur für den experimentellen SM6-Support mal angeworfen. Das liest etwa auch die Preemption-Granularität oder die unter DX11 unterstützten Feature-Level und Features nicht aus sondern ist rein auf DX12 fokussiert.

Das English-Deutsch-Mischmasch bessere ich gern aus, das muss tatsächlich nicht sein (liegt daran, dass die Tabelle englisch enthält, teilweise im Heft war, wo sie fast komplett eingedeutsch war).

So, hab's mal ein bisschen überarbeitet und aktualisiert.
 
Also die aktuellen DX12 Features sind für mich:
-weniger FPS
-mehr Lag und Probleme
-keine Overlays mehr
-kein OBS Stream oder Aufzeichnung
:D

Wer nutzt DX12 freiwillig? :ugly:
 
Also die aktuellen DX12 Features sind für mich:
-weniger FPS
-mehr Lag und Probleme
-keine Overlays mehr
-kein OBS Stream oder Aufzeichnung
:D

Wer nutzt DX12 freiwillig? :ugly:

Bei den FPS heist es aktuell "higher lows but lower highs" - was an sich ja okay ist.
Lags und Probleme habe ich nie festgestellt ( z.B. Deus Es mit 3570K + R9 390 und auch GTX 970 ). Das Spiel lief auf dem Sys mit DX12 deutlich besser.
Kein overlay mehr? Das Overlay vom Radeon Treiber funzt 1A, ebenso das aufzeichnen.


Eventuell sitzt bei dir das Problem vor dem Monitor :huh:
 
Das Problem bei DX 12 war einfach, dass kaum einer, dank den ganze "Feature Level", durchgeblickt hat, was denn nun eigentlich wirklich DX 12 fähig überhaupt bedeutet. Einige Dinge hatten selbst die normalen DX 11 Karten, andere hatten damals nicht mal die stärksten Grakas. Nochdazu ist das ganze an Win 10 gekoppelt, was, wie bei DX 10, dazu führt, dass es kaum genutzt wird, da man immer noch die Win 7 und 8 Besitzer berücksichtigen muß (wenn man gerade MS ist). Solange alles auf DX 11 läuft und ich keine Qualitätseinbußen habe, kann es mir egal sein.
 
Zurück