Seite 7 von 8 ... 345678
  1. #61

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Zitat Zitat von PCGH_Carsten Beitrag anzeigen
    In welchem Zusammenhang? Auf Seite 8 geht's um LDS.
    Stimmt.. etwas mehr Kontext hätte gut getan.
    Mir ging es dabei um die unterstützte Rechengenauigkeit.
    Mir war so, dass in einem GCN white paper die Rede davon war, dass die Chips mit 4 bit Zahlen bis hoch zu 64 bit Zahlen arbeiten können.

    Mich hat der Eintrag zur Rechengenauigkeit ein wenig verwirrt, da "Full precision" bei den Nvidia Chips doch ein wenig Interpretationsspielraum lässt.
    Von wie viel bit bis wie viel bit reicht die Bezeichnung?
    Oder ist gar "32bit" aka "single precision" gemeint?

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  2. #62

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Zitat Zitat von jadiger Beitrag anzeigen
    Ersthaft Ashes der AMD Hauseigene Benchmark ist eher ein CGN Benchmark als ein DX12 Benchmark. Bei Hitman ist ja nach Gameplay nicht nach Benchmark mal DX11 vorne oder DX12 der unterschied
    liegt bei nicht mal 1 Fps. Laut Digital Foundry's Video vergleich, eigentlich kann man getrost DX12 endlich in die Tonne kloppen den so oft ist DX12 die deutlich schlechtere Wahl wie DX11.
    Bis heute empfiehlt kein Entwickler die DX12 Api und wann kam eigentlich das letze DX12 Spiel raus? War das Bf1 das wiedermal richtig schlecht mit DX12 lief, erst mit einer viel zu langsamen CPU
    nütz die API dann etwas. Also bei Rechnern die eigentlich sowieso keiner hat und in diesem Jahr kam gar nichts mehr raus oder? Den DX12 ist so gut wie Tot der Hype ist vorbei, jeder hat inzwischen
    begriffen das es mehr Probleme bringt als Vorteile. Angekündigt ist glaub ich auch nichts mehr woher das wohl kommt, die API hat auf ganzer Line versagt und ich könnte jetzt sagen ich hab es doch gesagt.

    Low Level Apis sind gut für Konsolen, weil man ohne Low Level nicht mit so schwachen CPUs etwas erreichen würde. Beim PC ist aber die Problematik der langsamen CPUs überhaupt nicht vorhanden,
    Dx11 läuft längst im GPU limit und ist viel ausgereifter als DX12. Es braucht ganz einfach keine Api die Grafisch genau das gleiche bietet, wenn dann müsste eine Api neue Effekte beschleunigt bieten wie
    es bei DX11 war. Doch da hat man wie immer auch total übertrieben und es war AMD die Tessellation als neues großes Ding angepriesen haben. Jedes Spiel musste diesen Effekt haben, egal ob Sinn machte
    oder nicht und AMD wollte das jedes ihrer gesponserten Spiele Tessellation und damit DX11 unterstütze. Weil Nvidia damals keine DX11 Karte hatte, es war alles nicht anderes als ein Marketing Werkzeug.
    Genau das gleiche wie bei DX12 das eigentlich nur Sinn macht wenn die CPU der Flaschenhals ist was bei 99,9% der Spiele nicht zu trifft. Bei den Spielen ist dann ehr die Engine das Problem als die Api und
    DX12 ist meines Wissen bei vielen neuen Spielen gar kein Thema mehr.
    Mehr CPU Leistung ist ganz einfach auch mit DX11 zu verwirklichen in dem man die Engine für mehre CPU Kerne anpasst, was heute eher selten ist. Die GPUs laufen längst am Limit unter DX11 da wird nur noch minimal
    Spielraum sein. Die Spiele Physik ist seit 12 Jahren ungefähr gleich geblieben, weil die Konsolen sonst das nicht mehr Umsetzen könnten. Auch die nächste Generation wird auf eine Abgespeckte Ryzen Cpu setzen im Mobilbereich
    was heißt ein stink normaler Ryzen oder Intel wird deutlich schneller sein. Damit braucht man selbst in Jahren kein Low Level Api und das hat DX12 das genick gebrochen. Weil DX11 genauso schnell ist ohne großen Mehraufwand
    und DX12 viel zu wenig Vorteile bietet. Solange DX12 nicht zeigen kann das es besser ist wird es nie wichtig werden. und DX12 ist nur wichtig wenn die CPU der Flaschenhals wird.
    So wie z.b. es AMD in ihren Ashes Benchmark gezeigt haben, der aber nicht nur DX12 zeigen soll sondern die überlegenheit von CGN. Ich würde mich Wetten trauen das der Quellcode von Ashes ziemlich interessant wäre.
    Vorallem bei einem Entwickler der schon immer gegen Nvidia gewettert hat und für AMD gearbeitet hat sollte man diesen Benchmark nicht als Beispiel nehmen.
    *seufz* Exakt die gleiche Diskussion... jedes verd..te Mal... Die gab es bei jeder neuen DX Version, weil die ersten Spiele bei weitem noch nicht alles aus der Schnittstelle rausholen konnten.
    Die Programmierer sind mindestens ein Jahr in der Lernphase für eine neue Schnittstelle - und dann haben sie grad mal die Grundlagen, ohne die Feinheiten und kleinen Tricks wirklich verinnerlicht zu haben.
    Lass uns einfach nochmal in nem Jahr reden, wenn die Programmierer mehr Zeit hatten,

  3. #63
    Avatar von Locuza
    Mitglied seit
    30.10.2009
    Ort
    BW
    Beiträge
    9.804

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Zitat Zitat von Khabarak Beitrag anzeigen
    [...]
    Mich hat der Eintrag zur Rechengenauigkeit ein wenig verwirrt, da "Full precision" bei den Nvidia Chips doch ein wenig Interpretationsspielraum lässt.
    Von wie viel bit bis wie viel bit reicht die Bezeichnung?
    Oder ist gar "32bit" aka "single precision" gemeint?
    Full precision ist in dem Fall single precision bzw. 32-Bit.

    Declare variables with minimum precision data types

    To use minimum precision in HLSL shader code, declare individual variables with types like min16float (min16float4 for a vector), min16int, min10float, and so on. With these variables, your shader code indicates that it doesn’t require more precision than what the variables indicate. But hardware can ignore the minimum precision indicators and run at full 32-bit precision.
    Using HLSL minimum precision (Windows)

  4. #64

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Zitat Zitat von drstoecker Beitrag anzeigen
    naja directx 12 braucht kein schwein, alles läuft geschmeidig mit dx11. habe gestern nochmal bf1 mit dx12 getestet undf es läuft nicht so gut wie mit dx11. also irgendwie lahmt der fortschritt gewaltig.
    Ein Auto braucht kein Schwein mein Pferd reicht doch aus.
    Wofür elektrischer Strom meine Gaslampe tut es doch auch.
    Wofür Schrift? Kann doch sprechen?
    Wofür Speer hab doch Keule.
    Ugah ugah. ..

  5. #65

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Zitat Zitat von Locuza Beitrag anzeigen
    Full precision ist in dem Fall single precision bzw. 32-Bit.


    Using HLSL minimum precision (Windows)
    Danke

    Allerdings finde ich das in einer Vergleichstabelle ein wenig verwirrend, wenn bei den andren verschiedene Werte wie 16 bit oder 32 bit angegeben werden.
    Das kann durchaus dazu führen, dass Gedankengänge eher so aussehen "Hey, AMD kann nur 16 und 32 bit, Nvidia kann aber 'Full precision' - das ist doch sicher besser".
    Wenn eine Vergleichstabelle, dann immer mit gleichen Einheiten arbeiten.

  6. #66
    Avatar von Locuza
    Mitglied seit
    30.10.2009
    Ort
    BW
    Beiträge
    9.804

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Die Abfrage selber gibt nur die geringste Präzision an, ohne einen Wertebereich:
    MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_16_BIT (2)
    Direct3D feature levels discussion | Page 42 | Beyond3D Forum

    In der Tabelle würde ich entsprechend nur 16-Bit schreiben.
    Von mir aus soll man 16/32-Bit schreiben, wenn man Angst von falschen Einordnungen hat.
    Dann steht bei AMD 16/32-Bit und bei den anderen nur 32-Bit.
    Bei Intel schreibt die Tabelle auch auf Deutsch "Volle Präzision" bei Nvidia ist es auf Englisch.
    Das könnte man auch ändern bzw. grundsätzlich mit 32-Bit ersetzen.
    Geändert von Locuza (10.07.2017 um 17:39 Uhr)

  7. #67
    Avatar von PCGH_Carsten
    No Adblocker!

    Mitglied seit
    16.08.2007
    Liest
    PCGH.de & Heft
    Ort
    Zu Hause
    Beiträge
    4.852

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Ich schreibe das, was der DXCapsviewer ausliest – und der sagt eben 16/32 Bit bei optionaler 16-Bit-Unterstützung. Vielleicht ist das als „Vorsichtsmaßnahme“ gedacht gewesen als die ersten Chips damit um die Ecke kamen, damit nicht jemand denken könnte, sie würden nur 16 Bit beherrschen. DMitrys Tool habe ich nur für den experimentellen SM6-Support mal angeworfen. Das liest etwa auch die Preemption-Granularität oder die unter DX11 unterstützten Feature-Level und Features nicht aus sondern ist rein auf DX12 fokussiert.

    Das English-Deutsch-Mischmasch bessere ich gern aus, das muss tatsächlich nicht sein (liegt daran, dass die Tabelle englisch enthält, teilweise im Heft war, wo sie fast komplett eingedeutsch war).
    @@@ Kibibyte, Mebibyte und Gibibyte sind böhmische Dörfer? Nein seit 1998 internationaler Standard! @@@ Kein Heft beim Händler? Einfach hier eine Händlersuche starten! @@@ Bitte keine Supportanfragen per PM dafür gibt es das PCGH-Forum @@@ Piep

  8. #68
    Avatar von Cleriker
    No Adblocker!

    Mitglied seit
    07.11.2007
    Liest
    PCGH.de & Heft (Abo)
    Ort
    Myrtana
    Beiträge
    8.652

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Zitat Zitat von jadiger Beitrag anzeigen
    Ersthaft Ashes der AMD Hauseigene Benchmark ist eher ein CGN Benchmark als ein DX12 Benchmark. Bei Hitman ist ja nach Gameplay nicht nach Benchmark mal DX11 vorne oder DX12 der unterschied
    liegt bei nicht mal 1 Fps. Laut Digital Foundry's Video vergleich, eigentlich kann man getrost DX12 endlich in die Tonne kloppen den so oft ist DX12 die deutlich schlechtere Wahl wie DX11.
    Bis heute empfiehlt kein Entwickler die DX12 Api und wann kam eigentlich das letze DX12 Spiel raus? War das Bf1 das wiedermal richtig schlecht mit DX12 lief, erst mit einer viel zu langsamen CPU
    nütz die API dann etwas. Also bei Rechnern die eigentlich sowieso keiner hat und in diesem Jahr kam gar nichts mehr raus oder? Den DX12 ist so gut wie Tot der Hype ist vorbei, jeder hat inzwischen
    begriffen das es mehr Probleme bringt als Vorteile. Angekündigt ist glaub ich auch nichts mehr woher das wohl kommt, die API hat auf ganzer Line versagt und ich könnte jetzt sagen ich hab es doch gesagt.

    Low Level Apis sind gut für Konsolen, weil man ohne Low Level nicht mit so schwachen CPUs etwas erreichen würde. Beim PC ist aber die Problematik der langsamen CPUs überhaupt nicht vorhanden,
    Dx11 läuft längst im GPU limit und ist viel ausgereifter als DX12. Es braucht ganz einfach keine Api die Grafisch genau das gleiche bietet, wenn dann müsste eine Api neue Effekte beschleunigt bieten wie
    es bei DX11 war. Doch da hat man wie immer auch total übertrieben und es war AMD die Tessellation als neues großes Ding angepriesen haben. Jedes Spiel musste diesen Effekt haben, egal ob Sinn machte
    oder nicht und AMD wollte das jedes ihrer gesponserten Spiele Tessellation und damit DX11 unterstütze. Weil Nvidia damals keine DX11 Karte hatte, es war alles nicht anderes als ein Marketing Werkzeug.
    Genau das gleiche wie bei DX12 das eigentlich nur Sinn macht wenn die CPU der Flaschenhals ist was bei 99,9% der Spiele nicht zu trifft. Bei den Spielen ist dann ehr die Engine das Problem als die Api und
    DX12 ist meines Wissen bei vielen neuen Spielen gar kein Thema mehr.
    Mehr CPU Leistung ist ganz einfach auch mit DX11 zu verwirklichen in dem man die Engine für mehre CPU Kerne anpasst, was heute eher selten ist. Die GPUs laufen längst am Limit unter DX11 da wird nur noch minimal
    Spielraum sein. Die Spiele Physik ist seit 12 Jahren ungefähr gleich geblieben, weil die Konsolen sonst das nicht mehr Umsetzen könnten. Auch die nächste Generation wird auf eine Abgespeckte Ryzen Cpu setzen im Mobilbereich
    was heißt ein stink normaler Ryzen oder Intel wird deutlich schneller sein. Damit braucht man selbst in Jahren kein Low Level Api und das hat DX12 das genick gebrochen. Weil DX11 genauso schnell ist ohne großen Mehraufwand
    und DX12 viel zu wenig Vorteile bietet. Solange DX12 nicht zeigen kann das es besser ist wird es nie wichtig werden. und DX12 ist nur wichtig wenn die CPU der Flaschenhals wird.
    So wie z.b. es AMD in ihren Ashes Benchmark gezeigt haben, der aber nicht nur DX12 zeigen soll sondern die überlegenheit von CGN. Ich würde mich Wetten trauen das der Quellcode von Ashes ziemlich interessant wäre.
    Vorallem bei einem Entwickler der schon immer gegen Nvidia gewettert hat und für AMD gearbeitet hat sollte man diesen Benchmark nicht als Beispiel nehmen.
    AMD wollte unbedingt tesselation? Hast du dazu mal eine Quelle zum nachlesen für mich? Das ist irgendwie an mir vorbei gegangen.

    Zu BF1 und DX12 kann ich dir nicht zustimmen. Also bei sämtlichen Systemen in meinem Bekanntenkreis liefert DX12 bessere min.fps. Bei den max ist DX11 öfter vorne, dafür ist DX12 wenn es vorn liegt, auch weiter vorn. Also im gesamten würde ich sagen, macht DX12 dort doch die bessere Figur. Da sind aber auch mehr AMD GPUs verbaut.

    Gesendet von meinem HTC 10 mit Tapatalk
    Stephan Wilke: "Hauptplatinen, die von Anwendern mit Bohrlöchern versehen werden, neigen überdurchschnittlich oft dazu, danach grundsätzlich nicht mehr zu funktionieren."

  9. #69

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Zitat Zitat von Cleriker Beitrag anzeigen
    AMD wollte unbedingt tesselation? Hast du dazu mal eine Quelle zum nachlesen für mich? Das ist irgendwie an mir vorbei gegangen.

    Zu BF1 und DX12 kann ich dir nicht zustimmen. Also bei sämtlichen Systemen in meinem Bekanntenkreis liefert DX12 bessere min.fps. Bei den max ist DX11 öfter vorne, dafür ist DX12 wenn es vorn liegt, auch weiter vorn. Also im gesamten würde ich sagen, macht DX12 dort doch die bessere Figur. Da sind aber auch mehr AMD GPUs verbaut.

    Gesendet von meinem HTC 10 mit Tapatalk
    ATI hat Tessellation für den GPU Markt "erfunden".

    Das ist schon eine ganze Weile her (beinah 16 Jahre):
    ATI TruForm - Wikipedia

    Allerdings wollte da niemand irrsinnige Faktoren, die zu Dreiecken führen, die nur einen Pixel groß, oder gar kleiner sind.

    Aktuelle X64 Tessellation fürht aber regelmäßig zu subpixel großen Dreiecken bei Tessellation.
    Wenn man da nicht unsinniges wegblocken kann, hat man ein Problem.
    AMD hat deshalb immer mit der Begrenzung auf Faktor 16 gearbeitet.

    Edit:
    Auf Youtube gibt es ein paar Videos zu Spielen, die jemand auf TruForm umgebogen hat.
    u.A. Quake III Arena, Unreal und Half-Life
    Quake III Arena using ATI TruForm - YouTube
    Unreal using ATI TruForm - YouTube
    YouTube

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  10. #70
    Avatar von Locuza
    Mitglied seit
    30.10.2009
    Ort
    BW
    Beiträge
    9.804

    AW: DirectX-12-Support: Aktuelle Grafiktreiber mit neuen DX12-Features

    Es gibt keine irrsinnigen Faktoren, nur die sinnige oder irrsinnige Verwendung davon.
    Und es gibt unzählige Features und Möglichkeiten, die bei jedem Spiel zu suboptimalen Performanceergebnissen bei X Hardware führen können.

    Mass Effect: Adromeda verwendet Faktor x16 für die Landschaftsgeometrie, AMD beschränkt den Faktor auf x8.
    Praktisch sind keine Unterschiede zu sehen, die Performancegewinne bei Polaris betragen allerdings 5-7% und bei Hawaii sogar 14-15%, fast doppelt bis dreifach soviel.
    Mass Effect Andromeda im Benchmark-Test - ComputerBase

Seite 7 von 8 ... 345678

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •