DirectX 12 in Hitman und Quantum Break: Schnellere Spiele mit neuer Technik?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DirectX 12 in Hitman und Quantum Break: Schnellere Spiele mit neuer Technik?

Die ersten zwei Tage der Game Developers Conference in San Francisco gehören ganztätigen Minikonferenzen und Tutorials etwa zu Spieldesign, Storytelling und Grafikprogrammierung - dort war besonders der Umstieg auf DirectX 12 ein großes Thema. PCGH hat sich zwei Sessions zu Hitman und Quantum Break angesehen, beides Spiele, die DirectX 12 nutzen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: DirectX 12 in Hitman und Quantum Break: Schnellere Spiele mit neuer Technik?
 
Zitat:
"Während der Entwicklung war die DX-12-Version zeitweilig sogar noch deutlich langsamer als der DX-11-Variante. "Es war nicht einfach, beiden Engines am Ende die gleiche Leistung abzugewinnen", erinnert sich Meyer."
Kommt mir irgendwie bekannt vor, wenn man sich ein paar Tage zurück an Laras DX12 Umsetzung erinnert. Das wäre dann wohl die Bestätigung das dort die DX12 Implemetierung nur halbgar und unzureichend umgesetzt wurde bzw die einen nicht fertigen Patch veröffentlicht haben. :motz:
 
Doch die Ergebnisse erstaunten Jonas Meyer: "Mit AMD-Chips waren Leistungssteigerungen von fünf bis zehn Prozent drin, bei Nvidia-GPUs machte der Einsatz von Async Compute überhaupt keinen Unterschied." Die Entwickler von Remedy sind deshalb derzeit mit Nvidia im Gespräch, um diese Verbesserungen auch auf GeForce-Karten zu erreichen.
Fehlerteufel: IO Interactive
 
Also vorweg, weil die meisten sagen es bringt nichts das stimmt einfach nicht, um mehr Performance aus einem Gerät (CPU,GPU,...) zu holen steigt immer der Aufwand,z.B. auf Assemlber Ebene ist der Aufwand enorm und die einzige Möglichkeit um wirklich die meiste Performance herauszuholen, daher kann ich es nicht nachempfinden dass man sagt DX12 bringt nichts, es wird jetzt einfach mal eine Zeit dauern um mehr Erfahrung zu sammeln dann kommt wiederum eine Phase wo Verbesserungen an der Programmierung gemacht werden, etc. und wird man wahrscheinlich mehr als 10% sehen im Mittel.
 
Mag sein Zerocool, aber M$ hatte es anders formuliert. Somit soll(te) der Sprung von DX11 auf DX12 einfacher sein als damals der Wechsel von DX10 zu 11. Also stimmt das nun doch nicht sooo ganz. Gears of War und Rise of the Tomb Raider waren gute Beispiele wie man es wohl eher nicht machen sollte. Und bei Hitman gibts wohl auch noch den einen oder anderen Haken. Fazit, Microsoft erzählt viel wenn der Tag lang ist, wo im Umkehrschluss im nachhinein genau das Gegenteil der Fall ist. Mehrleistung hin oder her.
 
Mag sein Zerocool, aber M$ hatte es anders formuliert. Somit soll(te) der Sprung von DX11 auf DX12 einfacher sein als damals der Wechsel von DX10 zu 11. Also stimmt das nun doch nicht sooo ganz. Gears of War und Rise of the Tomb Raider waren gute Beispiele wie man es wohl eher nicht machen sollte. Und bei Hitman gibts wohl auch noch den einen oder anderen Haken. Fazit, Microsoft erzählt viel wenn der Tag lang ist, wo im Umkehrschluss im nachhinein genau das Gegenteil der Fall ist. Mehrleistung hin oder her.

weil der Port schlecht ist, stimmt es nicht was MS gesagt hat ja Gears of War war ein Schuss in den Ofen aber man hätte ewig mit DX11 weiter machen können oder eine neue entwickeln meistens ist es billiger eine neue API zu schreiben als ewig zu warten und Fehler zu suchen, eine API zu schreiben ist meistens billiger und geht schneller als irgendwo herumzudümpeln, wie gesagt um die meiste Performance herauszuholen gibt es nur eine Möglichkeit und zwar Assembler zu schreiben für CPUs, aber das geht nicht weil dort einfach der Programmieraufwand viel zu hoch wäre des schwenkt man ja auf APIs um , damit man möglichst viel Performance herausholt bei gerechtfertigten Aufwand.
 
Ja nur dann sollen die sich zeit nehmen und es richtig machen. Wenn man sich die Negativbeispiele anschaut vergeht es Einem. Ashes of the Singularity z.B., da merkt man doch schon das sich Oxide da wirklich rein gekniet hat um DX12 richtig zu nutzen, und dann kommen Andere und bieten halbgare fehlerhafte Implemmentierungen in GoW und RotTR.
Ja gut, DX12 steht erst am Anfang, mal schauen was daraus wird. Schade find ich die Einstellung von Fable Legends, aber es steht ja noch Quantum Break aus, von daher bin ich sehr gespannt wie es da läuft. Nun setzt das Game ja Windows 10 voraus, und jetzt weiß ich nicht ob ein Fallback auf DX11 drin ist aber sollte eigentlich schon.
 
Wie ich vermutet hab, größerer Aufwand auf Seiten der Entwickler und Programmierer. Es darf bezweifelt werden, dass es wirklich mit dx 12 ein Massenphänomen wird oder doch nur vereinzelt eingesetzt wird bei Studios, die sich das auch leisten können (selbst wenn es Sinn machen würde)
 
Wie ich vermutet hab, größerer Aufwand auf Seiten der Entwickler und Programmierer. Es darf bezweifelt werden, dass es wirklich mit dx 12 ein Massenphänomen wird oder doch nur vereinzelt eingesetzt wird bei Studios, die sich das auch leisten können (selbst wenn es Sinn machen würde)

Blödsinn jetzt ist einmal viel Aufwand umzustellen und danach Copy & Paste wenn die Engine mal steht.
 
Ist das so? Bin ja kein Entwickler, doch kann sich selbst die "Umstellung" nicht jeder leisten, vom Lohnen wie angeschnitten ganz zu schweigen.

Es ist immer so wenn du mehr Performance haben willst, dann musst du auch mehr Zeit reinstecken unabhängig von der API vor allem hardwarenahes programmieren kostet immer Zeit, das ist nun mal so. Auf der anderen Seite sollte man sich die Fragen stellen ob es die API überhaupt erlaubt gewisse Optimierungen zu machen. Mit der Zeit wird es aber einfacher weil man schon auf eine Code Basis zurückgreifen kann.
 
Es ist immer so wenn du mehr Performance haben willst, dann musst du auch mehr Zeit reinstecken unabhängig von der API vor allem hardwarenahes programmieren kostet immer Zeit, das ist nun mal so. Auf der anderen Seite sollte man sich die Fragen stellen ob es die API überhaupt erlaubt gewisse Optimierungen zu machen. Mit der Zeit wird es aber einfacher weil man schon auf eine Code Basis zurückgreifen kann.

Den Hintergrund und deine Beweggründe hab ich schon verstanden. Nur werden Engines ja massiv angepasst und den eigenen Wünschen umgebaut, weshalb es wie bei Mantle sehr lange und umfangreiche Anpassungen gab, bis der entsprechende Titel gut lief. Ganz zu schweigen von den dazugehörigen Treibern.

Insofern kann ich mir das nur bei den oberen 50 in den kommenden zwei Jahren vorstellen, die angepasste oder spezifisch darauf entwickelte DX12 Renderpfade verwenden. 95% der Spieleentwickler werden vielleicht trotz DX12-fähiger Engine keine Ressourcen dafür haben (Zeit und/oder Geld), DX12 für ihr Spiel umzusetzen. Wie auch viele Spiele DX12 eben auch nicht brauchen, sondern lieber die DX11 allinone Lösung vewenden.

Hardwarenähe wie wir im Artikel lesen konnten gibt ja nicht nur die direkte Kontrolle, sondern kommt auch einher mit der Verpflichtung, diese Kontrolle für alle Eventualitäten zu behalten. Nur ein Fehler und es gibt wie z.B. bei früheren Mantle-Entwicklungen Speicherleaks.
 
Den Hintergrund und deine Beweggründe hab ich schon verstanden. Nur werden Engines ja massiv angepasst und den eigenen Wünschen umgebaut, weshalb es wie bei Mantle sehr lange und umfangreiche Anpassungen gab, bis der entsprechende Titel gut lief. Ganz zu schweigen von den dazugehörigen Treibern.

Insofern kann ich mir das nur bei den oberen 50 in den kommenden zwei Jahren vorstellen, die angepasste oder spezifisch darauf entwickelte DX12 Renderpfade verwenden. 95% der Spieleentwickler werden vielleicht trotz DX12-fähiger Engine keine Ressourcen dafür haben (Zeit und/oder Geld), DX12 für ihr Spiel umzusetzen. Wie auch viele Spiele DX12 eben auch nicht brauchen, sondern lieber die DX11 allinone Lösung vewenden.

Hardwarenähe wie wir im Artikel lesen konnten gibt ja nicht nur die direkte Kontrolle, sondern kommt auch einher mit der Verpflichtung, diese Kontrolle für alle Eventualitäten zu behalten. Nur ein Fehler und es gibt wie z.B. bei früheren Mantle-Entwicklungen Speicherleaks.

naja so einfach ist das jetzt auch nicht, im Moment steckt man sehr viel Zeit in die neue API danach wird man mal auf Templates zurückgreifen um schon etwas Grundperformance zu haben und dann wird man weiter optimieren, stimmt schon mit der Anpassung aber wie z.B. bei Geards of War hat man überhaupt nichts gemacht nur DX12 anstatt DX11 geschrieben so quasi -> das geht schief, man kann leichter eine neue Engine entwickeln wenn man schon auf ein Interface (DX12) zugreifen kann anstatt die Engine komplett umzuschreiben damit man DX12 benutzen kann, deswegen mal abwarten auf Quantum Break da gibt es kein DX11 insofern richtige Entscheidung seitens WS
 
naja so einfach ist das jetzt auch nicht, im Moment steckt man sehr viel Zeit in die neue API danach wird man mal auf Templates zurückgreifen um schon etwas Grundperformance zu haben und dann wird man weiter optimieren, stimmt schon mit der Anpassung aber wie z.B. bei Geards of War hat man überhaupt nichts gemacht nur DX12 anstatt DX11 geschrieben so quasi -> das geht schief, man kann leichter eine neue Engine entwickeln wenn man schon auf ein Interface (DX12) zugreifen kann anstatt die Engine komplett umzuschreiben damit man DX12 benutzen kann, deswegen mal abwarten auf Quantum Break da gibt es kein DX11 insofern richtige Entscheidung seitens WS

Da bin ich in der Tat sehr gespannt. Entweder wars Rollora oder Noxon ausm CB, der hier erläuterte, dass ein DX12 Pfad an DX11 angeflanscht nie die Performance bringen kann wie bei Quantum Break, dass von Haus auf auf DX12 programmiert wird. Dieser Dual-Weg wird immer mehr oder weniger Verluste mit sich bringen.

Gears of War war wohl das Batman Arkham Knight von DX12 ;). Aber Quantum Break wird sehr interessant von den Benchmarks. Für die Spieler vielleicht weniger, is ja Windows-App-Store -.-
 
Es ist immer so wenn du mehr Performance haben willst, dann musst du auch mehr Zeit reinstecken unabhängig von der API vor allem hardwarenahes programmieren kostet immer Zeit, das ist nun mal so. Auf der anderen Seite sollte man sich die Fragen stellen ob es die API überhaupt erlaubt gewisse Optimierungen zu machen. Mit der Zeit wird es aber einfacher weil man schon auf eine Code Basis zurückgreifen kann.
Und schleppt ggf. Probleme/Einschränkungen der alten Engine mit sich, weil die DX12 Features einfach drangepappt werden.
 
Niemals hätte MS so einen Unsinn behauptet.
DX10 und DX11 sind praktisch eine Grund-API.
DICE hat damals einen Tag für einen funktionellen Port gebraucht, weil lediglich ein paar Interface-Namen und Funktionen geändert werden mussten.

DX12 dagegen funktioniert grundlegend anders.

Das einzige was in der Richtung behauptet wurde, dreht sich um die Adaptionsrate von DX12 und wie schnell Entwickler auf die neue API umsteigen.
 
nvidia wussten anscheinend ganz genau warum maxwell nicht wirklich dx 12 fähig ist. gute dx 11 treiber sind anscheinend immer noch besser. gibt ja erst offiziell 2 spiele wo eine furx dann mit ner custom 980ti gleichzieht oder leicht ahängt und bei dx11 sieht amd kein land bei den high end gpus. aber mittelklasse ist eine r9 390 nitro schon toll für den preis. da kannst die 970 mit ihren geteilten speicher wieder vergessen.
 
Zurück