Total War Three Kingdoms: Techniktest des Strategie-Hits - Hardware, nimm dich in Acht!

scully1234 schrieb:
und das ist schon das stärkste 7nm Produkt , mit was wollte sich Navi dann nochmal messen ?
Strategiespiele mit DX11 stellen das Worst Case Szenario für AMD da, anstatt hier solltest du besser dort stänkern wo es die Entwickler sehen können. DX11 ist in diesem Genre einfach nicht mehr zeitgemäß, Anno 1800 zeigt wie es richtig geht. Weil Anno 1800 mit beiden APIs daherkommt, ist der Unterschied besonders deutlich zu sehen. Mit DX11 säuft Vega komplett ab während DX12 für einen enormen Push sorgt.
 
der eine Vendor bekommt es aber mit beiden APIs gebacken ,ohne den DX12 /Vulkan Turbo, also kann es nun ja nicht an der Schnittstelle selber liegen

Eben weil du gerade Anno 1800 erwähnst
 
der eine bekommt es aber mit beiden APIs gebacken ,ohne den DX12 /Vulcan Turbo
Das verliert mehr und mehr an Bedeutung. Ich glaube wir sind uns einig, dass DX12 und Vulkan inzwischen immer mehr zum Einsatz kommen und DX11 nur noch als Fallback zu betrachten ist. In Anno 1800 profitiert Nvidia übrigens auch enorm von DX12. Aus dem Grund hilft etwas mehr Druck auf die Entwickler für einen schnelleren Umstieg deutlich mehr als Spott und Häme, von DX12 und Vulkan profitieren wir alle.
 
Das verliert mehr und mehr an Bedeutung. Ich glaube wir sind uns einig, dass DX12 und Vulkan inzwischen immer mehr zum Einsatz kommen und DX11 nur noch als Fallback zu betrachten ist. In Anno 1800 profitiert Nvidia übrigens auch enorm von DX12. Aus dem Grund hilft etwas mehr Druck auf die Entwickler für einen schnelleren Umstieg deutlich mehr als Spott und Häme, von DX12 und Vulkan profitieren wir alle.

Ich glaube nicht das Dx11 so schnell verschwindet , da gerade die kleinen Indie Butzen ,nicht den Mehraufwand stemmen können, den es bedeutet low Level zu gehen

Sich da doch lieber auf das ihnen Arbeit ersparenden DX11 stützen, wo noch der Grafikkartenhersteller die Hauptlast mit schultert

Und man sieht ja gerade hier wieder am aktuellen Blockbuster das es selbst große Studios noch so handhaben 2019

Die Treiberarbeit wird weiterhin zu tun sein um den DX11 Overhead abzufedern, und wenn irgendwer meint mit DX12 nun die Hände in den Schoss legen zu können, dann endet es letztendlich in solchen Resultaten
 
Zuletzt bearbeitet:
ALs SpIELEr hAt mAn nIchts vOn mEhr ALs 4 KErnEn!!!!

Das nenne ich mal eine extrem gute Nutzung vieler Kerne, gefällt mir :daumen:

Aber vorsicht: Dies gilt sicherlich nicht für deinen FX :P.

@Top -> kein D3D12 :what: WTF.....Hat sich dann direkt erledigt....Halloooo wie haben Mitte 2019....HALLOOOOOO :wall:. Erklärt ja dann die durchwachsene Radeon Performance :daumen2:.

@Scully....boha mach doch einfach mal deinen Kopp zu, echt übel was du so blähst und ausdünstest :rollen:.
 
Zuletzt bearbeitet:
scully1234 schrieb:
Ich glaube nicht das Dx11 so schnell verschwindet , da gerade die kleinen Indie Butzen ,nicht den Mehraufwand stemmen können, den es bedeutet low Level zu gehen
Bei Indie Titeln ist das am Ende aber auch egal, die Anforderungen an die API sind massiv geringer als bei Großproduktionen.

scully1234 schrieb:
Und man sieht ja gerade hier wieder am aktuellen Blockbuster das es selbst große Studios noch so handhaben 2019
Das ist inzwischen trotzdem die Ausnahme als die Regel, ohne Hintergrundwissen können wir nur Spekulatius essen und raten warum Creative Assembly kein DX12 gebacken bekommt. Schau dich doch mal bei der Konkurrenz um:

Doom 2016, Wolfenstein 2: Vulkan only.
Metro Exodus: schneller mit DX12.
Anno 1800: deutlich schneller mit DX12.
Die alte Gurke World of Warcraft: schneller mit DX12.
The Division 2: deutlich schneller mit DX12.
Shadow of the Tomb Raider: deutlich schneller mit DX12.
Rage 2: Vulkan only.
World War Z: schneller mit Vulkan.

Die Zahl der Titel mit DX12 oder Vulkan wird auch in Zukunft weiter wachsen. Durch RTX hilft Nvidia bei Großproduktionen wie Cyberpunk 2077, Watch Dogs Legion oder Control sogar mit, die DX11 Altlast mit zunehmender Geschwindigkeit loszuwerden.
 
Das verliert mehr und mehr an Bedeutung. Ich glaube wir sind uns einig, dass DX12 und Vulkan inzwischen immer mehr zum Einsatz kommen und DX11 nur noch als Fallback zu betrachten ist. In Anno 1800 profitiert Nvidia übrigens auch enorm von DX12. Aus dem Grund hilft etwas mehr Druck auf die Entwickler für einen schnelleren Umstieg deutlich mehr als Spott und Häme, von DX12 und Vulkan profitieren wir alle.

Auch wenn ich zustimme, dass insbesondere Anno profitiert und generell gut implementiertes Dx12 ein Gewinn wäre sind wir weit davon entfernt, dass das Standard ist. Wie viele Spiele gibt es mit "gutem" Dx12 von gefühlt 15.000 in den letzten 2 Jahren?

Wie kommst du darauf, dass ein 7700K eine um 30 Prozent höhere IPC-Rate als ein optimierter Ryzen 7 1700 verfügt? Der "schwache 1700" erreicht im getesteten Zustand in etwa die Leistung eines Stock-2700X mit spezifikationsgemäßem DDR4-RAM.

MfG,
Raff

Evtl bis zu 1 GHz mehr Takt? Keine Infinty Brücke zwischen den CCX sondern Ring Bus? Geringere Latenz? Nicht dass es stimmen muss, möglich sind aber definitiv Unterschiede
 
Nochwas zum Kopfschütteln:
Anatomy Of The Total War Engine: Part III - DX12 - GPUOpen
(das war 2016!)

Aus der Serie:
Tamas Rabel, Author at GPUOpen - Part I - V

Da holt man sich schon Hilfe bei AMD und kriegt's trotzdem nicht gebacken. Ich gucke mir die Entwicklung der Engine schon seit Jahren an und man kommt einfach zu keinem anderen Entschluss als einem komplett inkompetenten Entwickler. Mit brauchbarem Multicore Support haben sie dem Rest der Branche schon 5 Jahre hinterhergehinkt und jetzt mit DX12/Vulkan genauso.
 
Wie viele Spiele gibt es mit "gutem" Dx12 von gefühlt 15.000 in den letzten 2 Jahren?
Ich habe bereits einige aufgezählt. "Gefühlt 15.000" ist halt auch stark übertrieben, die Zahl der Titel mit DX12 und Vulkan ist in großem und ganzen noch überschaubar. Zudem performen ja nicht alle DX11 Titel schlecht mit Radeons, siehe Far Cry 5/New Dawn, Frostbite basierte Titel, Dirt Rally 2.0 oder das RE 2 Remake.
 
@Atma

Gefühlt nur ohne Recherche, exakt waren es 16.099 aus 2017 und 2018 allein auf Steam. Auch die meist gespielten sind keine Dx12 Schlager ;)
 
Palmdale schrieb:
Auch die meist gespielten sind keine Dx12 Schlager ;)
Das ist nun wirklich keine bahnbrechende und überraschende Erkenntnis, Spiele für die Masse müssen prinzipiell anspruchslos sein und auf so gut wie jeder Gurke laufen. Damit einher geht automatisch auch der fehlende Bedarf nach DX12/Vulkan.
 
Die TW reihe leidet schon seit Ewigkeiten unter diesem Problem, das ist keine neue Erkenntnis hier in dem Titel.
Die Performance der Engine war schon immer grottig, jeder Teil hat bisher meine Rechner vollends in die Knie gezwungen im MaxOut und war oft mein Antrieb zum Aufrüsten.
Hab mich dran gewöhnt, die Reihe ist trotzdem Referenz im Genre und es stände der Reihe auch mal wirklich langsam gut auf eine moderne API zu setzen, allein schon die Möglichkeiten die daraus resultieren wären es Wert. Wirklich realistisch wirken die Schlachten im Grunde erst, wenn wirklich jeder Hansel im Gefecht mit seinem Gegenüber berechnet wird.

Nichts desto trotz, ist die Radeon Performance hier enttäuschend.
 
Aber vorsicht: Dies gilt sicherlich nicht für deinen FX :P.

Der is ja auch nur 4 echte und 4 halbe kerne - quasi 6 insgesamt also :ugly:
Der kommt auch bald in den Vorruhestand (sprich: in den PC meiner Freundin), dann kommt da ein richtiger 6-Kerner rein.



@Scully....boha mach doch einfach mal deinen Kopp zu, echt übel was du so blähst und ausdünstest :rollen:.

Ich verweise einfach mal auf den anderen Teil meiner Signatur :D
 
Hi Raff und Phil,

ihr schreibt ja so schön im Text, dass neben den Schatten auch die Schlachteneffekte nicht auf maximaler Stufe sind.
Dann bitte auch in den Benchmark-Diagrammen so angeben: Max. details with TAA - except shadows and...
Thx
 
wow jeder thread nur noch am shitposten nice forum. schlimmer als jedes kiddie subreddit, selbst da bekommt man erwachsenere Diskussionen zustande.
 
Zurück