Wolfenstein 2 The New Colossus - Vulkan- und Vega-Optimierungen gegen 1080 Ti

SRY 1080ti ?? leider nicht moglich !!

Capture.PNG
 
Kannste doch die 1080ti auswaehlen...

Haetten wir modernere Engines, wuerden wir in mehr Spielen bessere Performance sehen. Die meisten Spiele basieren auf Engines die schon ueber 10 Jahre alt sind (Assassins Creed, Far Cry, COD etc)
Immerhin haben wir die ID Tech und Frostbite, diese Engines liefern mMn die beste Optik und die beste Performance. Unreal Engine 4 ist auch nicht schlecht und auch relativ aktuell.

Ryse Son of Rome mit Cryengine skaliert sehr gut auch auf schwächeren Systemen und sieht immer noch unfassbar gut aus .Optisch noch nicht wirklich viel besseres gesehen .
 
Zuletzt bearbeitet:
Wäre mal interessant zu wissen wie oft Käufer einer 970 oder 390 seit dem mindestens ein Grakatausch oder mehr gemacht haben .Ich spekuliere jetzt mal das es wesentlich mehr und auch mehr als einmal aufseiten der 970 Käufer sind .
.
wie gesagt ich hatte ja die 390x selber und weiß halt wie rainbow six und AC beide über 4gb genommen haben bei Ultratexturen bei 1440p, ich habe damals mix gespielt aus ultratexturen / filtering und dann eher bei licht/schatten sachen eingespart und hatte dann genug FPS, bei AC syndicate fast ca 50-60 FPS mit i7 damals
 
Ist ja alles schön und gut, nur werden Spiele wie Wolfenstein 2 die Ausnahme bleiben weil sich kaum ein Entwickler die Mühe macht spezifisch für eine GPU zu optimieren. Das ist Territorium der Konsolen, nicht des PCs mit all seinen potentiell möglichen GPUs. Gerade deswegen gibt es APIs wie Direct 3D. Eine GPU muss zu jeder Zeit und ohne spezifische Optimierungen die Leistung abrufen können und daran scheitert Vega eben total.
 
Zuletzt bearbeitet:
sag mal aloha84 warum hast Du denn das Thunder Force 4 Schiffchen als Avatar? Fan? Hab mir gerade das Mega Drive Spiel gebraucht gekauft. Kostet mittlerweile schon ein kleines Sümmchen. Geiler Soundtrack.
 
Aaaah, noch ein Thunderforce Fan? Mann! Damals habe ich TF3 ohne einmal kaputt zu gehen mit 16 Extraleben am Ende durchgespielt.
Heute komme ich nicht einmal bis Level 3. :)
Lang lebe das Megadrive!
 
  • Like
Reaktionen: hfb
UE ist Gameworks Land und damit nVidia. Auf diesen läuft das auch recht ansehnlich.

NVIDIA GameWorks and UE4 | NVIDIA Developer

Ehrlich, ich habe die damals nicht verstanden, aber das müssen die dort selbst wissen. Epic halt.

Um Gameworks (alleine) gehts noch nicht mal, das ist zudem ein Extra, dass viele (noch) positiv sehen, Stichwort HBAO+ für alle etc.

Bedenklich ist eher die generell starke Herstellerbezogenheit, auch ganz unabhängig von Gameworks: Unreal Engine | NVIDIA Developer

Develop on NVIDIA Hardware!

NVIDIA and Epic have a long history of collaboration. In fact, UE4 is optimized for NVIDIA GPUs and mobile chips.

"Epic developed Unreal Engine 4 on NVIDIA hardware, and it looks and runs best on GeForce."
Tim Sweeney, founder, CEO and technical director of Epic Games.

Es wird ganz offen und unverblümt gesagt was Sache ist.

Gegenüber dem Leistung/Anfordung-Verhältnis einer Frostbite bzw. Id Tech 6 oder der schieren Kernskalierung einer Cry-Engine, Snowdrop Engine oder von mir aus auch Anvil Next Engine, wirkt die Unreal Engine 4 einfach nur jämmerlich/erbärmlich. Ganz egal was sie optisch hervorbringen kann, sie nutzt moderne Hardware nicht gut aus. Nur eine stark modifizierte UE4 in Gears of War 4 liefert einigermaßen ab, unter Hinzunahme von LL-API. Ob es für mehr als nur Schlauchlevel reicht, ist damit allerdings noch nicht gesagt (siehe auch Hellblade).
 
Zuletzt bearbeitet von einem Moderator:
Man darf hohe Anforderungen nicht mit schlecht laufen verwechseln, UE 4, naja Bioshock Infinity war jedenfalls nicht schlecht. Das das vermurkst lief kann man nicht sagen. UE3 eben. Arkham Serie und GoW inbegriffen.

Mittlerweile ist UE4 open source, für mich der richtigere Weg.:daumen:

PS: wobei ab 3000$ bekommt Epic dann 5% (up to date nVidiamanie... :D)
Verglichen zu einem BF, jedes neuere Ubigame oder Crysis stimmen Leistungsbedarf und erzielte Leistung bei UE4 Games schlicht nicht überein.
Hellblade ist für das gebotene gut, vorallem für so ein kleines Studio, aber an die großen kommt es nicht heran.

Liegt zum Teil auch daran, das EA-Entwickler gerne die Engine für Sachen vergewaltigen, wofür sie nicht entworfen wurde.
 
Von der Rohleistung her sollte die Vega sich auch mindestens mit einer 1080ti anlegen können, denn an der Rohleistung alleine mangelt es ja, wie hier durch einen Patch bewiesen, offensichtlich nicht.
Es ist (mal wieder) sehr viel Treiber-Arbeit nötig, um die Vega auch nur ansatzweise, wie hier, auszulasten. An Features mangelt es der Vega ja anscheinend nicht. Nur müssen die Treiber wieder der Hardware hinterherrennen, was leider bei AMD
viel zu oft zu passieren scheint und anscheinend auch Standard ist. Bei Nvidia ist es genau umgekehrt. Da rennt die Hardware eher der Software hinterher, was ja auch richtig so ist.

Trotzalledem bin ich doch sehr zufrieden und lobe es sehr, dass es Spieleentwickler, wie Machine Games, gibt, die Vega sehr ernst nehmen und stellt euch vor, was passieren würde wenn andere Entwickler Vega mindestens genauso ernst nehmen wie Machine Games.

Go Game Developers GOOOO!
 
Ausnahmen gab es auch da schon immer. Genauso wie Wolf wieder die Ausbahme darstellt und in der Regel schauts gensu umgekehrt sus. Frag also eher bei AMD warum ;)

@Bladerunner: also Tech 6 ubd 6.5 ist jetzt auch keine "neue" Engine wenn man immer auf den Ursprung zurück schsut. Die letzte völlig neue Engine bei ID war nämlich Tech 4. Die von Carmack geplante Tech 6 kam so js nie. Man siwht es auch in Doom schön, wurden dort einige Animationen 1:1 aus Doom3 übernommen

Dass die Id Tech 6.5 nicht wie ursprünglich geplant erschien glaub ich ja, aber seit wann sind faule Animationskünstler ein Indiz dafür, welche Engine verwendet wurde? (bzw. welche Wurzeln diese hat).
Wenn eine Engine mehr kann, ist es dennoch möglich, alte Animationen wiederzuverwenden.
 
Ist ja alles schön und gut, nur werden Spiele wie Wolfenstein 2 die Ausnahme bleiben weil sich kaum ein Entwickler die Mühe macht spezifisch für eine GPU zu optimieren. Das ist Territorium der Konsolen, nicht des PCs mit all seinen potentiell möglichen GPUs. Gerade deswegen gibt es APIs wie Direct 3D. Eine GPU muss zu jeder Zeit und ohne spezifische Optimierungen die Leistung abrufen können und daran scheitert Vega eben total.

Der Kommentar ist ungewollt putzig...
Was meinst Du wohl, wofür Nvidia die 5000 Softwareingenieure beschäftigt?
Viele davon gehen kostenlos zu den Spielestudios und helfen bei den Optimierungen aus.
Die Treiber Teams arbeiten hart an Optimierungen im Treiber, um entweder Designschwächen der Spiele, oder gezielt Schwierigkeiten zu umschiffen.
Nvidia hat schon immer sehr gern im Treiber optimiert, anstelle den Game Code zu beeinflussen - auf extremetech gibt es einen schönen Bericht zu dem Thema - inklusive Feedback von ein paar Spieleentwicklern.
 
Der Kommentar ist ungewollt putzig...
Was meinst Du wohl, wofür Nvidia die 5000 Softwareingenieure beschäftigt?
Viele davon gehen kostenlos zu den Spielestudios und helfen bei den Optimierungen aus.
Die Treiber Teams arbeiten hart an Optimierungen im Treiber, um entweder Designschwächen der Spiele, oder gezielt Schwierigkeiten zu umschiffen.
Nvidia hat schon immer sehr gern im Treiber optimiert, anstelle den Game Code zu beeinflussen - auf extremetech gibt es einen schönen Bericht zu dem Thema - inklusive Feedback von ein paar Spieleentwicklern.

Und AMD ist mittlerweile auf Augenhöhe bei einem Bruchteil des Budget und Personal?
 
Man darf hohe Anforderungen nicht mit schlecht laufen verwechseln, UE 4, naja Bioshock Infinity war jedenfalls nicht schlecht. Das das vermurkst lief kann man nicht sagen. UE3 eben. Arkham Serie und GoW inbegriffen.

Mittlerweile ist UE4 open source, für mich der richtigere Weg.:daumen:

PS: wobei ab 3000$ bekommt Epic dann 5% (up to date nVidiamanie... :D)

Die beste war bis jetzt für mich die UE 3 (Mirrors Edge, Borderlands und Spec Ops zeigen wie vielseitig diese Engine ist)
Alle 3 Bioshockteile basieren aus einem mischmasch aus 2.5 und 3 und 3.5 auch als Vengeance-Engine bekannt ist
Ark und Pubg sind UE 4 und die haben für mich echt nen unverständlichen Hardwarehunger, UT 4 schaut gut aus und läuft 1A......, vll sind Openworld Games net so das gelbe vom Ei mit der UE 4.
 
Zuletzt bearbeitet:
Das ist so nicht richtig.
Bei der Fury gebe ich Dir Recht, allerdings war die für mich immer nur eine Machbarkeitsstudie und nie ein ernsthafter Gegener für die 980ti, alleine schon wegen dem zu kleinen VRAM, egal ob HBM oder nicht. Übrigens auch die hervorragende 980 krankt da an ihren 4GB VRAM. Schade um so eine tolle Karte, die man mit mehr Speicher deutlich länger nutzen könnte.
Mit der Leistung im Hier und Jetzt, ist ein sehr ausgelutschtes Argument und trifft zudem nichtmal zu. Die allerwenigsten User kaufen sich jedes Jahr eine neue Karte, sondern nutzen Diese wahrscheinlich mind. 2-3 Jahre. An dem Beispiel 970 vs 390 sieht man sehr schön, das eine Graka auch noch nach das 2 Jahren das macht, was sie soll, nämlich Pixel beschleunigen und nicht, wie im Fall der 970, nach 20 Monaten die Flügel zu strecken. Auch mit den alten HD 7970/7950 gegen ihre NV- Pedants, sah und sieht es ähnlich aus und hier ist es nicht mal der Mangel an Grafikspeicher, sondern schlicht und ergreifend unterstützen die älteren NVs bestimmte moderne Features nicht. ICH WILL DOCH NICHT NUR LEISTUNG FÜR EIN PAAR MONATE!
Gruß T.

Ich gebe dir Recht, die GTX970 war ein reinfall und trifft bei deiner Sichtweise definitiv zu. Allerdings sehe ich z.b. die GTX980 und die GTX980TI genau da wo sie immer waren +- ein paar Prozent (laut PCGH Index). Die eine Schlägt sich mit der R390X und die andere mit der Fury. Von daher würde ich nicht sagen, dass man das verallgemeinern kann. Zumal niemand bestritten hat, dass der Hawaii Chip wirklich gut war, wenn auch oft mit Auslastungsproblemen zu kämpfen hat in niedrigen Auflösungen.
 
Erstmal für sich alleine betrachtet ist weniger Verbrauch sicherlich nicht schlecht .Damals hieß es immer schaut was mit 145W geht wozu ne Karte mit 100W mehr Verbrauch ,nun argumentiert man lustigerweise halt andersrum .Was bleibt ist zwar der höhere Verbrauch aber wenn man mal ehrlich ist war die 390 auf Kosten/Nutzen/Langlebigkeit gesehen das definitiv bessere Produkt .In den meisten aktuellen Spielen ist die 970 mittlerweile eher Qual statt Wahl gegen die 390 .

Wäre mal interessant zu wissen wie oft Käufer einer 970 oder 390 seit dem mindestens ein Grakatausch oder mehr gemacht haben .Ich spekuliere jetzt mal das es wesentlich mehr und auch mehr als einmal aufseiten der 970 Käufer sind .

Edit:
Habe selber keine der beiden Karten besessen.
Ich hatte eine 7950 zu Release gekauft dann eine R9 290 1 Jahr nach Release und aktuell die Fury seit ca 1 1/2 Jahren als der Preis gegen 300€ gefallen war .Habe für meine 7950 noch 120€ und für die 290 knapp 190€ also jeweils noch gutes Geld bekommen was die Neuanschaffung dementsprechend versüßt hat .Jede Karte war so ca. 300€ teuer x 3 macht 900€ minus 310€ vom weiter Verkauf bleiben unterm Strich 590€ in 5 Jahren für 3 Graka Generationen .Für 590€ gabs damals nicht mal eine 980 die heute auch noch von der Fury durchwegs abgehängt wird .Top P/L AMD Fury in meinen Augen .

Nur halt, das man eine 145W Karte besser kühlen kann (besonders in Minigehäusen). Wobei ich kurz davor bin, mir eine Vega 64 in ein Node 202 zu schnallen ;)
 
Und AMD ist mittlerweile auf Augenhöhe bei einem Bruchteil des Budget und Personal?

Wie, auf Augenhöhe?
Technisch? Wirtschaftlich?
AMD nutzt fortschrittliche Techniken, wie HBM und stellt mit eine Karte auf die beine, die 100W mehr verbraucht, als das schneller Modell der Konkurrenz , ohne dabei der selben, im Schnitt gefährlich werden zu können.
AMD wird auch aus jeder einzelnen Vega nicht wirklich so viel Gewinn abschöpfen können, also wirtschaftlich auch eher nicht.

Nicht falsch verstehen, auch Vega hat seinen Reiz, nicht umsonst überlege ich auch mir eine Vega 64 zu holen. Aber Augenhöhe? Nvidia hätte auch, wenn man sich dazu entschieden hätte, einen größeren Chip, oder das SI aufbohren können, oder sonst einen Aufwand treiben können. Aber es war eine wirtschaftliche Entscheidung, das die Produkte sind, wie die sind und für Nvidia geht das doch gerade voll auf. Weniger Herstellungskosten, aber mehr Gewinn. ;)
 
Zurück