Wolfenstein 2 The New Colossus - Vulkan- und Vega-Optimierungen gegen 1080 Ti

Das ist aber nicht ganz richtig. Das Problem bei AMD ist dass die Leistung extrem inkonsitent ist. Ich meine es gibt Spiele wie Wolfenstein bei denen Performt auf einmal eine 390 extrem und eine Fury kackt total ab.
Man weiß bei AMD eben nie was man kriegt. Die Fury ist jetzt schon öfters hintern runter gefallen, während Hawaii basierende Karten gut mithalten konnten. Woher sollen wir wissen dass es mit VEGA nicht so ist. Bei NV kaufe ich mir eine Karte und weiß was ich bekomme. Ich bekomme die leistung auch jetzt und nicht erst in einem Jahr. Und ich bekomme die Leistung immer. Und ich hatte die Leistung bereit 1,5 Jahre vor AMD! (hatte zuerste ine 1080)
Es werden wohl weniger als 1% der Entwickler sich die Mühe machen ihre Enginge so extrem für AMD anzupassen und zu optimieren, dass die Rohleistung auch genutzt werden kann.
Vega hat einfach ein Problem, dass es mit Standrad-APIs nicht klar kommt und nicht gut performt. Mit extremen Anpassung kann man schon die Rohleistung rauskitzeln.

Das ist so nicht richtig.
Bei der Fury gebe ich Dir Recht, allerdings war die für mich immer nur eine Machbarkeitsstudie und nie ein ernsthafter Gegener für die 980ti, alleine schon wegen dem zu kleinen VRAM, egal ob HBM oder nicht. Übrigens auch die hervorragende 980 krankt da an ihren 4GB VRAM. Schade um so eine tolle Karte, die man mit mehr Speicher deutlich länger nutzen könnte.
Mit der Leistung im Hier und Jetzt, ist ein sehr ausgelutschtes Argument und trifft zudem nichtmal zu. Die allerwenigsten User kaufen sich jedes Jahr eine neue Karte, sondern nutzen Diese wahrscheinlich mind. 2-3 Jahre. An dem Beispiel 970 vs 390 sieht man sehr schön, das eine Graka auch noch nach das 2 Jahren das macht, was sie soll, nämlich Pixel beschleunigen und nicht, wie im Fall der 970, nach 20 Monaten die Flügel zu strecken. Auch mit den alten HD 7970/7950 gegen ihre NV- Pedants, sah und sieht es ähnlich aus und hier ist es nicht mal der Mangel an Grafikspeicher, sondern schlicht und ergreifend unterstützen die älteren NVs bestimmte moderne Features nicht. ICH WILL DOCH NICHT NUR LEISTUNG FÜR EIN PAAR MONATE!
Gruß T.
 
Hi, sag mal, wo ist die an die Grenze übertaktete 1080ti über 35% schneller, hast Du Dich verrechnet?



Hab mal überschlagen die ti mit 1900Mhz müsste ca. 14 Tflops haben und ich denke der Verbrauch ist auch höher als bei der hier getesteten 300 Watt Vega.
Meine Vega 64 läuft übrigens ohne Übertaktung mit 1770Mhz im Balanced Mode mit Ek Block, und für Dauerbetrieb ist nur der "Turbo Modus nötig" ich denke das würde schon anders aussehen.
 
etwas schade das mal wieder 1440p fehlt, für mich selber die wichtigere Auflösung als 4K. Das Ding ist einfach das 4K zwar nett ist, aber ja auch befeuert werden muss und wenn wir mal Richtung Shooter gucken ist doch mit 4K schnell das Ende der Fahnenstange erreicht. Man will ja eigentlich bei Multiplayer +100 FPS haben (Rainbow Six, COD, Battlefield usw.) und da wird es mit einer Ti schon eng (ohne Grafik stark zu reduzieren), geschweige muss man erstmal Monitor mit mehr als 60 Hz in 4K haben, jeder der mal 120/144hz Monitor hatte will den nicht mehr missen und das sind alles Sachen wo wir noch Jahre entfernt sind und 1440p wird ja erst "massen tauglich".

mal sollte noch bedenken

- man kann auch noch z.B. Sapphire Radeon RX Vega 64 Liquid Cooling für 700€ kaufen und hat noch mal ein deutliches plus an Leistung
- Ref. RX64 kostet z.Z. ca 550€ und die 1080ti geht doch erst ab 800€ los

interessant sind auch die Aussagen von gestern "RX 64 bringt nicht mal die Leistung einer 1080" und heute "also ein Ti-Killer ist sie jetzt nicht", ich meine einen Ti-Killer hat wohl nie jemand erwartet (für mich wäre eine Leistung von immer +10% im Benchmark ein Ti-Killer), davon mal gesehen das 1080Ti auch eine gute Karte ist, ist nun mal die nächste Stufe Titan XP ist (für ca 1300€)

für mich persönlich sollte die RX 64 schon sich von einer 1080 abgrenzen können und wie auch hier sich immer wieder mit der 1080Ti messen können, dann ist für mich die Welt völlig in Ordnung und sollte es auch bei dem P/L.
 
@ Killermarkus81: So habe ich 2015 auch bei der 390 argumentiert, mit dem Thema "Reserve" und würde von den NV-Fanboys ausgelacht. Wo steht eine 970 denn heute und wo die 390? Meines Erachtens verhält es sich mit Vega ähnlich. Die ganzen Möglichkeiten eines Vegachips, sind noch überhaupt nicht in den Spielen/Software implementiert. Daher sind Vergleiche momentan einfach nur Makulatur. Fest steht, wenn APis eine Vega unterstützen, geht mehr, als hier doch so häufug negativ kolportiert wurde. Damit stellt sie durchaus eine Alternative zu NV dar.
Gruß T.

weiss zwar nicht genau worueber du redest. aber worin besteht der sinn eine grafikkarte mit 275 watt spitzenleistung (radeon 390/390x) mit einer grafikkarte mit 145 watt (gtx 970) zu vergleichen? btw. ich fahre mit meiner gtx 970 immer noch sehr gut...
 
weiss zwar nicht genau worueber du redest. aber worin besteht der sinn eine grafikkarte mit 275 watt spitzenleistung (radeon 390/390x) mit einer grafikkarte mit 145 watt (gtx 970) zu vergleichen? btw. ich fahre mit meiner gtx 970 immer noch sehr gut...

der vergleich liegt im P/L und der FPS Leistung, die 390 hat ca die Leistung und Preis einer 970 gehabt, aber 8GB Vram. Ich selber hatte die 390x und bei spielen der Ubisoft Engine (Rainbow Six, Assassin's Creed) ist bei 1440p schnell 4GB Vram voll, wenn man in FHD spielt kommt es weniger zum tragen, aber für mehr Auflösung ist man mit der 390 deutlich besser bedient als mit der 970.
 
Die theoretische Rohleistung bei AMD ist schon seit der X1800er Generation höher als bei Nvidia. Das es an der Software liegt ist eine Erklärung, kann auch an der Architektur liegen. Also wenn die Rohleistung nicht "durchgebracht" wird, also ein Flaschenhals existiert

Naja dann frag doch mal bei NV nach warum sie Ihre (höhere) Rohleistung der TI bei W2 nicht auf die Straße bringen im Gegensatz zu der V64^^ Schau dir mal die miserablen Drops der Ti an. Unter 4k schafft die nicht mal im Ultra-Preset über 45FPS zu bleiben, trotz ~17% mehr Rohleistung gegenüber der Vega. Also, wo mag denn da wohl der Flaschenhals liegen, bestimmt an der bösen bösen API und an der gemeinen Coop von Entwickler und AMD (Was NV natürlich niemals machen würde). XD
 
DAS ist doch mal ein schöner Test, sowas bekommt man nicht alt zu häufig geboten:daumen::pcghrockt:

Alles sehr ausführlich erklärt und schöne Detailmessungen. Man muss auch sagen es gibt auch recht wenig Möglichkeiten einen so interessanten und resultatengefüllten Test zu machen.
Man kann eigentlich nur hoffen, dass alle Engineentwickler irgendwann auf Vulkan umsteigen^^. DX12 ist bereits durchgefallen, auch wenns "dasselbe" ist.


Zu den niedrigeren Minfps bei der 1080TI. Gamers Nexus hatte bei den Reviews aller Modelle jeweils auch selbst OC Tests gemacht und alle selbst übertakteten Karten hatten erhebliche Minfps-Einbrüche(__1__, __2__, __3__) . Wahrscheinlich knallen die Karten gegen das Powerlimit und müssen stark bremsen, was gerade den 0.1% und 1% Minfps nicht schmeckt.
Nachdem AMD nicht RAM und Spawas mit misst können die fleißig Spitzen produzieren, während Nvidias Kontrolle das mitbekommt und wohl drosselt.
Man könnte da mal Verbrauch gemeinsamt mit Taktraten und FPS/Frametimes plotten, ist bestimmt aufschlussreich.
 
Zuletzt bearbeitet:
etwas schade das mal wieder 1440p fehlt, für mich selber die wichtigere Auflösung als 4K.

Ob jetzt 1440p die richtige Wahl für solche Karten ist mag jeder selber entscheiden.
Sehe ich aber genauso wie Du.

Aber genau in dieser Auflösung konnte sich Vega in den zuletzt releasten Spielen nie so richtig in Szene setzen.
Mehr als GTX 1080 war einfach im Schnitt nicht drin.
Forza 7.PNG Assassins Creed.PNG COD WW2.PNG Mittelerde.PNG Elex.PNG

Vega muß sich erst mal über einen längeren Zeitraum beweisen und zeigen, daß man die GTX 1080 kontinuierlich schlägt.

Eine Schwalbe macht noch keinen Sommer.

Edit.
@hugo-03
Ich glaube schon, daß PCGH/CB -wenn das Spiel released und die Treiber dafür da sind- das Game richtig testen.
Da schauts ja für Vega wieder gut aus.
 
Zuletzt bearbeitet:
Ob jetzt 1440p die richtige Wahl für solche Karten ist mag jeder selber entscheiden.
Sehe ich aber genauso wie Du.

Aber genau in dieser Auflösung konnte sich Vega in den zuletzt releasten Spielen nie so richtig in Szene setzen.
Mehr als GTX 1080 war einfach im Schnitt nicht drin.
Anhang anzeigen 978321Anhang anzeigen 978322Anhang anzeigen 978323Anhang anzeigen 978324Anhang anzeigen 978325

Vega muß sich erst mal über einen längeren Zeitraum beweisen und zeigen, daß man die GTX 1080 kontinuierlich schlägt.

Eine Schwalbe macht noch keinen Sommer.

computerbase wollte wohl auch noch mal nach testen für star wars (vielleicht kommt ja von pcgh auch noch etwas), die hatten nur erwähnt das wohl rx sich recht gut machen soll, aber man noch auf game rdy treiber von AMD/Nvidia wartet. Ist halt auch immer etwas die Frage wie die Entwickler mit den neuen Spielen umgeht ?

und COD ist einfach nur Shame ^^
 
weiss zwar nicht genau worueber du redest. aber worin besteht der sinn eine grafikkarte mit 275 watt spitzenleistung (radeon 390/390x) mit einer grafikkarte mit 145 watt (gtx 970) zu vergleichen? btw. ich fahre mit meiner gtx 970 immer noch sehr gut...


Erstmal für sich alleine betrachtet ist weniger Verbrauch sicherlich nicht schlecht .Damals hieß es immer schaut was mit 145W geht wozu ne Karte mit 100W mehr Verbrauch ,nun argumentiert man lustigerweise halt andersrum .Was bleibt ist zwar der höhere Verbrauch aber wenn man mal ehrlich ist war die 390 auf Kosten/Nutzen/Langlebigkeit gesehen das definitiv bessere Produkt .In den meisten aktuellen Spielen ist die 970 mittlerweile eher Qual statt Wahl gegen die 390 .

Wäre mal interessant zu wissen wie oft Käufer einer 970 oder 390 seit dem mindestens ein Grakatausch oder mehr gemacht haben .Ich spekuliere jetzt mal das es wesentlich mehr und auch mehr als einmal aufseiten der 970 Käufer sind .

Edit:
Habe selber keine der beiden Karten besessen.
Ich hatte eine 7950 zu Release gekauft dann eine R9 290 1 Jahr nach Release und aktuell die Fury seit ca 1 1/2 Jahren als der Preis gegen 300€ gefallen war .Habe für meine 7950 noch 120€ und für die 290 knapp 190€ also jeweils noch gutes Geld bekommen was die Neuanschaffung dementsprechend versüßt hat .Jede Karte war so ca. 300€ teuer x 3 macht 900€ minus 310€ vom weiter Verkauf bleiben unterm Strich 590€ in 5 Jahren für 3 Graka Generationen .Für 590€ gabs damals nicht mal eine 980 die heute auch noch von der Fury durchwegs abgehängt wird .Top P/L AMD Fury in meinen Augen .
 
Zuletzt bearbeitet:
Wäre mal interessant zu wissen wie oft Käufer einer 970 oder 390 seit dem mindestens ein Grakatausch oder mehr gemacht haben .Ich spekuliere jetzt mal das es wesentlich mehr und auch mehr als einmal aufseiten der 970 Käufer sind .
Dann bitte noch die Geschichte und Häufigkeit der Wechsel mit dokumentieren, sonst bekommst du kein vollständiges Bild
 
Wäre mal interessant zu wissen wie oft Käufer einer 970 oder 390 seit dem mindestens ein Grakatausch oder mehr gemacht haben .Ich spekuliere jetzt mal das es wesentlich mehr und auch mehr als einmal aufseiten der 970 Käufer sind .
Ich bin im September von meiner GTX 970 (welche ich zur Veröffentlichung gekauft habe) auf eine Vega 56 gewechselt, weil sich alles davor sich für mich nicht rentiert hat. Die Leistung der 970 ist ja nicht schlecht, nur der Speicher hat in einigen Spielen schon Probleme gemacht.
 
Ich bin im September von meiner GTX 970 (welche ich zur Veröffentlichung gekauft habe) auf eine Vega 56 gewechselt, weil sich alles davor sich für mich nicht rentiert hat. Die Leistung der 970 ist ja nicht schlecht, nur der Speicher hat in einigen Spielen schon Probleme gemacht.

Schön, das mal jemand ehrlich ist :daumen:
Zumal Du ja kein Fanboy zu sein scheinst :D
Gruß T.
 
Warum wurden eigendlich keine Nvidia Grakas im Test einbezogen ????

Kannste doch die 1080ti auswaehlen...

Haetten wir modernere Engines, wuerden wir in mehr Spielen bessere Performance sehen. Die meisten Spiele basieren auf Engines die schon ueber 10 Jahre alt sind (Assassins Creed, Far Cry, COD etc)
Immerhin haben wir die ID Tech und Frostbite, diese Engines liefern mMn die beste Optik und die beste Performance. Unreal Engine 4 ist auch nicht schlecht und auch relativ aktuell.
 
Also gerade die UE4 Games bieten allgmein die schlechteste Performance von allen. Standard werden auch nicht mehr als 4 Kerne verwendet. Gerade die UE4 ist eigentlich das schlimmste Beispiel einer modernen Engine.
 
Naja dann frag doch mal bei NV nach warum sie Ihre (höhere) Rohleistung der TI bei W2 nicht auf die Straße bringen im Gegensatz zu der V64^^ Schau dir mal die miserablen Drops der Ti an. Unter 4k schafft die nicht mal im Ultra-Preset über 45FPS zu bleiben, trotz ~17% mehr Rohleistung gegenüber der Vega. Also, wo mag denn da wohl der Flaschenhals liegen, bestimmt an der bösen bösen API und an der gemeinen Coop von Entwickler und AMD (Was NV natürlich niemals machen würde). XD

Ausnahmen gab es auch da schon immer. Genauso wie Wolf wieder die Ausbahme darstellt und in der Regel schauts gensu umgekehrt sus. Frag also eher bei AMD warum ;)

@Bladerunner: also Tech 6 ubd 6.5 ist jetzt auch keine "neue" Engine wenn man immer auf den Ursprung zurück schsut. Die letzte völlig neue Engine bei ID war nämlich Tech 4. Die von Carmack geplante Tech 6 kam so js nie. Man siwht es auch in Doom schön, wurden dort einige Animationen 1:1 aus Doom3 übernommen
 
Zuletzt bearbeitet:
Naja, der API-Zauber wirkt wie erwartet nur bei 1080p, bei 1440p oder gar 4K ist der Zauber schnell wieder vorbei...
 
Naja, der API-Zauber wirkt wie erwartet nur bei 1080p, bei 1440p oder gar 4K ist der Zauber schnell wieder vorbei...

Die min FPS sind ganz gut eigentlich, es ist allerdings verwunderlich, warum man das nicht auch auf den Durchschnitt übertragen kann. In 4K wirds ja wohl kaum an dem geringeren Overhead liegen, weshalb man da besser da steht
 
Kannste doch die 1080ti auswaehlen...

Haetten wir modernere Engines, wuerden wir in mehr Spielen bessere Performance sehen. Die meisten Spiele basieren auf Engines die schon ueber 10 Jahre alt sind (Assassins Creed, Far Cry, COD etc)
Immerhin haben wir die ID Tech und Frostbite, diese Engines liefern mMn die beste Optik und die beste Performance. Unreal Engine 4 ist auch nicht schlecht und auch relativ aktuell.

SRY 1080ti ?? leider nicht moglich !!
 
Zurück