• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Wolfenstein Youngblood im Benchmark-Test: Technisch beeindruckende Vulkan-Koop-Ballerei

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Wolfenstein Youngblood im Benchmark-Test: Technisch beeindruckende Vulkan-Koop-Ballerei

Wolfenstein: Youngblood spinnt die Story rund um die "Terror-Familie" Blazkowicz weiter. Diesmal mischen BJs Töchter Jess & Soph im fiktiven Paris der 1980er-Jahre das Regime auf - kooperatives Geballer mit Splatter-Garantie ist die Folge. Die Vulkan-basierte Technik kommt erneut aus dem Hause id Software und orientiert sich stark an Wolfenstein 2. PC Games Hardware prüft, welche Grafikkarten dem jungen Gemüse standhalten und welche nicht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Wolfenstein Youngblood im Benchmark-Test: Technisch beeindruckende Vulkan-Koop-Ballerei
 

User-22949

PC-Selbstbauer(in)
Ich kann mir nicht helfen aber New Collossus fand ich grafisch schöner. Youngblood ist für mich ein kleines Downgrade.
 

KuroSamurai117

BIOS-Overclocker(in)
Danke für den Test.

Performance ist bei mir wieder 1a. Läuft wie Butter.

Kantenglättung habe ich aber wieder SMAA (1TX) gewählt da TSSAA (8TX) selbst in UHD noch eine größere Unschärfe reinbringt. Aber auch so gibt es kaum flimmernde Objekte.
 
S

SphinxBased

Guest
Bethesda versaut echt alles!!!.So was einfallsloses, langweiliges und sinnloses hab ich schon lang nicht mehr gesehen....und dazu noch dieser amerikanisch angehauchter Nazidreck.........geht langsam in diesen COD Trash über!!!!:wall:
 

Ericius161

PC-Selbstbauer(in)
@PCGH

Hattet ihr keine RX5700XT oder kommen die Werte noch?

Bei mir ist es mit einer 5700xt aktuell nicht fehlerfrei spielbar. Werden die Treiber 19.7.2 bzw. 19.7.1 genutzt, gibt es Grafikfehler und in den Cutscenes ist die Hälfte des Bildschirms schwarz, so dass nur der obere Teil der Videos zu sehen ist. Versuche ich 19.7.3 zu nutzen, stürzt es nach kurzer Zeit ab. Beide Probleme haben laut Steam-Forum auch noch andere Leute. Eventuell fehlen die Ergebnisse deswegen.
 

redeye5

Komplett-PC-Aufrüster(in)
Bethesda versaut echt alles!!!.So was einfallsloses, langweiliges und sinnloses hab ich schon lang nicht mehr gesehen....und dazu noch dieser amerikanisch angehauchter Nazidreck.........geht langsam in diesen COD Trash über!!!!:wall:

Ich habe eigentlich gedacht, das Maschine Games keinen Schrott abliefern und zumindest etwas auf dem Niveau von The Old Blood. Nachdem was man jetzt hört bin ich mir nicht mehr sicher.
Evtl warte ich dann echt noch ab bis das ganze billiger geworden ist.
 

Jobsti84

Software-Overclocker(in)
Könnte mir bitte flott nochma wer erklären was
GPU Culling & Deferred Rendering
genau sind, was es jeweils machen soll und ob davon was auf AMD oder Nvidia besser zu nutzen ist?

Vielen Dank
 
Ich halte es wieder mal für nicht besonders sinnvoll alle Regler auf extreme zu stellen + Speichermanagement auszuschalten um wieder irgendetwas in 4K zu erzwingen.
 

KuroSamurai117

BIOS-Overclocker(in)
kann man das auch solo spielen oder ist der shooter auf koop ausgelegt?

Du kannst es wie ich auch Solo zocken. Die KI übernimmt die Zwillingsschwester. Die hält sich natürlich etwas zurück aber heilt dich auch ab und an. Im Grunde hast einen KI Begleiter wie in jedem Uncharted, CoD und Co.

So schlecht wie Mancher findet ist das Game für mich nicht. Gibt es schon für 25/26,-. Gameplay ist fast 1:1 gleich zu Teil. Bis auf erweiterte Fähigkeiten wie Doppelsprung oder Tarnung. Zudem hat man mehr vertikales Gameplay weil man leichter auf und über Dächer kommt.
Missionsaufbau ist halt eher wie die Kommandantenjagt in Wolfenstein 2. Nur dass man unterschiedliche Punkte von A nach B über C bis D abklappert.
 
K

KrHome

Guest
Ich halte es wieder mal für nicht besonders sinnvoll alle Regler auf extreme zu stellen + Speichermanagement auszuschalten um wieder irgendetwas in 4K zu erzwingen.
Fällt mir langsam auch auf bei den Wolfenstein Tests. War am Anfang ja noch ganz nett (VRam Killer und so und bla.), aber inzwischen nutzt sich das ab und ich würde mir wünschen, dass auch mal erwähnt wird, wie man den VRam Verbrauch im Spiel reduziert und was das für optische Einbußen hat.

Vorallem in den kommenden Raytracing Tests muss ich dann nicht unbedingt lesen "Ja wenn Sie jetzt in 5K noch Rayracing drauf packen, kollabieren auch 11G Karten", wenn es es im Spiel Regler (Texturqualität, Speichermanagement...) gibt, die das verhindern, aber nicht genutzt werden.

Übrigens:
die R9 390 bricht ab WQHD trotz 8G zusammen, weil sie keine VRam Datenkompression unterstützt. Letztere gibt es bei AMD erst ab Polaris. Ist ein interessantes Detail und wäre eine Erwähnung wert gewesen. ;)
 

Freiheraus

BIOS-Overclocker(in)
Wie TechpowerUp und GameGPU zeigen sollte die RX Vega 56 im Schnitt 30-35% vor der GTX 1070 liegen, 15% wie hier bei PCGH sind atypisch für einen solchen Titel. Die GTX 1080Ti sollte sich auch nur um 20-25% von der V56 absetzen können und nicht um grob 45% wie hier. Scheint eine nichtrepräsentative Szene zu sein oder die GeForces rendern (mal wieder) nicht das gleiche wie die Radeons.
 

Incredible Alk

Moderator
Teammitglied
Könnte mir bitte flott nochma wer erklären was
GPU Culling & Deferred Rendering
genau sind, was es jeweils machen soll und ob davon was auf AMD oder Nvidia besser zu nutzen ist?
Ganz simpel ausgedrückt:
GPU Culling ist eine Technik, bei der die GPU sich vorher "überlegt" was in einer Szene sichtbar ist und was nicht - und was nicht sichtbar ist entsprechend auch nicht berechnet. Wenn du etwa in einem Shooter rumläufst und und es bewegt sich ein Objekt vor dir kannste ja alles dahinter nicht sehen. Dennoch ist es klassisch berechnet da und verbraucht Rechenleistung. Culling führt dazu, dass hinter dem Objekt nichts berechnet wird und die rechenleistung für andere Dinge genutzt werden kann.

Deferred Rendering ist eine technik die beispielsweise Geometrieberechnungen von Beleuchtungsberechnungen trennt um nur die beleuchtung am Ende zu berechnen die du auch sehen kannst (ähnliches Prinzip wie Culling). Es werden einfach bestimmte Berechnungsschritte verschoben um den prozess effizienter zu machen.

Was aber davon jetzt wie genau auf AMD oder NV-Chips berechnet wird und wer da was wie besser/schlechter kann kann ich dir nicht sagen, das müsste ich auch alles nachlesen.
 
Zuletzt bearbeitet:

Nuallan

PCGH-Community-Veteran(in)
Bethesda versaut echt alles!!!.So was einfallsloses, langweiliges und sinnloses hab ich schon lang nicht mehr gesehen....und dazu noch dieser amerikanisch angehauchter Nazidreck.........geht langsam in diesen COD Trash über!!!!:wall:

Und wo ist jetzt der Unterscheid zu den letzten Wolfenstein-Teilen? Ist doch immer dasselbe.. Technisch probieren sie immer was aus mit der Engine was Vulkan usw. angeht, und das ist auch löblich, aber am Ende ist es für mich halt ein stinknormaler Shooter. Und Marketing muss man auch nicht betreiben, weil dank des Nazi-Settings eh jedesmal wieder derselbe Shitstorm ausgelöst wird wenn ein neuer Teil kommt. Ich finds schon lange nur noch öde.
 

perupp

Software-Overclocker(in)
Ich halte es wieder mal für nicht besonders sinnvoll alle Regler auf extreme zu stellen + Speichermanagement auszuschalten um wieder irgendetwas in 4K zu erzwingen.

Was du für sinnvoll hältst oder nicht ist zum Glück nicht relevant.... Alles was NVIDIA blöd aussehen lässt ist ja in deinen Augen ned sinnvoll...

Ob es im Benchmark die Auswahl der Spieletitel ist oder wenn mann zeigt dass das sparren an GPU Speicher Nachteile bringt (wo du immer behauptest hast ist ned so) sobald NVIDIA blöd da steht ist es für dich nicht sinnvoll...

evt ist deine extreme Fixierung auf NVIDIA nicht sinnvoll? Nimmt ja schon fast religiöse Züge an
 

4thVariety

Software-Overclocker(in)
Könnte mir bitte flott nochma wer erklären was
GPU Culling & Deferred Rendering
genau sind, was es jeweils machen soll und ob davon was auf AMD oder Nvidia besser zu nutzen ist?

Vielen Dank


Beim GPU Culling versucht man, dass alles was nicht auf dem Bildschirm ist auch keine Rechenzeit verursacht. Und zwar nirgendwo wenn es geht. Man kennt das, wenn z.B. Bäume erst ab einer gewissen Entfernung aufploppen. Das war klassisch 1995 die GPU gecullt auf der PSone oder dem N64. Seitdem wurde dieses Grundprinzip verefeinert, ausgebaut und verbessert. Das hat mal vor 20 Jahren mit sog. Z-Buffering angefangen, GPU Culling ist nur der Name für allerlei komplexe Tricks Rechenzeit zu sparen. Das beste Beispiel heute wäre beim Raytracing. Angenommen, man hat keine direkte Sicht auf ein Objekt, dann würde es z.B. in der reflektierenden Oberfläche auch nicht gezeichnet werden. Dann könnte man aber auch gleich das ganze Objekt nicht zeichnen und Rechenzeit sparen, schließlich ist es verdeckt. Nur leider hat man mit Raytracing dann doch wieder über eine Reflektion direkte Sicht, also muss es doch gezeichnet werden, selbst wenn es direkt nicht sichtbar ist. Oder vielleicht verursacht das Objekt eine physikalische Interaktion. Ein Auto hinter einer Wand muss nicht gerendert werden. Ein Auto hinter einer Wand, das die Wand bei einer Kollision zum Einsturz bringt muss aber schon berechnet werden (wenn auch ohne Texturen, etc.). Heutzutage ist es auch selbstverständlich, dass alles was neben dem Rand des Monitors ist effektiv wegfällt. Da ist nichts aus Sicht der Grafikkarte, das wurde gecullt und wird erst wieder berechnet, wenn der Spieler seinen Kopf dreht. All diese Erwägungen der Engine darüber was berechnet, nicht berechnet, gezeichnet und nicht gezeichnet werden muss fällt unter den Oberbegriff GPU Culling.

Deferred Rendering ist, wenn man einen Teil der Berechnung hinten anstellt. Das Endprodukt auf dem Bildschirm ist ja die Summe aus mehreren Berechnungen Würfel + Oberfläche + Textur + Normal Map + Light Map. Das könnte man ja parallel Ausrechnen, aber in dem Falle macht man das nicht, man stellt eine Berechnung nach hinten an (to defer), derzeit in der Regel die des Helligkeitswertes. Grund dafür sind Pixelshadereffekte in Zukunft auch RTX Lichtberechnungen. Das entspringt halt der EInsicht, dass man nicht alles parallelisieren kann, oder sogar in der Summer Rechenpower spart, wenn man es nicht macht.

Der Hersteller von Wolfenstein versucht hier mit Fachbegriffen die für sich genommen schon schwammig genug sind (Bsp. was wird gecullt? was wird deferred?) Leute zu beeindrucken die sich von Fachbegriffen beeindrucken lassen. Zu sagen das neue Spiel würde GPU Culling und Deferred Rendering benutzen ist so als würde man sagen, der Shooter hat eine Pistole und eine Schrotflinte. Ach was. Jede Engine die etwas auf sich hält hat das, jede Grafikkarte und deren Treiber unterstützen das, die Zuwächse in den Frames pro Sekunden sind im einstelligen Prozentbereich, je nach Szene. Das klingt nicht viel, aber das sind ja nicht die einzigen Tricks und in der Summe lohnt sich das für den Hersteller einzubauen.
 

Jobsti84

Software-Overclocker(in)
Vielen Dank an euch, ich hatte das vor langer Zeit mal gelesen, aber irgendwie wieder völlig verdrängt ;)

Jetzt stellt sie mir die Frage, wieso dies deaktiviert wird, beides sollte doch für höhere fps sorgen?
War da nich was, dass davon irgendwas auf AMD super rennt, auf NV aber nicht?
 

Tolotos66

Volt-Modder(in)
Bedauerlich, das man die Sapphire 64 Nitro+ zwar anklicken kann, aber nur 2/1 % Leistung angezeigt bekommt. Oder ich hab da was falsch gemacht :ka:
The Collossus fand ich gegenüber den beiden Vorgängerteilen ziemlich unspannend. Der neue Teil scheint sich da einreihen zu wollen. Schade. Wird dann im Angebot geholt und einmal durchgezockt.
Gruß T.
 

DaHell63

BIOS-Overclocker(in)
Was du für sinnvoll hältst oder nicht ist zum Glück nicht relevant.... Alles was NVIDIA blöd aussehen lässt ist ja in deinen Augen ned sinnvoll...

Ob es im Benchmark die Auswahl der Spieletitel ist oder wenn mann zeigt dass das sparren an GPU Speicher Nachteile bringt (wo du immer behauptest hast ist ned so) sobald NVIDIA blöd da steht ist es für dich nicht sinnvoll...

evt ist deine extreme Fixierung auf NVIDIA nicht sinnvoll? Nimmt ja schon fast religiöse Züge an

Er hat doch mit keinem Wort Nvidia erwähnt. Er hat genau wie KrHome allgemein die VRam Thematik erwähnt. Und so viel ich weiß ist da AMD genauso betroffen, oder haben da plötzlich die Karten alle mehr als 8GB VRam?

Bedauerlich, das man die Sapphire 64 Nitro+ zwar anklicken kann, aber nur 2/1 % Leistung angezeigt bekommt. Oder ich hab da was falsch gemacht :ka:Gruß T.

Alle Karten die noch nicht getestet worden sind werden mit dem Wert angezeigt. Alles gut. Die Vega64 rockt da schon.

Edit
Wenn Vulkan jetzt öfters genutzt werden würde, könnte sich die GPU Aufrüstung noch ein wenig in die Länge ziehen:daumen:
 
Zuletzt bearbeitet:

Ben das Ding

PC-Selbstbauer(in)
Da ich auch eher Solo in der internationalen Version unterwegs bin, bin ich doch etwas enttäuscht was die Intelligenz meiner Mitspielerin angeht. Wäre schön gewesen da auch allein durchzukommen. Die Ingame-Käufe mit dem Gold etc. nerven mich extrem. Finde es toll das PC-Games in den Benchmarks auch die 21:9 Auflösung rein genommen hat. Top. Wir machen ja "nur" ein Prozent oder so der gängigen Screens aus...
 

4thVariety

Software-Overclocker(in)
Wenn ich sage "in der Regel werden Lichtberechnungen hinten angestellt", dann bezieht sich das oft nicht auf alle Lichtberechnungen, sondern nur manche. Wenn aber RTX alle Lichtberechnungen machen soll per global Illumination, dann müssen alle hinten angestellt werden. Daraus erwächst ein Problem.

Ich kann mir gut vorstellen, dass die Engine sehr gut zwischen AMD und Nvidia unterscheiden kann und daher sehr genau weiß was im Hinblick auf die RTX Berechnungen im RTX Core "deferred" werden muss. Das könnte nicht-RTX Karten etwas langsamer machen, weil die mit dem Erbe leben müssen, dass die Renderpipeline auf RTX hin optimiert ist. Bethesda hätte also drei Mal optimieren müssen. Das erste mal für AMD und die Konsolen, wo das Game ohne RTX läuft. Die zweite Optimierung ist für PC Nvidia ohne RTX. Die dritte Optimierung ist für Nvidia, dass jedes Frame von den Cuda Cores genau so angeliefert wird, wie der RTX Kern das haben will.

Nvidia braucht RTX Spiele und überredet Bethesda dazu Wolfenstein zu optimieren. Nachteil ist, dass wenn die Cuda Cores jetzt ein Frame auf nicht-RTX Karten ausliefern, dann braucht es nachträglich die Lichtberechnung und das wird wohl mehr Performance kosten.

Wenn wir jetzt aber bei ALLEN Karten ALLE Formen von deferred light computation abschalten, dann zwingen wir AMD und Nvidia in die gleiche Pipeline. Vermutlich verspricht sich entweder AMD, aber wahrscheinlicher Nvidia hiervon einen Vorteil. Und bei Grafikkarten bei denen die PR Abteilung einen Aufstand macht, als wären 5% Leistungsunterschied so krass wie 60fps gegenüber 15fps, macht es Sinn als solchen 3% Leistungsfeatures herumzupfuschen.

Meine Meinung: immer alles einschalten, denn keiner wird sich daheim hinsetzen und das deaktivieren. Der Vergleich zwischen den Karten wird niemals fair sein. Bei dreistelligen Framezahlen hat man es eh nicht mit einem PC Spiel zu tun, sondern einem Konsolenport. Da muss ich ich nicht nach dem Unterschied zwischen einer 2070 und 5700XT forschen, der Unterschied ist klar das last gen game. Ein Schwein mit RTX Lippenstift, wenn man so will. Dann lieber Quake 2 RTX.
 

Locuza

Lötkolbengott/-göttin
Könnte mir bitte flott nochma wer erklären was
GPU Culling & Deferred Rendering
genau sind, was es jeweils machen soll und ob davon was auf AMD oder Nvidia besser zu nutzen ist?

Vielen Dank
GPU Culling sollte bei dem Spiel wie auch beim Vorgänger über Compute-Shader unsichtbare Geometrie auslesen (cullen), ohne dann später extra Rechenleistung für das Shading von unsichtbaren Flächen zu verschwenden.
Aber hier kommt es auf die GPU an, ob das was nützt, denn das Culling kostet selber Rechenleistung, also muss der Geometriedurchsatz der GPU limitieren, damit Compute Shader Culling zu höherer Performance führt.
Bei Vega und Nvidia GPUs war das bei Wolfenstein II nicht der Fall und es war besser, dass ausgeschaltet zu lassen.
Polaris (RX480) konnte über 5% profitieren.
Wolfenstein II - Deferred Rendering and GPU Culling Performance Impact

Bei Deferred Rendering hat Nvidia damals ein wenig Performance gewonnen, AMD ein wenig verloren.
Laut Nvidias Guide profitiert auch Turing um 2% von Deferred Rendering, dann kann man aber kein Adaptive Shading nutzen:
Wolfenstein: Youngblood Graphics and Performance Guide

Aber allgemein wird man im Spiel mit einer moderneren oder stärkeren GPU wohl kaum einen Unterschied bei den Settings spüren.
 

perupp

Software-Overclocker(in)
Er hat doch mit keinem Wort Nvidia erwähnt. Er hat genau wie KrHome allgemein die VRam Thematik erwähnt. Und so viel ich weiß ist da AMD genauso betroffen, oder haben da plötzlich die Karten alle mehr als 8GB VRam?

Dann kennst du Schaffe nicht nicht gut genug.... Er regt sich immer auf wenn in seinen Augen es unfair für NVIDIA ist
 
B

BastianDeLarge

Guest
Ich war vorgerstern auch beeindruckt von der technischen Umsetzung,

läuft absolut geil, oft 200 FPS oder mehr bei WQHD @ maxed out.

7700k + RTX 2080 läuft mal wieder.
CPU Auslastung dümpelt wie bei so vielen Spielen ca bei 40-60% rum...

:banane:

20190726101727_1.jpg
 

DaHell63

BIOS-Overclocker(in)
Meine Meinung: immer alles einschalten, denn keiner wird sich daheim hinsetzen und das deaktivieren. .

da wäre ich mal auf den Aufstand gespannt gewesen wenn F1 2019 mit Geometrie-Culling per Compute-Shader getestet worden wäre.
Während es bei Nvidia so gut wie keinen Unterschied macht (1%), bricht die Performance bei einer Vega64 gewaltig ein. Nicht immer ist es sinnvoll alles einzuschalten/testen, besonders wenn es sinnlos ist

Screenshot_2019-07-27 F1 2019 im Benchmark-Test.png
 
Zuletzt bearbeitet:

jadiger

Software-Overclocker(in)
Bei mir ist es mit einer 5700xt aktuell nicht fehlerfrei spielbar. Werden die Treiber 19.7.2 bzw. 19.7.1 genutzt, gibt es Grafikfehler und in den Cutscenes ist die Hälfte des Bildschirms schwarz, so dass nur der obere Teil der Videos zu sehen ist. Versuche ich 19.7.3 zu nutzen, stürzt es nach kurzer Zeit ab. Beide Probleme haben laut Steam-Forum auch noch andere Leute. Eventuell fehlen die Ergebnisse deswegen.


Natürlich ist das keine News Wert, das die Treiber Thematik immer noch besteht.
 

jadiger

Software-Overclocker(in)
Dieses Spiel ist einfach nur schlecht, es hat kleine Level die aber mehr Vram brauchen läuft schlechter sieht aber sogar schlechter aus.
Hat weniger Gegner, weniger Waffen alles ist weniger außer die Hardware kosten.
Wahrscheinlich weil man auch weniger Zeit hatte, was man dem Spiel an jeder Ecke merkt.
Quest wo MMOs vor 10 Jahren darüber lachen würden und anscheinend denkt das Spiel Recycling wäre im Spiel Umweltschutz.
Story gibt es nicht, außer Zwischensequenzen zum Fremdschämen und alleine braucht man das gar nicht spielen.

Kugelschwäme Deluxe würde ich das nennen außerdem hat es genau die gleiche Problematik wie das letze Spiel.
Nur doch Umdrehen hat man extreme FPS Unterschiede, auf 8GB AMD Karten habe ich von mehren Leuten gehört das es Stottert.
Wahrscheinlich wegen der schlechtern Kompression sollte man vielleicht auch mal erwähnen ist ja nicht zum ersten mal so.
 

BoMbY

Software-Overclocker(in)
Und natürlich war nicht ausreichend Zeit noch eine RX 5700 XT zu testen, weil wie würde das auch aussehen?
 

Ion

Kokü-Junkie (m/w)
Und natürlich war nicht ausreichend Zeit noch eine RX 5700 XT zu testen, weil wie würde das auch aussehen?
Text lesen scheint nicht deine Stärke zu sein:
Dies ist nur der Anfang, wir werden Anfang kommender Woche weitere Messungen zu Wolfenstein Youngblood veröffentlichen. Dieser Artikel gibt nur eine erste Übersicht zum Launch, damit Sie schon für das bevorstehende Wochenende wissen, was Sie erwartet.
Sicherlich wird auch eine 5700 XT gebencht.
 

Nuallan

PCGH-Community-Veteran(in)
Glaubt jemand ejtzt noch das eine GTX 970 die Zukunftsfähigste Karte ist????

Manche Kleingeister behaupten echt heute noch die Karte leistet genau das was versprochen wurde. Dabei war immer abzusehen wie schnell diese Karte einbrechen wird. Schade das Nvidia damals mit einem blauen Auge davongekommen ist und AMD die Situation nicht ausnutzen konnte.
 

Cohen

PC-Selbstbauer(in)
Glaubt jemand ejtzt noch das eine GTX 970 die Zukunftsfähigste Karte ist????

Wurde das je behauptet, dass ausgerechnet die GTX 970 die zukunftsfähigste Karte sei? Sie hatte jahrelang ein gutes Preis-Leistungs-Verhältnis, nicht mehr und nicht weniger.

Und zumindest war die 2014er Karte anscheinend immerhin so "zukunftssicher", dass sie im Jahr 2019 immer noch im PCGH-Benchmarkparkour ist, während eine R9 290 4GB, R9 290X 4GB, R9 Fury 4GB, R9 Fury X 4GB und GTX 980 4GB gar nicht erst getestet werden, obwohl die bei maximalen Einstellungen vermutlich auch ähnliche Speicherprobleme aufzeigen würden.
 

Leuenzahn

Freizeitschrauber(in)
"Raytracing

Wolfenstein Youngblood ist Teil der Marketing-Maschinerei Nvidias, Käufer einer beliebigen Geforce-RTX-Grafikkarte erhalten das Spiel als Code gratis dazu. Die Hauptidee dabei ist, die Grafik mittels Raytracing-Effekten aufzuwerten, allerdings steht diese Funktion nicht zum Start des Spiels bereit: "Die Entwickler bei Nvidia arbeiten noch immer intensiv daran, um diese Lösung so gut wie möglich für dieses Spiel aussehen zu lassen und das Datum muss noch festgelegt werden."

Das ist so bitter.... :D

PS: Ah, die Burschen schieben nächste Woche nach. Ich dachte schon, wo die ganzen Karten inkl. Navi sind, was mich ja am meisten interessiert.
 
Zuletzt bearbeitet:

Moriendor

PC-Selbstbauer(in)
Manche Kleingeister behaupten echt heute noch die Karte leistet genau das was versprochen wurde. Dabei war immer abzusehen wie schnell diese Karte einbrechen wird. Schade das Nvidia damals mit einem blauen Auge davongekommen ist und AMD die Situation nicht ausnutzen konnte.

Und es gibt noch kleinere Geister, die bei solchen Themen immer nur stumpf ihren nVidia Hass abladen wollen. Die GTX 970 ist von September 2014(!). Der Chip ist fast fünf Jahre alt. Wer denkt denn bitte bei "Zukunftsfähigkeit" an solche Zeiträume bei PC-Hardware? So ein Schwachsinn. Wer damals ggf. behauptet hat, dass die Karte trotz des limitierten VRAM "zukunftsfähig" ist, wird vielleicht einen Zeitraum von zwei Jahren, aber sicherlich nicht fünf, im Sinn gehabt haben.

Und dennoch: In den allermeisten Titeln hält die GTX 970 in der ihr bestimmten Auflösung von 1080p für eine derart steinalte Karte ja noch ganz gut mit, insbesondere dann, wenn man die Regler entsprechend bedient. Ich wäre zwar auch schon längst auf z.B. eine GTX 1070(Ti) gewechselt, wenn ich jemals eine 970 besessen hätte, aber 970 Käufer mit einem realistischen Horizont von +/- zwei Jahren sind sicherlich gut mit der Karte gefahren. Kurz vor oder nach Ende der 24-monatigen Gewährleistung würde ich eh immer sehen, dass die Karte auf eBay landet und mir was Neues holen, um das Totalverlustrisiko zu begrenzen.

Jedenfalls ist das doch total gekünstelt hier aus der asbach-uralten GTX 970 Geschichte wieder so einen stumpf-blöden Kleinkrieg gegen nVidia anzuzetteln. Aber so ist das wohl, wenn man sonst keine sachlichen Argumente gegen den "pöhsen Feind" nVidia hat.
 
Oben Unten