Wolfenstein Youngblood RTX-Update: Raytracing-Benchmarks mit Geforce RTX 2060 bis Titan RTX

Mag sein, dass das Bild bzw die Lichtdarstellung während dem Gamen etwas schöner aussieht. Aber auf dem Vergleichsbild #2 sieht man schon derbe Fehler zw RTX on und RTX off (jeweils ohne DLSS).
Die Leuchtstoffröhre wirft auch direkt über ihr das Licht an die Decke, sogar die Abdeckung ist von oben herab beleuchtet. Als wenn die Lichtquelle durch die Wand von oben in den Raum scheint. Was nicht sein kann. Auch der komische Monitor mit den 2 Büchern und der Burger King Tüte oben drauf wirft keinen Schatten und die Tischoberfläche wird beleuchtet, als wenn der Monitor nicht drauf stehen würde...:ugly::daumen2:
Das sieht mit RTX off glaubwürdiger aus wenn man genau hinschaut.

Aber an sich eine nette Sache, die nach wie vor noch locker 1-2 Jahre braucht um wirklich mal optisch was zu reißen. In Techdemos, die speziell drauf ausgelegt sind wie die Star Wars Demo oder sonstige, ist RT ein richtiger Hingucker. Aber in Mainstream Games noch weit von dieser Qualität entfernt.
 
Ich werd beizeiten mal ingame zu der Lampe hinlaufen und nachsehen wo das Licht herkommt. Bin mal gespannt was dabei rauskommt. Das ist der einzige Weg das Ganze wirklich zu beurteilen. Bilder helfen da nicht.
 
16Gb+ für die 3080Ti wären schon ganz praktisch. Allerdings gilt halt immer, dass mit Bedienen der Regler durchaus alles klappen kann.

Ein stetig wiederholtes Mantra der UHD Monitor Besitzer ;)
Warum UHD, das war doch immer so, dass man viele Spiele durch das Bedienen von Reglern optimiert. Das kenn ich seist den 90ern.
Ich weiß, es gibt ein paar "Experten", die glauben ein Spiel startet nur, wenn alles auf MAX ist und auch nur so kann eine GPU funktionieren, aber letztlich ist 1. oft kaum ein optischer Unterschied zwischen Hoch, Sehr hoch/Ultra/Extreme.
Wären Wolfenstein, Control oder deliver us the moon die ersten Spiele gewesen, die für RT herausgebracht worden wären, wäre das Image ein deutlich besseres... Sowohl RT als auch vor allem DLSS betreffend.
Einen ersten Eindruck gewinnt man einfach nur einmal
Das war doch auch schon immer so, dass bei Erscheinen neuer Technologien diese nicht gleich ordentlich genutzt wird bzw. werden kann.
Und genau das wurde doch bei Release doch auch 100x hier erklärt: wirklich beeindruckend werden die RT Spiele erst nach einigen Jahren, wenn man diese Technik ordentlich einbaut und schon beim Design des Spiels miteinbezieht. Und ebenso hat man 100x betont, dass die RTX Serie selbst nicht zu langsam ist für RT, sondern es an den Spieleentwicklern liegt ob diese ordentlich ausgenutzt werden.
War doch bei den Shadern nicht anders: Anfangs gabs ein paar Spiele mit netten Effekten, etwa das Quecksilber bei Morrowind... ich mein natürlich das Wasser. Aber so richtig gut genutzt und nicht bloß drangepappt wurde jede Technologie erst nach einiger Zeit. Und weder Control noch Wolf sind bislang Spiele die ich zu solch einer Kategorie zählen würde - also die RT schon richtig einsetzen. Das wird noch ein bisschen dauern.
 
Zuletzt bearbeitet:
Im Prinzip ist das mit Regler links in UHD schon ganz nett, aber
die 2080s ändert schon in FHD Ihr Streaming-Extrem-Verhalten.
Das ist für den Preis dann halt ne schlechte Ausstattung.

Möchte gar net wissen, inwiefern Jensen beim Textur-LOD nachhilft,
um die Speichermonster fit zu machen.

Wieviel GB Hauptspeicher hat eigentlich das Testsystem von PCGH ?
Net das mit 16GB schon der Quark unruhig wird.
 

Anhänge

  • FHDextrem.PNG
    FHDextrem.PNG
    153,2 KB · Aufrufe: 86
Zuletzt bearbeitet:
FHD DLSS QUALITÄT "MEIN LEBEN" R5 / 3600 / RTX2060 SUPER
20200112_143804.jpg
Ich find die Grafik umwerfend und die FPS mehr als genug.

Hab es jetzt auf dem R7 2700X/ RTX2080FE @ WQHD laufen lassen. Wieder "Mein Leben" DLSS QUALITY 110 Fps und 5,72 Gb Vram im Benchmark. Wo ist da das Vram Problem, welches im Artikel so explizit und exponiert besprochen wird. Ich raff das nicht. Überhaupt nicht um ehrlich zu sein.

Jetzt nochmal R7 2700X/ RTX2080FE @ WQHD laufen lassen. Wieder "Mein Leben" NAS QUALITY:
AFTERBURNER

VRAM = 6735 MB gleichmäßig um 90FPS ft 12,ms
 

Anhänge

  • 20200112_143758.jpg
    20200112_143758.jpg
    1,9 MB · Aufrufe: 84
Zuletzt bearbeitet von einem Moderator:
Wo ist da das Vram Problem, welches im Artikel so explizit und exponiert besprochen wird. Ich raff das nicht. Überhaupt nicht um ehrlich zu sein.

RTX ON; Vulkan, 'Mein Leben!" preset with 8× TSSAA (Streaming: ULTRA); DLSS & NAS disabled

Der Artikel nennt sich übrigens Raytracing-Benchmarks.
Und net RT off -Benchmarks.
 
RTX ON; Vulkan, 'Mein Leben!" preset with 8× TSSAA (Streaming: ULTRA); DLSS & NAS disabled

Der Artikel nennt sich übrigens Raytracing-Benchmarks.
Und net RT off -Benchmarks.

Und wo habe ich mit RTX off gespielt? Sind NAS und DLSS ein mittel um Raytracing abzuschalten?
Für mich zeigt sich hier, dass meine beiden Systeme sehr gut mit Vram ausgestattet sind.
 
FHD DLSS QUALITÄT "MEIN LEBEN" R5 / 3600 / RTX2060 SUPER
Anhang anzeigen 1076423
Ich find die Grafik umwerfend und die FPS mehr als genug.

Hab es jetzt auf dem R7 2700X/ RTX2080FE @ WQHD laufen lassen. Wieder "Mein Leben" DLSS QUALITY 110 Fps und 5,72 Gb Vram im Benchmark.

Wo ist da das Vram Problem, welches im Artikel so explizit und exponiert besprochen wird. Ich raff das nicht. Überhaupt nicht um ehrlich zu sein.

Wirkliche Probleme mit dem Speicher treten mit "Mein Leben!" und Raytracing mit 6 GiByte auf, nicht (oder nur sehr begrenzt) mit 8.
Wenn man allerdings auch noch die Streaming-Qualität auf "Extreme" setzt (die maximale Stufe ist bei "Mein Leben!" noch nicht aktiv), wird's auch mit 8 GiByte eng.

Wolf2RTXmaxed.PNG


Gruß,
Phil
 
Zuletzt bearbeitet:
[/B]
Wirkliche Probleme mit dem Speicher treten mit "Mein Leben!" und Raytracing mit 6 GiByte auf, nicht (oder nur sehr begrenzt) mit 8.
Wenn man allerdings auch noch die Streaming-Qualität auf "Ultra" setzt (die maximale Stufe ist bei "Mein Leben!" noch nicht aktiv), wird's auch mit 8 GiByte eng.

Kommt auch wahrscheinlich noch auf die Szene an, oder?
 
Wirkliche Probleme mit dem Speicher treten mit "Mein Leben!" und Raytracing mit 6 GiByte auf, nicht (oder nur sehr begrenzt) mit 8.
Wenn man allerdings auch noch die Streaming-Qualität auf "Extreme" setzt (die maximale Stufe ist bei "Mein Leben!" noch nicht aktiv), wird's auch mit 8 GiByte eng.

Anhang anzeigen 1076544

Gruß,
Phil

Alles schön und gut und auch technisch verständlich. Aber das sind für mich erzwungene extrem Settings. Damit kriegt man natürlich das Vram zum überlaufen. Aber dieser Punkt wird von euch im Artikel total überbetont. Ich habe zwei Rechner auf denen es hervorragend mit dem höchsten Preset läuft. Das heißt für mich es ist ein Lob an Nvidia fällig. Keine überzogene Kritik. Wo bitte bleibt denn der Mitbewerber. Da ist bisher Null zu kaufen. Da gehört wenn überhaupt die Kritik hin.
 
Was soll denn jetzt das Erwähnen des Mitbewerbers?
Wenn es dort dann mal RT gibt, wird Das sicher auch gründlich unter die Lupe genommen.

Der Redaktion geht es HIER in dem Review eher um die Frage, Wie zukunftsicher ist Graka XYZ.
Das PCGH auch mal Extreme geht, kann doch net schaden in Hinsicht auf kommende Games.

Es gibt ja 2 Möglichkeiten:
1. Mit Ampere wird nur die RT-Performance gesteigert.
2. Die RT-Qualität wird verbessert und braucht mehr Leistung+Vram.

Bei 2. kanns dann schon für ältere Grakas eng werden.
 
Zuletzt bearbeitet:
Man könnte einfach mal sage passt, läuft gut.
Und zum Mitbewerber hab ich geschrieben wenn überhaupt, was soviel heißt wie überhaupt nicht. Also alles gut hab ja wenn überhaupt auch nur Intel gemeint...
 
Im Artikel steht doch, dass es gut läuft - wenn man weiß, welches Modell wo, wann und warum Federn lässt. Darüber hinaus zeigen wir auf, was Probleme macht. Lobhudelei ohne wenn und aber dank zwei zugedrückter Augen gibt es bei uns nicht. ;)

MfG
Raff
 
Im Artikel steht doch, dass es gut läuft - wenn man weiß, welches Modell wo, wann und warum Federn lässt. Darüber hinaus zeigen wir auf, was Probleme macht. Lobhudelei ohne wenn und aber dank zwei zugedrückter Augen gibt es bei uns nicht. ;)

MfG
Raff

Nicht gescholten ist schon gelobt sagt der Schwabe.
 
Also diese Speicherpanik hört man von Raff schon seit 2016.
Dann schalte ich halt mit der 2060 ne Stufe der TExturen runter - omg.
Diese Extreme Streaming-Einstellung bringt optisch eh nix - also sinnfrei.

Ich kauf mir für Knapp 400 euro eine Grafikkarte und muss die Qualität runterschrauben weil nvidia so extrem mit dem Speicher knausert?? Naja.... naja, dafür geb ich nicht knapp 400 aus. Und ja Preise sind gefallen, aber nicht viel..... Ne, früher wenn mann knapp 400 ausgegeben hat, musste man nicht die Regler zurückschrauben...
 
Ich kauf mir für Knapp 400 euro eine Grafikkarte und muss die Qualität runterschrauben weil nvidia so extrem mit dem Speicher knausert?? Naja.... naja, dafür geb ich nicht knapp 400 aus. Und ja Preise sind gefallen, aber nicht viel..... Ne, früher wenn mann knapp 400 ausgegeben hat, musste man nicht die Regler zurückschrauben...

Ich muss selbst mit meiner 2080 Ti in UWQD in vielen Spielen die Details reduzieren, aber das ist ja nun wirklich nichts schlimmes. Die Spiele werden dadurch ja nicht hässlich.


Gesendet von iPhone mit Tapatalk
 
Ich kauf mir für Knapp 400 euro eine Grafikkarte und muss die Qualität runterschrauben weil nvidia so extrem mit dem Speicher knausert??

Irgendeinen Tod muss man halt sterben, ich kann diese Empörung ehrlich gesagt nicht nachvollziehen, besonders von jemanden, der immer wieder beteuert, wie sinnfrei Raytracing ist und man es ja nicht sieht, sich dann aber über minimale Texturunterschiede in 0,1% der Spiele echauffiert.:huh:

Ne, früher wenn mann knapp 400 ausgegeben hat, musste man nicht die Regler zurückschrauben...

Musste man schon immer, was hab ich damals in Crysis Regler zurückgeschraubt, oder in Far Cry 2 mit meiner neuen HD 4850 damals.
Mit ner Mittelklassekarte kann man nicht erwarten immer alles auf Maximum stellen zu können.

Was soll denn jetzt das Erwähnen des Mitbewerbers?

Ich finde es schon ein wenig komisch, dass überhaupt noch Grafikkarten des gehobenen Preissegments ohne DXR Support empfohlen werden.
Das hört sich vielleicht ein wenig tendenziös an, aber sobald AMD mit RT Grafikkarten nachgelegt hat, sind die alten Karten doch gar nicht mehr interessant - gerade dann wenn ein weiteres Jahr ins Land zieht?
Damals, zu Directx12 Zeiten, hat den AMD Karten doch deutlich mehr Vorteile eingeräumt.

Der Redaktion geht es HIER in dem Review eher um die Frage, Wie zukunftsicher ist Graka XYZ.

Wie zukunftssicher ist eine Grafikkartengeneration, die kein RT unterstützt?
Das mit der V-ram-Leier hörte man schon im GTX 1060 Test vor knapp 4 Jahren.

Das PCGH auch mal Extreme geht, kann doch net schaden in Hinsicht auf kommende Games.

Wenn man bei RT so in die Extreme wie bei der V-ram Problematik ginge, dann wäre die 5700XT ein Ladenhüter.
Grundsätzlich kann ich es eh nicht nachvollziehen, warum man diese GPU aktuell empfiehlt, weil sie von AMD kommt?
Eine gleichschnelle 2070 kostet gerade mal 15 Euro mehr, inkl. dem besseren Featureset.

1. Mit Ampere wird nur die RT-Performance gesteigert.
2. Die RT-Qualität wird verbessert und braucht mehr Leistung+Vram.

Bei 2. kanns dann schon für ältere Grakas eng werden.

Wann kam die GTX 970 nochmal raus? Vor 6 Jahren?
Man kann mit den 3,5GB in Full HD immernoch fast alles (98%) auf maximalen Textursettings spielen.
Also ich würde da eher weniger drauf Wert legen, das ist auch der Grund, wieso AMDs 5600XT nur 6GB hat, kommende Konsolen sollen für GPU und CPU auch nur 16GB haben.


Wieso denn Lügner? Inkl. RT werden 8GB inkl. Extreme Streamingeinstellung zum Problem, eine Einstellung die ich für unnötig halte.
Unter Ultra reichen auch 6GB der 2060 + Raytracing nicht, da muss man eine Stufe runterschalten.
 
Zuletzt bearbeitet:
Nochmal: Die Konsolen haben selbst nur 13 GB RAM zur Verfügung, abseits von den Ultra-Texturen für PC gibt es daher keinen Grund anzunehmen, dass der VRAM Bedarf bei sinnvollen Settings krass ansteigen wird. Anders sieht's natürlich in 4K mit 4K Texturen aus, aber dafür hat eine 2060 ja sowieso nicht genügend Leistung. Wolfenstein ist hier eher eine Ausnahme, die meisten Current Gen Games verbrauchen nur circa 3,5 GB VRAM in maximalen Settings.

Zudem werden noch weitere Optimierungen kommen, die VRAM einsparen werden (DX12 Sampler Feedback) für RT wird es ebenfalls noch genug Optimierungen geben (DXR 1.1)

Einfach mal locker machen und entspannen.
 
Zurück