News The Witcher 3 Next-Gen: Konstante 60 Fps mit Raytracing nur mit Nvidia DLSS 3

Kommt drauf an mit wessen Augen man schaut. Ich finde Witcher 3 2015 noch immer schön.
Nach dem Next Gen-Update ja. Texturen sei Dank. Hab mir aber noch ne Reshade-Mod drauf geladen, damit es noch hübscher aussieht.

Und RayTracing kostet einfach mehr als es am Ende optisch Wert ist für mich!
Der optische Mehrwert ist hier allerdings enorm. Mit RT braucht sich das Spiel hinsichtlich Landschaften und Städte nicht hinter aktuelleren Titeln verstecken. Ohne RT ist es halt nur eine leicht aufgehübschte Vanilla-Version, der man das Alter durchaus ansieht.

Das Problem ist halt einfach, dass die Entwickler das Upgrade katastrophal verkackt haben. Ich weiß nicht, ob es die Schuld von CDPR war oder ob der vorherige Entwickler, der für das Upgrade verantwortlich war, so viel Bockmist gebaut hat. Optisch ist es grandios mit RT, aber abseits davon eine Katastrophe. Da läuft auch Cyberpunk 2077 besser.

Zum Thema DLSS 3.0:
Ich hab es angestellt (neue GPU sei dank) und ausprobiert. Ich finde das prinzipiell ne richtig gute Sache. Aber entweder liegt es an DLSS oder am Spiel selbst, dass es mit Frame Generation dauernd zu Fehlern und teilweise auch zu Abstürzen kommt. Hab dazu mal die Framerate testweise auf 75 und mal auf 90fps via Treiber gelocked. Dann ging es.
 
dann bin ich ja froh, es nicht zu kennen :D
LG bringt demnächst einen 27er OLED raus mit WHQD. Preislich leider knapp über 1000,00 €, aber leider geil.

Zu Witcher remastered: Irgendwie kickt es mich im Jahre 23 nicht mehr. Die Story machts halt aus und die kennt man ja bereits, wenn man classic gespielt hat. Ich werde es wohl wieder von der Festplatte schmeissen. Zudem stört mich massiv der unschärfe Effekt von DLSS. Sieht für mich eher nach DLSS 1 aus. Die Landschaft wirkt eher wie ein Ölgemälde. Hübsch isses trotzdem.
 
jetzt hast du mich neugierig gemacht mit dem HDR. Werde ich beim nächsten Monitor Kauf definitiv im Blick haben.
 
Ja viele Leute die PC Gaming machen haben einfach noch nie richtiges HDR auf einem OLED gesehen das gut in ein Spiel implementiert wurde, wer es einmal gesehen hat und damit gezockt hat kann nicht mehr zurück zu IPS oder TN.
Ist gefühlt wie ein Schritt von 60 hz zu 144 nur halt was das optische angeht.
Als ich noch den FS2020 auf meinem IPS gezockt habe war mir gar nicht klar dass der Himmel überall Sterne anzeigt, ich sah sie quasi erst auf meinem OLED alle in voller Pracht. Man verliert sehr viele Details auf IPS , VA und TN weil es einfach Schrott ist.
Es ist ja nicht nur das HDR.. Motion Blur und die Klarheit in Bewegungen zusammen mit den extrem guten Schaltzeiten sowie das man auf Overdrive verzichten kann lassen 120hz auf n OLED viel klarer und flüssiger wirken als ne 240hz IPS Möhre

Raytracing bringt dir ingame gar nix.. bei den meisten spielen sieht es nur "anders.. aber nicht besser aus" kostet dich aber massiv FPS

HDR kostet gar nix an Leistung und die optische Verbesserung sowie der Kontrast lässt einen regelmäßig die Kinnlade runterfallen.
Klar braucht man dafür n guten Monitor oder n OLED
 
jetzt hast du mich neugierig gemacht mit dem HDR. Werde ich beim nächsten Monitor Kauf definitiv im Blick haben.
Ja lohnt sich , du musst nur aufpassen bei den Monitoren weil so gut wie alle Monitore am PC werben mittlerweile mit "HDR400 "HDR600" usw aber sind gar nicht wirklich in der Lage das auch gut darzustellen. Die werden oft einfach nur extrem hell aber können den Unterschied zwischen hell und dunkel in HDR Szenen nur sehr schlecht wiedergeben.
Wichtig ist ein Monitor mit vielen Hintergrund Beleuchtungszonen oder am besten OLED was am PC jetzt dann auch hoffentlich immer mehr verfügbar sein wird.

Ein geiler Monitor kann manchmal ein größeres optisches Upgrade sein als eine neue GPU je nachdem wie alt sie halt ist.
 
Das Problem ist halt einfach, dass die Entwickler das Upgrade katastrophal verkackt haben. Ich weiß nicht, ob es die Schuld von CDPR war oder ob der vorherige Entwickler, der für das Upgrade verantwortlich war, so viel Bockmist gebaut hat. Optisch ist es grandios mit RT, aber abseits davon eine Katastrophe. Da läuft auch Cyberpunk 2077 besser.

Vermutlich oder sehr wahrscheinlich war RT für Witcher 3 nie vorgesehen.
So wie es bei vielen anderen Spielen sicher auch war bzw. ist.
Bei Spielen wie Portal mag es funktinieren das da irgendwie reinzufrickeln.
Aber in einer Open World ist das sicher etwas völlig anderes.
Nichtmal DLSS3.0 Vorzeigeprojekt Plague Tale Requiem hat von Anfang an RT, gibts per Patch irgendwann.
Und so lange das in die Spiele da nur irgendwie reingequestscht wird, ist RT bei mir in der Kaufentscheidung ganz weit hinten.
Wenn die Spiele mal nativ damit entwickelt werden, denke ich mal über eine GPU nach die das richtig gut kann :D
 
HDR kostet gar nix an Leistung und die optische Verbesserung sowie der Kontrast lässt einen regelmäßig die Kinnlade runterfallen.
Klar braucht man dafür n guten Monitor oder n OLED
Ich hab einen OLED TV und die Kinnlade ist mir bisher nicht runtergefallen. Sieht halt mit HDR sehr schick aus, aber der überkrasse Shit ist das nun auch nicht.
 
@Nazzy
Entweder ein Display mit 1000+ dimmingzonen (fängt irgendwo bei 800€ an)
Oder ein OLED (Den LGc2 bekommt man immer wieder Mal für 900€ im angebot.. ansonsten den Alienware für 1100€.. aber da verändert sich der Markt im Moment rasent)
 
ja, solange dieser noch funzt, werd ich wohl nicht wechseln. Ich bleibe aber bei WQHD . Keine Lust, alle 2 Jahre die GPU zu wechseln .Da dieser Monitor schon älter ist, schadet es ja nicht, schonmal über eine mögliche Alternative nachzudenken.
 
Nach dem Next Gen-Update ja. Texturen sei Dank. Hab mir aber noch ne Reshade-Mod drauf geladen, damit es noch hübscher aussieht.


Der optische Mehrwert ist hier allerdings enorm. Mit RT braucht sich das Spiel hinsichtlich Landschaften und Städte nicht hinter aktuelleren Titeln verstecken. Ohne RT ist es halt nur eine leicht aufgehübschte Vanilla-Version, der man das Alter durchaus ansieht.

Das Problem ist halt einfach, dass die Entwickler das Upgrade katastrophal verkackt haben. Ich weiß nicht, ob es die Schuld von CDPR war oder ob der vorherige Entwickler, der für das Upgrade verantwortlich war, so viel Bockmist gebaut hat. Optisch ist es grandios mit RT, aber abseits davon eine Katastrophe. Da läuft auch Cyberpunk 2077 besser.

Zum Thema DLSS 3.0:
Ich hab es angestellt (neue GPU sei dank) und ausprobiert. Ich finde das prinzipiell ne richtig gute Sache. Aber entweder liegt es an DLSS oder am Spiel selbst, dass es mit Frame Generation dauernd zu Fehlern und teilweise auch zu Abstürzen kommt. Hab dazu mal die Framerate testweise auf 75 und mal auf 90fps via Treiber gelocked. Dann ging es.

Spiele es ganz ohne jede Mod, ich find es einfach gut so wie es ist, es hat halt genau so seinen scharm:redface:
Aber natürlich hat jeder sein eigenen Geschmack
 
Ich habe noch nicht viel gespielt und scheinbar keine CPU-lastigen Szenen erlebt.
Aktuell läuft es mit 90-120 FPS in höchsten Settings in 4K mit Raytracing und DLSS 3.0 (i9 12900k/RTX 4080).
Sieht sehr gut aus. Ich habe das Spiel vorher nicht gespielt.

Ohne DLSS 3 wärst du dann bei 45-60 FPS. Guck mal über RTSS oder das Nvidia Ding auf deine GPU Auslastung. Ich bekomme ähnliche FPS und meine 4090 ist bei um die 60% Auslastung, also klar im CPU Limit. Es werden auch nicht alle CPU Threads ausgelastet. Im RTSS werden mir nur 3-4 Threads mit 80%+ Auslastung angezeigt und die anderen dümpeln bei 5-15% rum. Und das ist selbst der Fall, wenn ich RT ausschalte. Die DX12 Implementierung scheint schlecht zu sein so dass man ähnlich wie bei den ersten DX12 Spielen in ein CPU Limit läuft und im Endeffekt schlechtere Performance erhält als vorher.

Ist aber nicht nur in Witcher 3 so. In Resident Evil 2/3 Remake und RE7 mit RT Patch ist es ähnlich.

Es ist ja nicht nur das HDR.. Motion Blur und die Klarheit in Bewegungen zusammen mit den extrem guten Schaltzeiten sowie das man auf Overdrive verzichten kann lassen 120hz auf n OLED viel klarer und flüssiger wirken als ne 240hz IPS Möhre

Raytracing bringt dir ingame gar nix.. bei den meisten spielen sieht es nur "anders.. aber nicht besser aus" kostet dich aber massiv FPS

HDR kostet gar nix an Leistung und die optische Verbesserung sowie der Kontrast lässt einen regelmäßig die Kinnlade runterfallen.
Klar braucht man dafür n guten Monitor oder n OLED

In Witcher 3 macht RT schon einen großen Unterschied. Im Wald ändert sich die Beleuchtung sehr stark, teilweise sehr viel dunkler, teilweise deutlich heller. Offene Flächen mit Gräsern schauen sehr viel realistischer aus, weil jeder Grashalm jetzt Verschattung hat. Normales SSAO hat die Gräser komplett ignoriert, war also einfach nur eine riesen Fläche ohne Schatten, HBAO+ hatte man Artefakte sodass es in Bewegung so ausschaute als läge eine dunkle Fläche auf dem Gras.

Innenräume sind auch sehr viel stimmiger, wenn auch deutlich dunkler und in Höhlen muss man sehr viel häufiger Cat Potion benutzen, weil es einfach komplett dunkel ist. Ohne Lichtquelle ist alles einfach schwarz, ohne RT war es so hell, dass man auf die Fackel und Cat Potion eigentlich immer verzichten konnte.

Auch in den Städten fällt das RT stark auf. In Novigrad sind Gassen jetzt wirklich dunkel und nicht so bläulich beleuchtet. In Toussaint wo es generell sehr hell ist, schauen die Gebäude plastischer aus, weil es jetzt reflektierte, farbige Beleuchtung und Verschattung auf den Gebäuden gibt.

Der Unterschied fällt schon stark auf, aber nicht so sehr auf Kaer Morhen oder White Orchard oder dem großen Platz in Novigrad die von allen Seiten gezeigt werden. Besonders im Wald fällt der Unterschied sofort auf.

Auch in anderen Spielen macht RT einen großen Unterschied. Im RE2 Remake sind die Screenspace Reflexions schrecklich und mit RT erhält man ein sehr viel ruhigeres Bild. HDR bzw. alleine der Hohe Kontrast von OLED macht schon einen gro0en Unterschied, aber selbst da kommt es auf die Implementierung an. HDR in RE2/3 Remake und RE7 (RE8 kann ich mich nicht dran erinnern) ist z.B. schrecklich, weil man kein richtiges Schwarz mehr hinbekommt. Egal was ich einstelle, aber schwarz ist nur noch Grau und gibt auch viele Threads dazu aus der Zeit wo RE7 erschienen war wo das kritisiert wurde und die Empfehlung ist HDR auszuschalten weil man sonst keine vernünftigen Schwarzwerte erhält.
 
Wenn Cyberpunk 2077 besser läuft als The Witcher 3. Dann weißte, da sind echte Pfuscher am Werk. Oder anders gesagt, CDPR. :fresse:
 
Es wird interessant sein zu Beobachten, wie viele Games in den nächsten Jahren DLSS und Raytracing soweit nutzen, dass sich die Technologie wirklich lohnt und damit auch die Anschaffung einer entsprechenden GPU.
Entscheidend wird es wahrscheinlich erst dann werden, wenn die Konsolen nativ diese Technologien unterstützen.
 
Ohne DLSS 3 wärst du dann bei 45-60 FPS. Guck mal über RTSS oder das Nvidia Ding auf deine GPU Auslastung. Ich bekomme ähnliche FPS und meine 4090 ist bei um die 60% Auslastung, also klar im CPU Limit. Es werden auch nicht alle CPU Threads ausgelastet. Im RTSS werden mir nur 3-4 Threads mit 80%+ Auslastung angezeigt und die anderen dümpeln bei 5-15% rum. Und das ist selbst der Fall, wenn ich RT ausschalte. Die DX12 Implementierung scheint schlecht zu sein so dass man ähnlich wie bei den ersten DX12 Spielen in ein CPU Limit läuft und im Endeffekt schlechtere Performance erhält als vorher.
Die 4080 ist fast immer zu 99% ausgelastet. Die ist wahrscheinlich nicht stark genug, um die CPU ins Limit zu bringen.
 
Es wird interessant sein zu Beobachten, wie viele Games in den nächsten Jahren DLSS und Raytracing soweit nutzen, dass sich die Technologie wirklich lohnt und damit auch die Anschaffung einer entsprechenden GPU.
Hö? Spätestens seit meiner 2070 Super damals, nutze ich in nahezu jedem modernen Titel DLSS, weil es für mich gleichermaßen die Bildqualität sowie Effizienz der GPU erhöht. Ja, man kann DLSS auch ohne Raytracing nutzen. Das lohnt sich also schon gut zwei Jahre, mindestens. Wenn man die entsprechenden Spiele natürlich nicht spielt, dann braucht man dafür auch nicht aufrüsten, logisch.
 
Es wird interessant sein zu Beobachten, wie viele Games in den nächsten Jahren DLSS und Raytracing soweit nutzen, dass sich die Technologie wirklich lohnt und damit auch die Anschaffung einer entsprechenden GPU.
Entscheidend wird es wahrscheinlich erst dann werden, wenn die Konsolen nativ diese Technologien unterstützen.
Eine 1400€ oder 2000€ Grafikkarte? Nie. Eine solche Anschaffung ist Geldverschwendung und lohnt nie.
 
Zurück