News Neben Diablo 4: Mehr PC-Spiele mit Support für DLSS 3 und DLSS 2

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Neben Diablo 4: Mehr PC-Spiele mit Support für DLSS 3 und DLSS 2

Nvidia berichtet wöchentlich über neue Spiele mit DLSS- und Raytracing-Support. Neben Diablo 4 und Tower of Fantasy wird auch die PC-Version von Ratchet & Clank: Rift Apart DLSS 3 unterstützen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Neben Diablo 4: Mehr PC-Spiele mit Support für DLSS 3 und DLSS 2
 
DLAA + Frame Generation ist meiner Meinung nach die beste Kombination, insofern die dafür nötige Rohleistung vorhanden ist. Hammer Optik + Strom sparen, gerade in Kombination mit Undervolting, besser geht es doch nicht, vor allem in Hinblick auf den nahenden Sommer. :)

Wegen mir darf das sehr gerne in allen zukünftigen AA(A) - Releases standardmäßig implementiert werden.
 
Haben die Windowsversionen der Spiderman Spiele nicht Probleme mit AMD CPUs? Hoffentlich keine in Rift Apart!

Für mich aber endlich mal ein Spiel mit DLSS3, auf das ich mich freue. Es ist zwar schon in einigen Spielen vorhanden, aber die wenigsten davon interessieren mich.
 
DLAA ja, FG nein.
Ich hab nativ + DLAA und ist um längen besser. FG ist für mich nur ein Pseudo-Frame, der dazu noch ********************* aussieht.
Das ist mit Sicherheit Geschmackssache. Ich mag Frame Generation recht gerne.

Es kommt sicher auch auf die Auflösung an, in der man spielt. In UHD "braucht" man es schon eher. Man kann natürlich auch andere Regler bedienen, die Last von der GPU nehmen, wenn man das denn mag.

By the way: Ich schreibe schon immer "meiner Meinung nach" dazu, damit es sich nicht nach allgemeingültigen Statements liest, aber irgendwie wird das immer ignoriert, von den Leuten, die mich zitieren. Ich verstehe es nicht. ^^
 
Zuletzt bearbeitet:
DLAA ja, FG nein.
Ich hab nativ + DLAA und ist um längen besser. FG ist für mich nur ein Pseudo-Frame, der dazu noch ********************* aussieht.
Also ich sehe da keine Unterschiede wenn FG aktiv ist. Auch die höhere Latenz spüre ich nicht..

Muss aber sagen das ich mich nativ in den entsprechenden Games schon im 90+FPS Bereich befinde
 
Also ich sehe da keine Unterschiede wenn FG aktiv ist. Auch die höhere Latenz spüre ich nicht..

Muss aber sagen das ich mich nativ in den entsprechenden Games schon im 90+FPS Bereich befinde
Joa, genau so schaut es bei mir auch aus. Mit exzessiven Undervolting sowie FG kann man auch mega effizient unterwegs sein. Das fetzt schon.

Für kompetitive Geschichten sollte man es natürlich deaktivieren, aber für den heimischen Singleplayer-Spaß spricht meiner Meinung nach nichts dagegen. Da kommt es ja auf keine Leistung (Turniere, Ranks, etc.) in dem Sinne an.
 
Undervolting natürlich klar. Die Frames werden nie mit welchen aus DLSS oder Nativ mithalten können, weil diese eben nur mit Bewegungsvektoren generiert werden. Das kann gerade bei der UI in D4 zu unschönen Ansichten kommen, wenn im Hintergrund ein Schneesturm weht und du die Skillübersicht öffnest.
Ich hab als Beispiel ein FPS-Limit drin von 150 im Treiber und mit Nativ + DLAA (für Kantenglättung) ist die 4080 nicht mal bei 75% ausgelastet und ich hab die undervoltet (guten Chip erwischt) und verbrauche unter Last max. 180W.
Klar ginge mit DLSS noch weniger, aber es ist halt was es ist: ein hochgerechnetes Bild. Da ist nativ + DLAA in der Regel immer überlegen (falls es geht). Reflex sollte man in D4 eh ausschalten, da gibt es momentan Probleme was zu erheblichen Leistungseinbußen und möglichen großen Framedrops führt. SOllte die GPU aber eh nicht ausgelastet sein zu 100% braucht man Reflex eh nicht.

Ich schau mal ob ich ein Screen machen kann, wegen dem oben genannten Sachverhalt.

Update: Also ich hab gerade mal probiert DLSS 3 (DLSS2+FG) anzuschalten und den UI Bug nachzustellen, welchen ich im Server Slam sah. Ging aber nicht, scheint also doch ok zu sein.
 
Zuletzt bearbeitet:
Undervolting natürlich klar, aber ist bekannt das Frame Generation bei D4 momentan noch nicht optimal ist. Zumal die erzeugten Frames nie mit welchen aus DLSS oder Nativ mithalten können, weil diese eben nur mit Bewegungsvektoren generiert werden. Das kann gerade bei der UI in D4 zu unschönen Ansichten kommen, wenn im Hintergrund ein Schneesturm weht und du die Skillübersicht öffnest.
Ich hab als Beispiel ein FPS-Limit drin von 150 und mit Nativ + DLAA (für Kantenglättung) ist die 4080 nicht mal bei 75% ausgelastet und ich hab die undervoltet (guten Chip erwischt) und verbrauche unter Last max. 180W.
Klar ginge mit DLSS noch weniger, aber es ist halt was es ist: ein hochgerechnetes Bild. Da ist nativ + DLAA in der Regel immer überlegen (falls es geht).

Ich schau mal ob ich ein Screen machen kann, wegen dem oben genannten Sachverhalt.
Okay, hmmm. Zu meiner Verteidigung: Ich habe mir das Release-Spiel bisher noch nicht geholt, aber die Open Beta gespielt. Ich muss das selbst sehen in der finalen Version.

Ich fand es in "A Plague Tale: Requiem" super und habe sogar das ganze Spiel so durchgezockt. Vielleicht hat es da auch besonders gut funktioniert, wer weiß (oder ich bin da einfach weniger empfindlich).

Ich vermute mal, dass Du in WQHD spielst (Monitor in Deinen Hardware-Daten)? Ich fahre halt eine höhere Auflösung (3840x1600 oder UHD) und da liegt schon mehr Last auf die GPU. Ich fahre mit meiner RTX 4090 eine Spannungs-Frequenz-Kombination von 865 mV und 2505 MHz. Da steht auch nur bei Path Tracing - Anwendungen und 100% GPU-Last eine 3 vorne bei der Leistungsaufnahme (Quake 2: RTX z.B.). Mit DLSS (Super Resolution und/oder Frame Generation) und passendem Framelimit habe ich bei 60-80% Last auf der GPU aber in der Realität meistens eine ähnliche Leistungsaufnahme, minimal höher vielleicht, weil ich schon mindestens einen niedrigen dreistelligen FPS-Bereich anvisiere, wenn die CPU mitmacht.
 
Joa, genau so schaut es bei mir auch aus. Mit exzessiven Undervolting sowie FG kann man auch mega effizient unterwegs sein. Das fetzt schon.

Für kompetitive Geschichten sollte man es natürlich deaktivieren, aber für den heimischen Singleplayer-Spaß spricht meiner Meinung nach nichts dagegen. Da kommt es ja auf keine Leistung (Turniere, Ranks, etc.) in dem Sinne an.
Ganz ehrlich.. ich würde sogar gerne Mal n call of duty damit ausprobieren.

Da kommts einfach noch auf soviele andere Sachen an was inputlag angeht.. da machen 10ms hoch oder runter den Braten auch nicht mehr fett
 
Ganz ehrlich.. ich würde sogar gerne Mal n call of duty damit ausprobieren.

Da kommts einfach noch auf soviele andere Sachen an was inputlag angeht.. da machen 10ms hoch oder runter den Braten auch nicht mehr fett
Kampagne oder sogar Multiplayer?

Ja, das stimmt, sämtliche Peripherie spielt da ja mit rein.

Ansonsten: Letztendlich müsste man es halt die Pros, die damit ihr Geld verdienen, einfach mal ausprobieren lassen - Das Ganze dann natürlich mit verschiedenen Bildraten (144 Hz , 240 Hz, 360 Hz) und derselben Peripherie, die sonst auch verwendet wird. Wenn die dann damit sogar performen, dann gibt es mit Sicherheit keinen Grund mehr zur Diskussion. Die Technologie wird aber unabhängig davon ja sowieso immer weiter verbessert werden. Manchmal muss man dem Ganzen auch einfach mal etwas Zeit geben, gut Ding will Weile haben.
 
Kampagne oder sogar Multiplayer?

Ja, das stimmt, sämtliche Peripherie spielt da ja mit rein.

ich würd auch knallhart Multiplayer probieren.
Competive ist bei COD gar nix mehr.. für offizelle hochbepreiste liga Spiele schreiben die sogar Controller inklusiven starken Aimassist vor. Da ist MnK verboten.

Da Spielt nicht nur die andere Peripherie (Eingabegerät/Monitor) mit rein..
allein die Server Latenz, tickrate bricht dir da schon das Genick in der Diskussion.. von der Bearbeitungslatenz/netcode des Spieles ganz zu schweigen.

Als Casual bekommst das gar nicht mehr mit.. ich tue mich ja schon schwer überhaupt Tearing über 144hz ohne sync zu sehen


und ob ich jetzt bei 100fps nativ 50ms inputlag habe.. oder bei interpolierten 200fps 60ms inputlag habe.. macht für mich in der diskussion keinen großen unterschied allein durch die Tatsache das ich ohne FG gar keine 200fps hätte
 
Wann RT für Diablo kommt wäre interessanter.
Das Spiel hat doch schon ordentlich SSAO, spiegelungen,Lichtberechnung ect
Die Unterschiede werden optisch minimal sein.
Im besten Fall wird es leicht anders aussehen . Aber nicht unbedingt besser

Das ganze wird also nur wieder FPS Verschwendung.


Ansonsten.. die große Computermesse ist Rum und es gab kein einziges Wort zu
FSR-FG seitens AMD (wie zu erwarten war denn das wird dieses Jahr nix mehr)
Wärend RTX-FG schon Mal n ordentlichen Vorsprung hat
 
Zurück