News Star Wars Jedi Survivor: Modder verdoppelt Fps mit DLSS3

FG nützt rein gar nichts wenn wegen Nachladeruckler die Percentilen am Arsch sind, das Hauptproblem in Jedi Survivor wie auch HoLe.
Natürlich kann DLSS keinen mangelhaften Speicherausbau, egal ob System oder V-RAM beheben. :crazy:
Steht ja auch nicht zur Disposition. Aber es würde Jedi:Survivor massiv beschleunigen, da man häufig im CPU Limit liegt und dagegen hilft weder DLSS noch das qualitativ schlechtere FSR und damit meine ich nicht, dass es nicht brauchbar ist. Es ist okay.
Ich weiss FG mit seinen Fake-Frames ist momentan im NVidia-Lager eine heilige Kuh, aber man sollte halt sich nicht zu sehr vom Rumgehype blenden lassen.
Ich denke du weißt wenig bis gar nichts über DLSS3, dazu hast du noch eine Radeon GPU im Profil und formst Szenarien, die DLSS3 gar nicht erfüllen kann.
Und das als "Fake Frames" darzustellen ist auch völlig verkürzt, unwahr und sogar verleumderisch.
FSR2Q funktioniert in Jedi Survivor bis auf sich bewegendes Buschwerk gut bis sehr gut, lässt sich auch mit VSR/DSR kombinieren und man kriegt dabei sehr einfach ein knackscharfes Bild und Texturen.
Aber in Bewegung wesentlich schwächer als es DLSS kann, deshalb ist es für mich unverständlich warum die bessere Technologie nicht im Spiel integriert ist, rein aus Interesse der Spieleentwickler ihr unfertiges Spiel einem möglichst großen Publikum anzubieten.
Dem Entwicklerstudio ist es von Seiten AMD völlig freigestellt DLSS mit zu integrieren.
Kann sein, kann auch nicht sein. Ich finde dazu kaum Quellen.
Die proprietäre NVidia-Tech wird hierbei je länger je mehr schlichtweg durch ihren stets sehr limitierten Nutzerkreis uninteressanter für Studios.
Gerade weil der Nutzerkreis bei Nvidia viel größer ist, ist deine Aussage unwahr.
DLSS2 wird seit Turing unterstützt. Fast 5 Jahre alte Karten.
 
Also ich bin auch kein FAN von DLSS 3/FG und das sage ich, als einer der ne 4090 hat und es somit oft genug testen konnte.

2 Dinge stören mich.
Erstens: bei schnellen Kamerabewegungen gibts häufig Bildfehler, die unnatürlich aussehen. Und Elemtene im HUD werden häufig zerrissen.

Zweitens: V-sync und DLSS 3 zusammen geht nicht. Was bei mir zu unnötig hoher GPU Auslastung und zu tearing führt.

Alles in allem habe ich noch in jedem Spiel wo ich DLSS 3 getestet habe, das feature wieder ausgeschaltet nach 5 minuten.

Für mich ist das ganze eher noch in Kimderschuhen.
 
Also ich habe A Plague Tale: Requiem mit Frame Generation durchgezockt und das lief top: FPS-Cap bei 140 FPS bei einer Bildwiederholfrequenz von 144 Hz in Kombination mit V-Sync, G-Sync, DLSS Quality und eben Frame Generation. Artefakte konnte ich nur mit (völlig sinnfreien) ruckartigen Mausbewegungen erzwingen, die beim "normalen" Spielen überhaupt nicht auftraten.

In anderen Spielen habe ich keine Erfahrung, aber eine höhere Framerate würde ich immer mitnehmen, selbst wenn hier und da mal ein Artefakt zu sehen ist. Who cares? Wird doch noch weiterentwickelt und für den Einstand funktioniert es prima.

Bei Shootern ist das 'ne andere Geschichte, da ist eine maximal niedrige Latenz natürlich wichtig, aber selbst da, wenn man nicht kompetitiv spielt, kann man sicher darüber hinwegsehen. Reflex hilft ja auch ein wenig.
 
Welches aktuelle Spiel wäre das denn?
Na Nvidias Vorzeige DLSS 3 Game , A Plague Tale Reqiuem.

Nur hat Nvidia gar keine Veranlassung FSR auszusperren da qualitativ nicht auf dem Niveau von DLSS, sah man auch schön an Cyberpunk.
Also dieses Märchen vom angeblich ja so schlecht aussehenden FSR kann ich auch langsam nicht mehr hören.
DLSS mag ja besser aussehen aber auch FSR bringt Frames und sieht dabei nicht schlecht aus, wenn auch mal spielt und nicht nur Standbilder vergleicht.
Wobei ich FSR kaum benutze, weil mir die FPS meist ausreichen in WQHD.
Und Veranlassung hat Nvidia sehr wohl, du schliesst eben AMD / Intel und ältere Nvidias vom Upscaling aus.
Also von eine kostenfreien Methode mehr Frames zu bekommen bei etwas leidender Optik.
Kannst natürlich stattdessen ne aktuelle Nvidia Karte kaufen :schief:
 
Zuletzt bearbeitet:
Zurück