News DLSS 2 vs FSR 2: Wie schlagen sich die Upsampler in Starfield?

Zudem werden zwar die FPS erhöht aber es sind eben "nur" Zwischenbilder die erstellt werden. Kein Vergleich zu "echten" High FPS.
Den Unterschied zwischen normalen und Zwischenbildern merkt man aber defakto nicht.
Auf der einen Seite finde ich es ja gut, das Modder für Ihre Arbeit auch entlohnt werden. Allerdings ist es schon fraglich das man für DLSS und FG Modder benötigt und das dann auch noch bezhalen muss...
DLSS hat der Modder kostenlos zur Verfügung gestellt.
FG nicht, aber irgendwo auch nachvollziehbar dass man für die Zeit die man investiert auch entlohnt werden will.
 
Hast du noch nicht gehört Grafik ist alles. Deswegen zockt ja auch jeder auch das hier hauptsächlich:

  • Dota 2.
  • Apex Legends.
  • Team Fortress 2.
  • Path of Exile.
  • War Thunder.
  • World of Tanks Blitz.
  • Rocket League.
Oder UE 5 walking sims hat ja gute Grafik alles andere ist ja egal. :haha:

Du kannst ja gerne bei deiner C64/Amiga 500 Grafik bleiben, da gab es richtig gute Spiele, ich kann dir gerne ein paar Empfehlungen aussprechen.

Alle von dir aufgelisteten Spiele, sind "Multi Player Kompetitive Spiele", ergo Spieler vs. Spieler, da ist Grafik/Story nebensächlich, da geht es um Übersicht und schnelle Kompetitive Spielweise.
(Außer POE aber das ist 12 Jahre alt und sah damals top aus)

Also vergleich Starfield mit anderen Singleplayer Storie spielen und nicht mit reinen Multiplayern wie Dota, Apex, RL.

Den für die geforderte Hardware Anforderung sieht Starfiled richtig schlecht aus.
Das kannst du natürlich anders sehen.
 
Nein da stimmt schon aber ich glaube das es zu rüh releast wurde diesmal nicht wegen Bugs sondern Perfromance aber man kann es gut spielen wenn man Settings bedienen kann siehe hardware unboxed video. Schlechte perfromance haben mir noch kein gutes spiel versaut.

Wir sind am Pc verdammt noch mal wirf hardware drauf :haha: , bin auch gerade knapp 900€ ärmer geworden. :devil: 4070ti 739€ und ryzen 5600x 119€.Damit werde ich in 4k mit fsr die 60 fps halten können mit den angepassten settings und in andern sachen kann ich sogar natives 4k endlich spielen mit 60 fps :).

billiges hobby 2019 auf 2023 850€. pff
 
Den Unterschied zwischen normalen und Zwischenbildern merkt man aber defakto nicht.

Konnte es selbst schon testen und gerade wenn die nativen FPS unter 60FPS merkt man es schon. Sieht flüssig aus aber fühlt sich nicht so wirklich an. Schwierig zu beschreiben.

Wenn man über 100 FPS nativ hat mag es so sein aber dann braucht man FG meiner Meinung auch nicht.
 
Konnte es selbst schon testen und gerade wenn die nativen FPS unter 60FPS merkt man es schon. Sieht flüssig aus aber fühlt sich nicht so wirklich an. Schwierig zu beschreiben.

Wenn man über 100 FPS nativ hat mag es so sein aber dann braucht man FG meiner Meinung auch nicht.
Kann ich nicht wirklich nachvollziehen, für mich sieht es nicht nur flüssig aus, es fühlt sich auch sehr flüssig an.
Dass die Latenz bei 90 FPS mit FG nicht so gut ist wie native 90 FPS ist klar, allerdings ist das bei den Spielen die FG supporten ohnehin praktisch irrelevant, das sind keine kompetetiven MP Spiele wo jede MS mehr an Latenz nachteilig wirkt, in den Spielen die ich mit FG gespielt btw getestet habe ist FG ein absoluter Gamechanger (Star Wars Jedi Survivor, The Witcher 3 mit RT, Cyberpunk 2077, Spiderman, Hogwarts Legacy, Dying Light 2).
 
Weil Framegen müll ist. Sagte ich schon 100 fps bringen nicht wenn es sich anfühlt wie durch Honig warten. Vielleicht klappt es ja mit version 2.0.
 
Ich denke nicht, dass Framegen Müll ist. Es ist die logische Konsequenz davon, dass wir es seit über 20 Jahren im Fernsehbereich haben. Mein Sony Röhrenfernseher hatte das schon.

War nur eine Frage der Zeit bis das auch bei Games Einzug finde und ich finde es genial. Und ich werde das auch bei Games nutzen, wo ich normal eben keine 50 oder 60 fps erreiche. Und Dank genügend VRAM kann ich damit die Lebensdauer meiner RDNA2 Karte stark verlängern. Genial ist das. bei nvidia haste das Problem, dass dir halt der VRAM schnell ausgeht. Da musst du dann dennoch ne neue GPU kaufen.

Ich kanns jedenfalls nicht erwarten, bis sie bei Starfield auch FSR3 reinpatchen. Dann kann ich auch Raytracing einschalten im Spiel über reshade und hab dennoch meine 60 fps. Das wäre geil. :daumen: =)
 
Weil Framegen müll ist. Sagte ich schon 100 fps bringen nicht wenn es sich anfühlt wie durch Honig warten. Vielleicht klappt es ja mit version 2.0.
Auch Version 100 wird nichts daran ändern, es sei denn es werden Mittel und Wege gefunden, wie man vorhersagen kann welche Steuerungsbefehle der Spieler vornimmt.
Also das kein Bild zurückgehalten wird, um ein Zwischenbild berechnen zu können.
Ich denke nicht, dass Framegen Müll ist. Es ist die logische Konsequenz davon, dass wir es seit über 20 Jahren im Fernsehbereich haben. Mein Sony Röhrenfernseher hatte das schon.
Es gibt da aber ein wichtigen Unterschied: Bei Filmen, Serien etc. gibts keine Eingabe, auf die reagiert werden muss.
Bei interaktive Filme hat man mehrere Sekunden um zu reagieren, da stört es auch nicht.
Bei Videospiele muss man jedoch jederzeit eingreifen können, und wenn die Reaktion auf diese Eingabe verzögert umgesetzt wird - bzw. sichtbar wird -, ist das nachteilig und potentiell störend.
Ja, es gibt auch Spiele in denen 30 FPS - und entsprechend hohes Inputlag - ausreicht, aber bei denen braucht man dann auch kein FG / FMF.

Mit FG / FMF kann man aus unspielbaren FPS keine spielbare FPS machen, eben weil der Inputlag weiterhin unspielbar hoch ist. Will man das erreichen, muss man immer noch Details reduzieren bzw. die Render-Auflösung reduzieren (niedrigere Upsampling-Qualität).
 
Weil Framegen müll ist. Sagte ich schon 100 fps bringen nicht wenn es sich anfühlt wie durch Honig warten. Vielleicht klappt es ja mit version 2.0.

Auch Version 100 wird nichts daran ändern, es sei denn es werden Mittel und Wege gefunden, wie man vorhersagen kann welche Steuerungsbefehle der Spieler vornimmt.
Also das kein Bild zurückgehalten wird, um ein Zwischenbild berechnen zu können.

Alter, was für ein Quark. Warum verbreitet man immer solche Unwahrheiten?

Die Latenzen sind im GPU Limit mit Frame Generation + Reflex niedriger als ohne die beiden Techniken.

Hier aus dem Test von PCGH.

1693771470821.png



1693771487562.png



Hier geht die Latenz von ca 100ms auf ca 65 ms runter.


Oder hier bei Computerbase:
1693771837583.png


Nativ 112ms.
Mit FG + Reflex sind es dann nur noch 60,3 ms.

Nativ + FG hat sogar bessere Latenzen, als DLSS Performance. DLSS Performance verdoppelt häufig die FPS. Frame Generation tut das auch. Folglich passen mit Frame Generation sogar die Latenzen zur doppelten Framerate, so als hätte man eben nativ tatsächlich die doppelte Framerate.

Jetzt erklärt mir mal, warum sich das wie "durch Honig warten" anfühlen soll? Wenn die Latenzen mit FG schlecht sein sollen, dann sind alle Spiele ohne DLSS3 und Reflex support ja völlig unspielbar. Denn da sind die Latenzen teils nochmal doppelt so hoch. Mit AMD Karten, die kein Reflex unterstützen sowieso immer.

Also manchmal frag ich mich echt, wo dieser Unsinn mit der erhöhten Latenz überhaupt herkommt, ich raffs nicht.

Frame Generation erhöht nur dann die Latenz leicht, wenn man sich im CPU Limit befindet (leerer RenderQueue = vergleichbar mit Reflex an) oder wenn man gegen Reflex vergleicht. Aber das wäre im wahrsten Sinne Meckern auf höchstem Niveau, da man wie gesagt viel viel bessere latenzen hat, als Nativ. Kann also per Definition kein Nachteil sein.
 
Zuletzt bearbeitet von einem Moderator:
Die Tatsache das du erklären willst die die Latenz zustande kommt is funny af. steht die latenz für input lag des steuergerätes? Dieser input lag kommt zustande weil es fake frames sind sieh gut aus(meistens) fühlt sich *** an. Wäre dem niht so hätten wir hier echte Magie am Werk.

Diesen input lag erreiche ich auch wenn ich am Tv den smooth opera effect anmache oder v sync ut halt vieöl schlimmer.

unwahrheiten haha sicher. Habs probiert. :stupid:
 
Wo ist denn das Verständnisproblem?

Du siehst doch, dass man nativ bereits 112 ms Latenz hat. Das wären bei den rund 50 FPS die da erreicht wurden 5,5 Frames verzögerung (5,5x 20 ms).

Mit Reflex hat man dann nur noch ca 1/3 der latenz und somit nur noch rund 2 frames an Verzögerung.
Framegeneration verzögert dann nochmal um einen Frame, womit du bei ca 3 frames verzögerung bist, was immernoch besser ist, als die ca 5,5 frames die du nativ hättest.


Das Problem ist eben, dass die Latenzen stark ansteigen, sobald man im GPU Limit ist. Aber genau so spielen die meisten Leute und finden es toll (CPU Limit will ja auch keiner, weil dann die Frametimes unsauber werden).

Und von Vsync brauchen wir nicht reden. Da sind die Latenzen nochmal deutlich höher, als das was hier als "Nativ" betitelt ist.
 
Zuletzt bearbeitet von einem Moderator:
@Lederjacke: Du machst hier einen Fehler.
Du vergleichst Ohne Reflex mit FG + Reflex, und das ausgerechnet in Cyberpunk.

Reflex funktioniert unabhängig von FG, weil NVIDIA aber vorschreibt das mit aktivieren von FG auch Reflex aktiviert wird, kann man FG nicht unabhängig von Reflex testen. Daher muss man auch immer Reflex mit FG + Reflex vergleichen um den Inputlag von FG beurteilen zu können.
Da heißt es dann auch 43,3 (Nativ + Reflex) vs. 60,3 (FG + Reflex).

Cyberpunk ist auch ein denkbar schlechtes Beispiel, da scheint CD Project Red nämlich eingestellt zu haben das mehrere Frames zurückgehalten werden = hoher Inputlag. Mit Reflex werden diese nicht mehr zurückgehalten.
In anderen Spiele ist der Nutzen von Reflex nicht so hoch.
 
@Lederjacke: Du machst hier einen Fehler.
Du vergleichst Ohne Reflex mit FG + Reflex, und das ausgerechnet in Cyberpunk.

Reflex funktioniert unabhängig von FG, weil NVIDIA aber vorschreibt das mit aktivieren von FG auch Reflex aktiviert wird, kann man FG nicht unabhängig von Reflex testen. Daher muss man auch immer Reflex mit FG + Reflex vergleichen um den Inputlag von FG beurteilen zu können.
Da heißt es dann auch 43,3 (Nativ + Reflex) vs. 60,3 (FG + Reflex).

Natürlich vergleiche ich ohne Reflex, denn es wurde behauptet, dass sich ein Spiel mit Frame Generation schwammig anfühlen würde und es deswegen Mist wäre.

Dann müsste aber JEDES spiel ohne Reflex Mist sein. Und ich wiederhole mich. AMD und Intel Nutzer können Reflex gar nicht nutzen. Die haben immer die Latenzen wie hier mit nativ. Sind also AMD und Intel Karten deswegen auch unspielbar?


Dass Reflex schneller als FG + Reflex ist, ist mir doch bewusst, das zeigen ja die Balken, hab ich auch selbst gesagt, aber darum ging es überhaupt nicht!



Cyberpunk ist auch ein denkbar schlechtes Beispiel, da scheint CD Project Red nämlich eingestellt zu haben das mehrere Frames zurückgehalten werden = hoher Inputlag. Mit Reflex werden diese nicht mehr zurückgehalten.
In anderen Spiele ist der Nutzen von Reflex nicht so hoch.

Nein! Das liegt einfach am vollen GPU Limit. Da sind die Latenzen nunmal hoch und Reflex kann entsprechend viel herausholen.
Dass der Wert absolut gesehen so hoch ist liegt auch daran, dass es beim Computerbase Beispiel "nur" ca. 50 FPS sind.

Schau dir mal allgemein Latenzmessungen zu Spielen an. Hab grad mal ein zufälliges Video von battlenonsense auf youtube aufgemacht, der hat als er aktiv war viele ausführliche messungen gemacht. Und da sehe ich direkt in Overwatch bei 66 FPS und 100% GPU-Last eine Latenz von durchschnittlich 86ms. Und das in einem fuckin e-sport Spiel. Da steht also Witcher 3 im Vergleich wirklich nicht schlecht da mit 112 ms bei 50 FPS (bzw. 48 wenn wirs genau nehmen wollen.) Also nix mit "Frames zurückhalten". Sowas ist völlig normal.

Und hier will man mir jetzt weiß machen, dass sich 60ms mit Frame Generation scheiße anfühlen???
Was ist los mit euch?? (╯°□°)╯︵ ┻━┻

1693775140606.png
 
Ist doch logisch.
Ohne die Auflösungsskalierung anzurühren renderst du halt in nativer Auflösung. Nur kommt dazu noch der FSR Algorithmus.
So ergeben sich natürlich weniger FPS als nativ.
Und ich dachte schon ich wundere mich als einziger. Das ist kein BUG! Sollte doch einleuchten, dass der Option "Skalierung der Render-Auflösung" verschwindet wenn man Upscaling auf "AUS" stellt.....
Und dieses "FSR ausschalten, dann auf Preset Niedrig stellen und dann wieder auf hoch/ultra" von Mein MMO hat genau garnix geändert.
Viel spannender ist doch die Frage, warum Auto HDR nicht geht oder warum im Spiel nicht direkt HDR inplementiert wurde.
 
Über wss hat man sich eigentlich hier vor DLSS unterhalten? XD

Hier wurden ganze Doktorarbeiten die letzten Monate geschrieben, für DLSS hat die Nase ganz leicht vorn..

Aber danke für's Update dazu PCGH! Ein anderes Ergebnis hatte ich auch nicht erwartet.
 
Natürlich vergleiche ich ohne Reflex, denn es wurde behauptet, dass sich ein Spiel mit Frame Generation schwammig anfühlen würde und es deswegen Mist wäre.
Ja, hast recht. Da war ich Gedanklich irgendwo falsch abgebogen.
Nein! Das liegt einfach am vollen GPU Limit. Da sind die Latenzen nunmal hoch und Reflex kann entsprechend viel herausholen.
Dass der Wert absolut gesehen so hoch ist liegt auch daran, dass es beim Computerbase Beispiel "nur" ca. 50 FPS sind.
Reflex entlastet aber nicht die GPU, der Effekt des höheren Inputlags im GPU-Limit bleibt dementsprechend erhalten.
Erklärt auch nicht, weshalb es bei anderen Spiele - ebenfalls im GPU-Limit -, kein solchen Effekt gibt bei des es mit FG ein niedrigeren Inputlag gibt als Nativ und ohne Reflex.

Philipp Reuther hat in PCGH Ausgabe 06/23 im Artikel "Game Changer Frame Generation" (gibts nicht Online, auch nicht als PLUS-Artikel) folgendes geschrieben:
"Zugute kommt Cyberpunk, dass die Eingabe (ohne Reflex und Co.) bereits relativ indirekt ist, selbst ohne DLSS 3.0 ist die Input-Latency hoch, Cyberpunk hält offenbar in Relation zu anderen Spielen recht viele CPU-Frames zurück - die Reflex und Co darauf beim Einsatz einsparen können."
[Ein darauf aufbauender Artikel ist: DLSS 3.0, die Frame Generation und die RTX 4060 Ti - Auch für die Mittelklasse ein Game-Changer?]

Es ist das einzige Spiel im Test, wo durch Reflex der InputLag trotz FrameGeneration niedriger ist, als wenn auf beides verzichtet wird. Im Warhammer 40K Darktide ist es mit Reflex und FrameGeneration auf dem selben Niveau wie ohne beides.

Generell würde ich mir wünschen, das man die Anzahl der zurückgehaltenen CPU-Frames einstellen könnte.
CDP hat es mit dem Zurückhalten bei CP77 übertrieben, bei Darktide wurde es zwar nicht übertrieben, aber es ist offenbar immer noch höher als nötig.
Die weiteren getesteten Spiele waren Flight Simulator und Forza, diese haben gezeigt wie die Latenzen aussehen, wenn nicht viele CPU-Frames zurückgehalten werden. Denn bei diesen beiden kam nichts an die Latenz der nativen Nutzung, bei Forza auch nicht wenn auf DLSS verzichtet wurde - bei Flight Simulator gibts keine Werte ohne DLSS/FSR -, sobald FG zugeschaltet wurde.
Bei Forza hatte auch die mit getestete Radeon 6800 XT eine bessere - als 4070, ca. gleiche FPS - bzw. gleichwertige - 4070 TI, etwas höhere FPS - Latenz. Bei Flight Simulator klappte die Latenz-Aufzeichnung mit der Radeon nicht.

CDP hat sich bei CP77 scheinbar gedacht, das Reflex bzw. AntiLag das schon regeln werden.

Man kann sagen: Es hängt vom Spiel ab, je nachdem wie viele CPU-Frames ein Spiel zurückhält, kann mit FG die Latenz gleich bleiben, steigen, oder selten auch sinken.
Es kann jedoch nicht Sinn der Sache sein, das so viele CPU-Frames zurückgehalten werden, das nach dem aktivieren von FG man die gleiche oder niedrigere Latenz hat.
 
Zurück