News Upscaling: FSR 3 schlägt DLSS 3 auf einer Geforce RTX 4090 in Starfield deutlich, aber...

Liebe Leute, hängt ihr alle mit der Nase am Bildschirm oder Spielt ihr mit einer Lupe?
Ja AMDs Frame Generation produziert ein schlechteres Bild, da wohl die KI Komponente fehlt. Aber zu behaupten es wäre unspielbar oder um Welten schlechter ist völlig übertrieben. Jeder, der das Spiel einfach nur spielt und sich daran erfreut, wird den Unterschied nie bemerken.
Wer Nvidia sein Geld in den Rachen geworfen hat und eine RTX 4000er Karte hat, sollte natürlich DLSS mit Frame Generation nehmen, wenn im Spiel verfügbar. Aber der Rest der Leute mit RTX 3000er oder Radeon nehmen dankend AMD FSR3 an und erfreuen an der höheren FPS.
Darum geht es doch gar nicht.

Hier wird manchmal wegen Kleinigkeiten ein Fass auf gemacht, wenn man dann aber auf wichtige Unterschiede eingeht, sind diese plötzlich nichtig.

Nur nochmal ein Tipp, für alle interessierte.
Techpowerup Spieletests die Vergleichsslider mit Optionsauswahl.

Hier kann man wiederholt sehen ( quasi alle Spiele, die die dieses Jahr getestet haben) das DLSS Q zu FSR Q mehr negative Auswirkung hat, als zum Beispiel eine Detailstufe runter zu gehen, bzw. eine Texturstufe.

Das kann sich jeder selber mal anschauen!

Das man deswegen mit AMD nicht zocken kann sagt keiner!
 
Ein interpoliertes Zwischenbild weicht immer von einem nativen (bzw. echten) Frame ab, auch DLSS 3 ist daher immer mit Qualitätsverlust verbunden. Zusätzlich kommen noch höhere Latenzen und ungleichmäßige Frameausgabe hinzu, je nach persönlicher Wahrnehmung kann das als Beeinträchtigung empfunden werden.

Die negativen Auswirkungen hängen sehr vom Spiel ab, pauschal eine Interpolation zu aktivieren ist daher nicht angeraten,
Ich würde immer erst ausprobieren, wie gut das Spiel nativ läuft - und wenn die FPS nicht ausreichen schauen, welche Qualitätseinstellungen im Spiel das gewünschte Ergebnis erzielen.
Es kann z.B. sein, dass schon eine leichte Reduktion von Textur- oder Schattenqualität ein besseres Spieleerlebnis bietet als DLSS zu aktivieren. Manchmal ist DLSS oder FSR aber auch die Lösung oder eine Kombination aus Interpolations und Qualitätseinstellung - aber es ist immer ein Kompromiss.
Du hast dlss noch nie probiert oder? Und fg auch nicht. Ohne fg ruckelt cyberpunk bei mir mit fg hab ich das gleiche bild und läuft flüssig ohne auf die fps zu schauen
 
Darum geht es doch gar nicht.

Hier wird manchmal wegen Kleinigkeiten ein Fass auf gemacht, wenn man dann aber auf wichtige Unterschiede eingeht, sind diese plötzlich nichtig.

Nur nochmal ein Tipp, für alle interessierte.
Techpowerup Spieletests die Vergleichsslider mit Optionsauswahl.

Hier kann man wiederholt sehen ( quasi alle Spiele, die die dieses Jahr getestet haben) das DLSS Q zu FSR Q mehr negative Auswirkung hat, als zum Beispiel eine Detailstufe runter zu gehen, bzw. eine Texturstufe.

Das kann sich jeder selber mal anschauen!

Das man deswegen mit AMD nicht zocken kann sagt keiner!
Das meine ich ja. Im normalen Spielen ist der Unterschied nicht auszumachen. Mann muss schon explizit darauf schauen und nah am Bildschirm sein. Jemand, der sich mit der Materie nicht auskennt und einfach nur seine Spiele spielt, wundert sich über was hier eigentlich diskutiert wird. 😁
 
Liebe Leute, hängt ihr alle mit der Nase am Bildschirm oder Spielt ihr mit einer Lupe?
Ja AMDs Frame Generation produziert ein schlechteres Bild, da wohl die KI Komponente fehlt. Aber zu behaupten es wäre unspielbar oder um Welten schlechter ist völlig übertrieben. Jeder, der das Spiel einfach nur spielt und sich daran erfreut, wird den Unterschied nie bemerken.
Wer Nvidia sein Geld in den Rachen geworfen hat und eine RTX 4000er Karte hat, sollte natürlich DLSS mit Frame Generation nehmen, wenn im Spiel verfügbar. Aber der Rest der Leute mit RTX 3000er oder Radeon nehmen dankend AMD FSR3 an und erfreuen an der höheren FPS.
+1

Sehe ich genauso. Ich spiele meine Spiele, sofern FSR1 oder 2 auswählbar ist, eigentlich immer damit.
Bringt mehr FPS und ich sehe kaum Unterschiede während des Spielens.
Ja, Horizon Zero Dawn zB nutzt noch FSR1, da sieht man ab FSR Balanced bzw weiter runter auf Performance oder Ultra Performance dann schon deutlich Unterschiede.

Aber andere Games mit FSR2 sehen toll aus.

Deshalb bleibe ich immer bei Quality und nehme den FPS Sprung (egal wie hoch der nun ausfällt bei Game X oder Y) gerne mit. Sieht für mich genauso gut aus wie Nativ.

FSR3 FG nutze ich bisher nur bei Avatar und bin davon begeistert. Habe hier tatsächlich schon öfter Standbilder begutachtet, aber große Unterschiede zu nativ sehe ich jetzt nicht...Latenzprobleme bemerke ich auch keine. Obwohl man sagt, man sollte nativ locker 60FPS erreichen damit FG gut funktioniert, spüre ich absolut keine Beeinträchtigungen.
Und meine 7800XT zaubert nativ in 3440x1440 sicher keine 60FPS auf Ultra Details auf den Schirm.
Mit FSR3 FG komme ich aber dann auf absolut sauber spielbare 90-120FPS. Und die fühlen sich auch so an.
Gerne mehr davon.

Finds klasse, dass AMD auch ohne teure KI Cores hier dennoch das Beste draus macht und so sehr gut nutzbares Upscaling und sogar FG ermöglicht.
Auch wenn man qualitativ nicht ganz an DLSS rankommt, super spielbar ist es dennoch. Und schafft sogar in bisher allen Vergleichen deutlich mehr FPS. Kein allzu schlechtes Ergebnis ;)

Und wenn man weiterhin auch am treiberseitigen AFMF dran bleibt und das weoter verbessert, dann kommt man plötzlich für fast jedes Game in den Genuss von FG. Find ich auch klasse.

Also so schlecht wie manche das darstellen ist die Thematik bei AMD auch wieder nicht. :)
 
Wirklich?
Ich habe es in Baldurs Gate 2 und Elex 2 getestet. Letzteres mit Frame Generation.
Ich habe nichts negatives entdeckt, bin da aber auch nicht sonderlich empfindlich.
Ich habe gerade kein Beispielbild zur Hand, aber was mich am meisten gestört hatte, waren Block Artefakte wie bei Jpeg (lokal verringerte Auflösung?) und insbesondere weisse, flimmernde Punkt Artefakte auf ca 3-5% des gesamten Bilds.
Mit FSR 3 FG kommen dann noch lokale Verzerrungen hinzu, wo die Bildung von Motion Vectors schlicht und ergreifend fehlschlägt.
Wenn du davon nichts merkst: Glückwunsch. Geniesse deine Spiele und freu dich, dass du nicht so viel Kohle für ein zufriedenstellendes Ergebnis ausgeben musst. :)
 
XeSS und DLSS waren da fast immer besser.
Niemand bestreitet das die FSR Upscaling komponente nachholbedarf hat. ABER. Die Tests sind immer direkte Nebeneinander Vergleiche auf entweder hochauflösenden Standbilder oder hineingezoomten Slowmotion Bewegung.
So stellt man Unterschiede natürlich fest ABER kein normaler Spieler spielt so. Die Frage welche ich mir bei den Diskussionen immer Stelle ist. Wem fällt das bei der normalen Nutzung im Gaming denn tatsächlich auf. Und genau das ist für mich der Knackpunkt an den Diskussionen. Technisch kann man sie führen aber wie relevant ist das in der Praxis für den Otto Normal Spieler abseits eines Entusiasten.
 
Ganz einfach, ich habe es ausprobiert und ich spiele sehr viel mit AFMF. FG ist auch wieder sehr Benutzer abhängig, der eine ist empfindlicher als der andere. Das gleiche wie viele nicht mehr mit 60fps zocken können.
Schaltet sich das nicht noch immer ab, bzw. reduziert dippt massiv bei den Lows nach unten, wenn man sich flinker umschaut? Ich habe das privat noch nie getestet. Kenne nur die Testfazits und die sind nicht gut.
 
es kann mir doch niemand erzählen, dass in diesem video jemand einen unterschied sieht, wenn man nicht wirklich das video anhält und 2 bilder miteinander vergleicht.
ok, es kommt noch die YT komprimierung dazu, die auch sehr viel matsch erzeugt, aber im spiel nerkt das doch absolut niemand

ich habe schon über 200 stunden in starfield gesteckt und auch ein paar stunden mit FSR3 probiert
einstellungen: 100% skalierung, aber dynamische bildschirmauflösung + frame generation
ich sehe da absolut keinen unterschied zu native beim spielen. man muss eben wirklich stehenbleiben und genau alles ansehen, damit man hin und wieder ein flackern sieht.
das gröbste problem ist bei dieser waffe. aber das werden sie bestimmt auch noch fixen (vlt kann man den laser irgendwie getrennt vom restl. spiel rendern und dann bei FSR auslassen. irgendwas wird ihnen schon einfallen)

imputlag merkt man auch nur bei sehr niedrigen FPS. ich sag mal so unter 40

keine ahnung wo herr Papadopoulos ein problem sieht. "It really looks bad." ist einfach quatsch.
ich wette, wenn ich ihn, ohne dass er es weiß vor einen DLSS und einen FSR bildschirm setze, dann kann er den unterschied nur schwer erkennen.
 

Anhänge

  • 222222222222.jpg
    222222222222.jpg
    84,5 KB · Aufrufe: 54
  • 11111111111.jpg
    11111111111.jpg
    89,7 KB · Aufrufe: 89
Schaltet sich das nicht noch immer ab, bzw. reduziert dippt massiv bei den Lows nach unten, wenn man sich flinker umschaut? Ich habe das privat noch nie getestet. Kenne nur die Testfazits und die sind nicht gut.
es schaltet sich bei schnellen bewegungen ab aber nicht direkt ein cut also z.b. von 144fps auf 72fps. Das kommt ganz auf das spiel an, manchmal hast du auch nur 10% verlusst, auf eine schnelle bewegung Und es kommt auch extrem darauf wie du deine steuerung hast. Wie die empfindlichket deiner Maus eingestellt ist, oder ob du eher mit Gamepad spielst. Und nicht jedes spiel ist schneller Egoshooter.
 
So habe mal test gemacht für alle die Sagen FSR ist müll, hier 2 Bilder einmal mit Nativ Full HD und einmal mit 80% Auflösung wer erkennt welches fsr ist?
Ich glaube, 2.jpg ist die 80% Version. Die Details auf den Servern rechts im Bild sehen doch schon etwas verwaschen aus.
Allerdings ist es bei dem Grain Filter tatsächlich schwer, überhaupt etwas zu erkennen.
Die Verwendung von JPG verschleiert zusätzlich den originalen Inhalt. Nimm nächstes mal besser PNG.
Und dass es nicht die selbe Perspektive in beiden Bildern ist, hilft auch wenig.
Flimmernde weisse Pixel erkennt man auf Standbildern auch nicht so gut.
Test bestanden?
 
Die Frage welche ich mir bei den Diskussionen immer Stelle ist. Wem fällt das bei der normalen Nutzung im Gaming denn tatsächlich auf. Und genau das ist für mich der Knackpunkt an den Diskussionen. Technisch kann man sie führen aber wie relevant ist das in der Praxis für den Otto Normal Spieler abseits eines Entusiasten.
Da die Kritik aber gegen die Redaktion von DSOG ging, dessen Aufgabe aber genau das ist, ist mein Einwand berechtigt oder etwa nicht?
 
Ich glaube, 2.jpg ist die 80% Version. Die Details auf den Servern rechts im Bild sehen doch schon etwas verwaschen aus.
Allerdings ist es bei dem Grain Filter tatsächlich schwer, überhaupt etwas zu erkennen.
Die Verwendung von JPG verschleiert zusätzlich den originalen Inhalt. Nimm nächstes mal besser PNG.
Und dass es nicht die selbe Perspektive in beiden Bildern ist, hilft auch wenig.
Flimmernde weisse Pixel erkennt man auf Standbildern auch nicht so gut.
Test bestanden?
Jup hast
Aber flimmern tut da gar nix
U das sind Standbilder u full HD
Ich spiele normalerweise auf dem TV in 4k..
Beim Spielen sieht man definitiv eigentlich keinen Unterschied
 
So habe mal test gemacht für alle die Sagen FSR ist müll, hier 2 Bilder einmal mit Nativ Full HD und einmal mit 80% Auflösung wer erkennt welches fsr ist?

Natürlich sieht niemand einen Unterschied. Das deckt sich mit meinen Erfahrungen, schalte mit der 7900XT FSR Quality überall an wo es geht, einfach um Strom zu sparen. Kann beim besten willen keinen Unterschied zu Nativ erkennen, außer das die FPS teils massiv ansteigen.
 
Klar wenn komplette einfach Verschwinden,LEDs an Mülleimern kennt FSR nicht mehr. Feine Details wie Geländer sind deutlich näher am Flimmernd TAA.
Und deswegen sage ich FSR gegen DLSS Q ist Unsinn!
Es ist maximal wie Ausgleichen und hier eher Performance.

Aber bei PCGH ist ja gleiche Fleisch kommmt das gleiche raus. Also ob man jetzt in einen Straßen Imbiss geht oder in 5 Sterne Restatunat ist das gleiche Fleisch also die gleiche Arbeit.

Eben nicht nur weil es die gleiche Pixelmenge ist, kommt da noch lange nicht das gleiche raus. Umso mehr Feine Details ein Spiel hat, umso mehr verliert FSR.
Aber gut Fleisch ist Fleisch, würde PCGH sagen.

Manchen mag das nicht auffallen, aber wenn man schon Vergleiche macht.
Dann schaut man eben auf sowas wie Details wo wenig Infos da sind und dann ist FSR deutlich unterlegen. Weil keine AI dahinter steckt und mit Unreal 5 mit so vielen Details wird das imemr extremer werden AI.
Aber sind ja sogar Leute die keinen Unterschied zwischen Pathtraching Cyberpunk und ohne sehen. Das ist zwar ein Brett aber klein geredet wird es trotzdem.
 
FSR3 FG nutze ich bisher nur bei Avatar und bin davon begeistert. Habe hier tatsächlich schon öfter Standbilder begutachtet, aber große Unterschiede zu nativ sehe ich jetzt nicht...

Da die Qualität beim Standbild halt auch nicht das Szenario ist, wo die Unterschiede zwingend tragen. Die richtigen Unterschiede kommen erst bei bewegten Elementen. So sind bei Bäumen, irgendwas Waberndes oder in der Bewegung der Person die Unterschiede am ehesten zu erkennen.
 
Wer Nvidia sein Geld in den Rachen geworfen hat und eine RTX 4000er Karte hat
...ist natürlich doof und unterstützt einen gierigen Verein
Aber der Rest der Leute mit RTX 3000er oder Radeon nehmen dankend AMD FSR3 an und erfreuen an der höheren FPS.
....die haben ihre Kohle Nvidia/AMD natürlich nicht in den Rachen geworfen.

Manchmal ist es zum fremdschämen....
 
Zurück