News AMD FSR 2 vs. Nvidia DLSS 2: Upscaling mit KI sieht fast immer besser aus

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD FSR 2 vs. Nvidia DLSS 2: Upscaling mit KI sieht fast immer besser aus

Die äußerst populären Tech-YouTuber von Hardware Unboxed haben AMD Radeon mit FSR 2 und Nvidia Geforce mit DLSS 2 für einen rein optischen Vergleich gegeneinander antreten lassen und konnten dabei einen eindeutigen Sieger küren. Das KI-Upscaling sieht fast immer besser aus.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD FSR 2 vs. Nvidia DLSS 2: Upscaling mit KI sieht fast immer besser aus
 
Dlss 2 = Fsr 4?

Der Unterschied ist schon mehr als deutlich, bin aber dennoch froh, daß es Fsr gibt. Hoffe inständig das es besser wird falls vllt nächstes Jahr die Ada Karten von dlss 4 ausgeschlossen werden wie jetzt zB Ampere mit dlss 3. Nutze dlss echt gerne und auch FG gefällt mir sehr gut bis jetzt. Sehe da keinen Unterschied und spüren tue ich auch keinen Unterschied zwischen on vs off. Von dem her bin ich happy. Diese Tech wird dazu sorgen, daß wir unsere GPUs deutlich länger nutzen können bevor sie keine spielbaren fps mehr liefert.
 
Zuletzt bearbeitet:
Auch als Nvidia Anhänger muss ich bei der Bewertung von Red Dead Redemption 2 jedoch widersprechen: Da finde ich, zaubert FSR 2 ein deutlich ruhigeres Bild als DLSS. hier muss man sich bei DLSS nur mal die Bäume in Bewegung anschauen, also wenn man sich selbst vor und zurück bewegt. Da finde ich FSR2 wesentlich besser.
 
Als aktuell wieder AMD nutzender kann ich da tatsächlich ohne direkten Vergleich, bis auf die geringere Titelauswahl, keinen Unterschied feststellen. Ich nutzte DLSS Qualität wo möglich und nutze FSR Qualität wo möglich. Optisch für mich in 4K immer mit gutem Ergebnis.
 
Ich habe vor meinem Grafikkartenwechsel eine RTX 3070 gehabt und musste öfters DLSS nutzen, um hochauflösende Texturen wählen zu können, mit der RX 6800XT kann ich in solchen Fällen bei "nativ" bleiben und brauche damit weder DLSS noch FSR.
Ansonsten sollten doch selbst Nvidia Nutzer froh sein dass es FSR gibt, ist es doch nicht herstellerspezifisch und läuft selbst auf den 1000er Nvidia Karten...
 
Diese Tech wird dazu sorgen, daß wir unsere GPUs deutlich länger nutzen können bevor sie keine spielbaren fps mehr liefert.
selbst Nvidia Nutzer froh sein dass es FSR gibt, ist es doch nicht herstellerspezifisch und läuft selbst auf den 1000er Nvidia Karten...
Dem kann ich voll zustimmen, meine 1080ti macht dieses Jahr wohl ihre 6 Jahre voll dank FSR liefert die selbst in Cyberpunk 2077 noch ihre 60FPS mit allem auf Hoch unter WQHD.
Ich freu mich das es verfügbar ist und wenn es bald sogar ein brauchbares Frame Generation mitbringt umso besser.
 
Habe nie viel von solchen Techniken gehalten, Dying Light 2 war mit der 7900XT in 4k aber erst mit FSR 2 Quality für mich mit akzeptabler Framerate spielbar, ohne RT natürlich. Habe gegenüber zu nativen 4k am TV nicht wirklich einen Unterschied wahrnehmen können. Bin mal gespannt, ob FSR3 bei den neuen Karten auch die KI Einheiten nutzt.
 
"Auch wenn eine solch optische Bewertung rein subjektiv ist und man über die ein oder andere Bewertung diskutieren könnte"

Genau so isses und nix anderes !

 

Anhänge

  • FSR DLSS.jpg
    FSR DLSS.jpg
    487,2 KB · Aufrufe: 167
Kurz vorab: die Entwicklung von DLSS und Co ist eine super Sache. Die Möglichkeit mit einem simplen Schalter die Bildrate zu erhalten, die msn nur mit einer qnderen GPU nativ bekommen würde, ist einfach super. Es verlängert darüber hinaus die Lebensdauer einer GPU und erleichtert den Einstieg in Raytracing/Casting. Wir können also froh sein, dass es hier ein Entwicklungsrennen gibt zwischen 3 Herstellern.

das Ergebnis überrascht jetzt nicht sonderlich. Nvidia war früher qm Markt, hat also mehr Erfahrung und buttert auch mehr Geld in solche Entwicklungen. Auch weil man einen größeren Marktanteil hat (zumindest jetzt im Diskret-GPU Markt), und somit mehr Devs auf Nvidia hin optimieren.
Aber AMD bleibt dran, und das mit einem Herstellerunabhängigen Ansatz. Das ist toll für uns.

Selbst die 1060 meiner Frau müsste mit FSR funktionieren soweit ich weiß, nicht aber mit DLSS.
Schauen wir mal, was Intel so zaubern wird in Zukunft.
 
Nur nativ ist original.
Einfach Mal ein altes Spiel, z.B. Borderlands 2 ohne allzu viele temporale Effekte und Post Processing in 4k anschauen und an der Bildschärfe erfreuen, findet man so in modernen Spielen leider nicht mehr.
Und dann nochmal Upsampling drauf...
Dann schau Dir bitte mal die Vergleiche bzgl. Schärfe in dem Test an.

 

Anhänge

  • Vergleich Schärfe.jpg
    Vergleich Schärfe.jpg
    626,1 KB · Aufrufe: 184
  • FSR vs. DLSS.jpg
    FSR vs. DLSS.jpg
    621,8 KB · Aufrufe: 93
Zuletzt bearbeitet von einem Moderator:
Habe nie viel von solchen Techniken gehalten, Dying Light 2 war mit der 7900XT in 4k aber erst mit FSR 2 Quality für mich mit akzeptabler Framerate spielbar, ohne RT natürlich. Habe gegenüber zu nativen 4k am TV nicht wirklich einen Unterschied wahrnehmen können. Bin mal gespannt, ob FSR3 bei den neuen Karten auch die KI Einheiten nutzt.
für mich war immer schwierig die Grenze zu ziehen bei "solchen" Technologien. Eigentlich ist das ganze Rastern ein Haufen Tricks.
Ob das nun das Culling betrifft, oder auch, weil viele Spiele intern oft eine andere Renderauflösung haben, als letztlich bei der Bildausgabe, dafür wird dort dann fleißig nachgeschärft.
Der "ehrlichste" Ansatz ist eigentlich eh noch Raytracing ohne allen Tricks, aber das werden wir wohl nie erleben, somit gibt's die nächsten 15 Jahre noch weiterhin Hybrides Rendern, bis (fat reines) Pathtracing und Denoising die Norm wird

Am Ende entscheidet Optik und Spielbarkeit, auch bei DLSS und co. Besser aussehen und mehr FPS allein hilft nicht, wenn es sich "Laggy" anfühlt
 
Für mich sind maximal ein Drittel aller getesteten Titel interessant und auch nur im quality setting. Die meisten davon würde ich aber ohne jegliches upsampling spielen. Dennoch finde ich den Test interessant, wenngleich wenig überraschend. Was mich stört ist die geringe Aussagefähigkeit zu Stärken und Schwächen der Techniken. Für mich persönlich erreicht im Stand (Charakter steht still in einer lebendigen Szene), oder aber in der Geradeausbewegung DLSS das bessere Bild. Bei Drehungen, sowie bei der Kombination RT und upsampling ist für meinen Geschmack aber FSR im Vorteil. Das ist vermutlich auch was Alex2150 meint.
Ich hätte mich gefreut wenn die "Tester" Einzelbewertungen für diese Punkte abgegeben hätten. So ist das eher Typisch für HWU. Eine coole Idee nicht wirklich cool umgesetzt.
Auch hätte man die Streamer aufteilen sollen in welche die eh eine Nvidia einsetzen, tagtäglich und die welche das nicht tun. Denn wie der Mensch halt so gestrickt ist von der Natur, wird er immer vorrangig das gewohnte bevorzugen. Selbst wenn also zwei Bilde ähnliche Stärken und Schwächen aufweisen und die Bildqualität im Gesamten gleichwertig ist, würde er unterbewusst das Bild positiv bewerten, dass er "kennt". Da DLSS und FSR aber nun mal unterschiedlich arbeiten, hätte ein FSR Bild mit der gleichen Qualität aber anderer Arbeitsweise bei so einem Test keine Chance positiv hervorzugehen, wenn der testende die andere Art der Bilderstellung gewöhnt ist.

Dazu kommt wieder der Punkt mit dem Monitor. Wer beispielsweise auf einem 144 Hz Monitor spielt, wird das ganz anders empfinden als jemand der auf einem 60 Hz mOnitor spielt. Bei mir selbst merke ich das direkt. Auf dem 4K/60 wirkt upsampling anders als auf 4K/144, wobei letzteres unruhiger scheint. Das ist auch klar, wenn das Bild weniger Zeit hat und der Monitor schnell aktualisiert, sieht man auch Problemchen viel eher.
Leider gehen die Tester (auch PCGH) darauf für meinen Geschmack zu wenig ein.

Für viele gehört ein schnelles Bild inzwischen zur Bildqualität. Heißt: Wenn sie flüssiger unterwegs sind, trotz kleinerer Abstriche, empfinden sie das Bild als besser. Was es aber gar nicht ist. Das sind für mich zwei Paar Schuhe.

Deshalb gilt für mich weiterhin: Das muss jeder für sich ausmachen.
 
Dann schau Dir bitte mal die Vergleiche bzgl. Schärfe in dem Test an.

[Bild auf dem die "native Auflösung" weniger zeigt als die Upsamples]
Wow. Werden also schon Details vom Upscaling/Upsampling erfunden, die vorher noch gar nicht da waren ?
Das nenne ich echte KI. Davon abgesehen ist das Humbug, native Auflösung kann nur mehr und nicht weniger zeigen, es sei denn jemand hat noch zusätzlich irgendwelche Filter angemacht.
 
Nur nativ ist original.
Einfach Mal ein altes Spiel, z.B. Borderlands 2 ohne allzu viele temporale Effekte und Post Processing in 4k anschauen und an der Bildschärfe erfreuen, findet man so in modernen Spielen leider nicht mehr.
Und dann nochmal Upsampling drauf...
du sagst es selbst, das ist eher bei alten Spielen "original", seit PS3 Zeiten arbeiten Spiele oft intern mit niedrigeren Auflösungen. Original ist kaum noch was, ich finde viel zu viele Spiele heute verwaschen und unscharf. Interessanterweise ist der Effekt dank DLSS und Co in diesen Spielen aber geringer
 
Zuletzt bearbeitet:
Das ist genau der Punkt warum ich diesen Techniken so skeptisch gegenüberstehe. Weil die Entwickler sich genau darauf stützen und entsprechend daraufhin entwickeln. Ein Unding.
Wow. Werden also schon Details vom Upscaling/Upsampling erfunden, die vorher noch gar nicht da waren ?
Das nenne ich echte KI. Davon abgesehen ist das Humbug, native Auflösung kann nur mehr und nicht weniger zeigen, es sei denn jemand hat noch zusätzlich irgendwelche Filter angemacht.
Hast du DLSS1 damals in Wolfenstein gesehen? Da waren auf einmal Graffitis an Wänden wo nativ gar keine waren, oder in der Preview die Fahnen die dazu gedichtet wurden... Dagegen ist das hier was ganz anderes.
 
Ich verstehe nicht wieso Spieler*innen sich immer wieder zu der emotionalen Behauptung hinreißen lassen, dass DLSS fast immer besser als nativ und dabei AMDs FSR "haushoch" überlegen sei.

Zu Testzwecken habe ich die RTX 4090 natürlich genau unter die Lupe genommen, um mir ein objektives Urteil erlauben zu können.
Dabei bin ich unter anderem zu dem Ergebnis gekommen, dass nicht nur DLSS in 93 % der getesteten Spiele deutlich schlechter als nativ aussah, sondern dass FSR im direkten Vergleich in 82 % der Fälle das bessere Ergebnis lieferte.

Hier haben wir noch einiges an Aufklärungsarbeit vor uns.
 
Ich verstehe nicht wieso Spieler*innen sich immer wieder zu der emotionalen Behauptung hinreißen lassen, dass DLSS fast immer besser als nativ und dabei AMDs FSR "haushoch" überlegen sei.
Hab ich was verpasst oder wie kommst du zu der Behauptung, Spieler würden sagen, dass DLSS fast immer besser aussieht, als nativ? Der ein oder andere wird das vlt. behaupten, aber der allgemeine Tenor ist, dass DLSS hinsichtlich Bildqualität (logischerweise) meist schlechter ist. Ich kenne nur ein Spiel, in dem die Bildqualität durch DLSS sogar besser wurde, und das ist Death Stranding (PC). Hier hat man aber wohl einfach n guten Schärfefilter integriert.

Die Frage ist halt nur, wie viel schlechter es aussieht. Bisher hab ich nur sehr wenige Spiele gesehen, bei denen die Bildqualität mit DLSS signifikant schlechter wurde. Meist ist der Qualitätsverlust hinnehmbar und das Bild bleibt ruhig.

Zu Testzwecken habe ich die RTX 4090 natürlich genau unter die Lupe genommen, um mir ein objektives Urteil erlauben zu können.
Dabei bin ich unter anderem zu dem Ergebnis gekommen, dass nicht nur DLSS in 93 % der getesteten Spiele deutlich schlechter als nativ aussah, sondern dass FSR im direkten Vergleich in 82 % der Fälle das bessere Ergebnis lieferte.

Hier haben wir noch einiges an Aufklärungsarbeit vor uns.
Ich habe das auch immer dort getestet, wo ich kann. Und in den meisten Fällen war DLSS aus meiner Sicht die bessere Wahl.

Wow. Werden also schon Details vom Upscaling/Upsampling erfunden, die vorher noch gar nicht da waren ?
Das nenne ich echte KI. Davon abgesehen ist das Humbug, native Auflösung kann nur mehr und nicht weniger zeigen, es sei denn jemand hat noch zusätzlich irgendwelche Filter angemacht.
Jemand, der mehr Ahnung davon hat, mag mich an der Stelle berichtigen (gern auch mit Quelle). Aber Spiele bieten doch eigentlich immer irgendwelche Filter, in welcher Form auch immer. Dadurch können unter Umständen, trotz nativer Auflösung, auch mal Details verloren gehen (auch durch AA-Methoden, wie TAA) die durch DLSS wieder hervor gehoben und damit wieder sichtbar werden.
 
Dadurch können unter Umständen, trotz nativer Auflösung, auch mal Details verloren gehen (auch durch AA-Methoden, wie TAA) die durch DLSS wieder hervor gehoben und damit wieder sichtbar werden.
Wenn ich mich nicht irre kommt gerne sowas durch "verpfuschte implementierung" vor was dann wohl ehr als Fehler an TAA angesehen werden sollte :S

Aber davon ab, denke ich auch das es müßig ist zu sagen Nativ ist immer besser, oder DLSS / FSR ist immer besser. Denn was ist Nativ?
Ist Nativ ohne Kantenglättung, oder mit TAA, oder mit MSAA, oder mit SMAA ?

Sofern man sich da auf keinen Standard einigt, was aber nicht wirklich geht da jedes spiel ja sein eigenes Süppchen kocht, ist es schwer Objektiv zu vergleichen.

Aber das wichtigste war ist und bleibt,
ES IST IMMER SUBJEKTIV
was einem besser gefällt.

Ein gutes beispiel dafür wäre das der eine ein scharfes bild, der nächste ein weicheres bild als optimal ansieht.
 
Zurück