AMD "FSR 2.0": Next Generation Upscaling auf der GDC 2022

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD "FSR 2.0": Next Generation Upscaling auf der GDC 2022

Upscaling ist eine gute Möglichkeit, um die Bildrate beim Spielen durch eine Berechnung in niedrigerer Auflösung und anschließende Skalierung zu erhöhen. Nvidias stellt mit DLSS dabei aktuell die beste Technik zur Verfügung, doch auch AMDs FSR wird kontinuierlich verbessert. Im Rahmen der GDC Ende März hält AMD dazu eine Präsentation ab.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD "FSR 2.0": Next Generation Upscaling auf der GDC 2022
 
"AMD hat außerdem noch Radeon Super Resolution (RSR) in der Pipeline. RSR ist ähnlich zu FSR, soll aber anstatt einer In-Game-Implementierung auf Treiberlevel funktionieren und damit für eigentlich alle Spiele zur Verfügung stehen"

Genau aus dem Grund wäre mir ein zeitnaher Release von RSR lieber/wichtiger !
Besser Open Source als proprietär. Auch wenn dann NV Fans die Argumentation weg fällt, weshalb der teure Preis ihrer Karten schon "in Ordnung" ist/sei.
FSR 2.0 können sie von mir aus erst Q4 `22 mit der neuen Gen bringen ...

p.s. diese Kollegen hier schreiben, soll am 24. März vorgestellt werden und dauert dann aber evtl. noch bis Q4.


"Abschließend wird erwähnt, dass AMD behauptet, dass die Bildqualität von FSR 2.0 besser ist als die native Auflösung, was eine sehr laute Behauptung ist, und wir können es kaum erwarten, die neue Technologie in Aktion zu sehen."

Au Mann, jetzt macht AMD schon einen auf Pat ... :-P

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Die neue Architektur hingegen soll dazu dezidierte GPU-Recheneinheiten für eine ausgeklügelte Upscaling-Technologie haben.
Heißt also, dass FSR2 nur mit RDNA3 funktioniert oder ist es wie bei Intels XeSS und wird auf dedizierter Hardware nur beschleunigt?

Genau aus dem Grund wäre mir ein zeitnaher Release von RSR lieber/wichtiger !
Besser Open Source als prioritär. Auch wenn dann NV Fans die Argumentation weg fällt, weshalb der teure Preis ihrer Karten schon "in Ordnung" ist/sei.
Wenn die Open Source Variante aber schlechter ist, was sie aktuell nun mal ist, fällt das Argument nicht weg.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Klingt gut. Man muss eh 2 Grafikkartengenerationen abwarten, bis es bei der Dritten dann gut funktioniert und breitflächig verfügbar ist. DLSS z.B. steckt ja noch immer in den Kinderschuhen.
Eine notwendige komplizierte Implementierung vom Programmierer ist zudem eigentlich imerm der falsche Ansatz, da das dann niemals ordentlich umgesetzt werden wird.
Es sollte auch von kleineren Indie-Studios umsetzbar sein, damit das langfristig erfolg haben kann und sich am Markt etabliert.
Mir persönlich bringt es nämlich nichts, wenn ich von 100 solcher Spielen dann vielleicht selber 5 oder 6 kaufen werde, oder damit spielen werde.
Das hat dann so einen Hauch einen Machbarkeitsstudie oder Techdemo.
Da muss halt mehr kommen, an breiter Front, damit sich auch Otto-Normalspieler für so etwas interessieren können und werden.
Dafür spricht auch nicht gerade, dass man quasi eine 1000 Euro Karte benötigt, weil die günstigeren für 500 eher nur so zum mal ausprobieren geeignet sind, weil die Leistung einfach fehlt.
Daher , wie gesagt, ab der dritten generation wirds wohl überhaupt erst so richtig interessant.
Softwareseitig und verfügbare Hardware.
Die Hardware muss aufrüsten, die Treiber sich weiterentwickeln, udn vor allem die lange Spielentwicklung, die verzögert auf den Markt kommt, nachdem die anderen beiden Pfeiler stehen.
2023 könnte also vielleicht schon ein gutes Jahr werden, um all Allgemeinspieler da mal reinzuschauen.
 
[...] Genau aus dem Grund wäre mir ein zeitnaher Release von RSR lieber/wichtiger ! Besser Open Source als prioritär. Auch wenn dann NV Fans die Argumentation weg fällt, weshalb der teure Preis ihrer Karten schon "in Ordnung" ist/sei. [...]
Das hier präsentierte hat nichts mit OpenSource vs. Proprietär zu tun. Zumal es aus Sicht von AMD auch keine echte Wahlmöglichkeit gab, denn mit einer proprietären, rein auf AMD-GPUs beschränkten Lösung wären sie mit Ansage vor die Wand gefahren, da sie dafür einen viel zu kleinen Marktanteil auf dem PC haben.
Das OpenSource ist in diesem Kontext zudem per se eher ein BuzzWord, weil sich so gut wie kein Entwickler die Arbeit machen wird hier Hand anzulegen, sondern die Implementation wird as-is verwendet, was einfach eine Frage der Effizienz ist. Und darüber hinaus legt auch nVidia keinem Entwickler Steine in den Weg, bzw. im Gegenteil, auch hier könnte ein Entwickler das zugrundeliegende NN gar noch spezifisch für seinen in der Entwicklung befindlichen Titel weitertrainieren aber auch das macht hier praktisch keiner aus dem gleichen Grund.

Ergänzend noch, dass der höhere Preis weniger was mit einem derartigen Einzelfeature zu tun hat, sondern schlicht dem Gesamtpaket und der Markt gesteht dem Marktführer nun einmal derartiges zu. Erst wenn die Konkurrenz hier nVidia signifikant unter Druck setzen kann, ändert sich auch etwas am Preis. *) AMD kann das offensichtlich nicht, anscheinend erst recht nicht aktuell, wo sie andere Produkte fertigungstechnisch für wichtiger erachten, also bleibt abzuwarten ob AMD und Intel in Kombination hier im 2.HJ nVidia mehr unter Druck setzen können werden.

*) Und ob das in nächster Zeit gelingen wird, ist noch vollkommen unklar. Beschränkt man sich nur auf AMD vs. nVidia könnten selbst die Top-RDNA3-MCM-Karten ggf. in diesem kleinen, oberen Segment punkten, während nVidia im Großteil des Marktes möglicherweise weiterhin vollends konkurrenzfähig sein könnte mit Lovelace ... man wird sehen was Ende Q3 bzw. in Q4 passieren wird.

Heißt also, dass FSR2 nur mit RDNA3 funktioniert oder ist es wie bei Intels XeSS und wird auf dedizierter Hardware nur beschleunigt?
Nimmt man CapFrameX' Twitter-Teaser mit hinzu, dann wird der FSR-Nachfolger weiterhin universell auf sämtlicher (halbwegs aktuellen) GPU-Hardware laufen.
Da RDNA hier aktuell aber bzgl. ML und MatrixOperationen im Hintertreffen ist, darf man annehmen, dass sich RDNA3 dieses Problems annehmen wird. Ob das komplett dedizierte Funktionseinheiten sein werden oder nur weitere architektonische Optimierungen, die den Durchsatz weiter erhöhen, muss man abwarten (kann dem einfachen Endanwender aber auch relativ egal sein).

Wenn die Open Source Variante aber schlechter ist, was sie aktuell nun mal ist, fällt das Argument nicht weg.
Das "schlechter" ist hier schwierig zu halten bzw. hängt von der konkreten Implementation ab. Grundsätzlich kann man bspw. DLSS und XeSS auf einer AMD-Karte implementieren und es führt zu exakt den gleichen qualitativen Ergebnissen. Aufgrund teilweise fehlender, direkter HW-Unterstützung würde es hier nur etwas langsamer berechnet werden, d. h. der relative Fps-Zugewinn würde etwas niedriger ausfallen.
"Schlechter" könnte es erst werden, wenn ein Entwickler den zwangsweisen PerformanceDrop verringern möchte zulasten der Qualität. Intel zeigte auf seiner Teaser-Slide zu XeSS aber schon, dass ein Wechsel auf eine DP4-fähige Hardware nur mit einem vergleichsweise kleinen PerfDrop einher geht.

*) Bei nVidia ist die Abschätzung etwas schwieriger, da sie Vergleichsmaterial aus naheliegenden Gründen nicht freigeben, obwohl die erste DLSS2-Beta-Version auf Turing noch rein über die Shader implementiert wurde.
Was man lediglich in die Waagschale werfen kann ist, dass die Tensor Cores extrem leistungsfähige und flexible MM-Einheiten sind und dass es sich um dedizierte, zusätzliche Funktionseinheiten auf dem Chip handelt, die gar in Teilen noch parallel zu den regulären Shadern arbeiten können. Darüber hinaus kann man jedoch ebenso abschätzen, dass das Inferencing nur einen Teil des gesamten DLSS-Workloads ausmacht, während für den Rest natürlich dennoch die Shader herangezogen werden.
Vermutlich wird nVidia so schnell keine vergleichende Implementation bereitstellen, sodass in einigen Monaten nur der Vergleich gegen Intels XeSS bleibt, das relativ ähnlich zu arbeiten scheint (genaueres wird man nach der GDC wissen, da Intel hierzu auch einige TechTalks abhält). Da Intel absehbar freizügiger mit den Informationen ist, darf man dann von hier ausgehend Rückschlüsse in Richtung DLSS stellen.
 
Zuletzt bearbeitet:
Wenn das Bildmaterial am 4K Monitor wie 720p aussieht, weiß man das FSR aktiviert ist:ugly:...

Die neue Architektur hingegen soll dazu dezidierte GPU-Recheneinheiten für eine ausgeklügelte Upscaling-Technologie haben.

Da soll noch einer sagen, Nvidias kleines Datenproblem wäre nicht für alle gut. Beim Namen sollte vielleicht nicht unbedingt Tensor cores im Raum stehen, das könnte für Irritationen sorgen... immerhin ist es dann nicht mehr proprietär und zwischen beiden Herstellern kompatibel.
 
Da soll noch einer sagen, Nvidias kleines Datenproblem wäre nicht für alle gut. Beim Namen sollte vielleicht nicht unbedingt Tensor cores im Raum stehen, das könnte für Irritationen sorgen... immerhin ist es dann nicht mehr proprietär und zwischen beiden Herstellern kompatibel.
Wenn der Hack schon vor einigen Jahren passiert wäre vllt. RDNA 3 profitiert nicht wirklich davon.
 
Nimmt man CapFrameX' Twitter-Teaser mit hinzu, dann wird der FSR-Nachfolger weiterhin universell auf sämtlicher (halbwegs aktuellen) GPU-Hardware laufen.
Da RDNA hier aktuell aber bzgl. ML und MatrixOperationen im Hintertreffen ist, darf man annehmen, dass sich RDNA3 dieses Problems annehmen wird. Ob das komplett dedizierte Funktionseinheiten sein werden oder nur weitere architektonische Optimierungen, die den Durchsatz weiter erhöhen, muss man abwarten (kann dem einfachen Endanwender aber auch relativ egal sein).
Dann muss man sich beim Wechsel von Nvidia auf AMD keine Gedanken wegen DLSS mehr machen. Das klingt sehr gut :)
 
Da soll noch einer sagen, Nvidias kleines Datenproblem wäre nicht für alle gut. Beim Namen sollte vielleicht nicht unbedingt Tensor cores im Raum stehen, das könnte für Irritationen sorgen... immerhin ist es dann nicht mehr proprietär und zwischen beiden Herstellern kompatibel.
Sollte ein Mitbewerber Informationen aus dem Hack verwenden, würde Nvidia das sehr schnell bemerken und rechtliche Schritte einleiten. Das würde kein Mitbewerber riskieren. Abgesehen davon sind die anderen auch nicht unfähig und die Implementierung muss zur eigenen Hardware passen. Intels XeSS soll spezielle Hardwareeinheiten auf den eigenen Karten ansprechen und XeSS wurde schon weit vor dem Hack angekündigt. AMD hat zur Zeit keine dedizierten Hardwarefunktionen für FSR/RSR in den RDNA2 Karten. Eine Portierung von DLSS macht daher auch keinen Sinn und FSR war vor dem Hack vorhanden und FSR2.0 braucht auch mehr Entwicklungszeit, als die paar Wochen seit dem Hack. RSR war zudem schon länger angekündigt.

Wenn überhaupt, wurde DLSS schon lange per reverse Engineering untersucht.

Cunhell
 
Wenn das Bildmaterial am 4K Monitor wie 720p aussieht, weiß man das FSR aktiviert ist:ugly:...



Da soll noch einer sagen, Nvidias kleines Datenproblem wäre nicht für alle gut. [...]
was ein quatsch. also beide "aussagen". zudem wurde wohl auch AMD gehackt, auch wenn da weit weniger daten gestohlen wurden. ^^
 
Zuletzt bearbeitet von einem Moderator:
Mit Sicherheit dafür schön in die geleakten Unterlagen von Nvidia`s DLSS geschaut ;)

Garantiert nicht:
1: ist es dafür viel zu Zeitnah.
2: kann ein Gericht dann alle Entwicklungen, die darauf basieren, zum geistigen Eigentum von Nvidia erklären. Dafür reicht es, wenn ein Mitarbeiter auspackt, weil er ein Stück vom Entschädigungskuchen haben möchte.

Wenn das Bildmaterial am 4K Monitor wie 720p aussieht, weiß man das FSR aktiviert ist:ugly:...

Absoluter Blödsinn

Man merkt, dass du entweder keine Ahnung hast oder nur herumtrollen willst.
 
Dann muss man sich beim Wechsel von Nvidia auf AMD keine Gedanken wegen DLSS mehr machen. Das klingt sehr gut :)
Nicht so ganz. nVidia wird DLSS natürlich weiterhin nicht freigeben und bzgl. "FSR 2.0" bleibt erst mal abzuwarten ob es mit einem aktuellen oder in naher Zukunft erscheinenenden DLSS (und ggf. auch XeSS) mithalten kann und ob der jeweilige Titel dieses denn auch überhaupt implementiert.
Mit XeSS und "FSR 2.0" stehen aber zumindest die Chancen gut, das man zukünftig vielleicht im überwiegenden Teil zu einem DLSS-Titel auch zumindest einen der beiden alternativen Techniken zur Verfügung haben wird.
 
bzgl. "FSR 2.0" bleibt erst mal abzuwarten ob es mit einem aktuellen oder in naher Zukunft erscheinenenden DLSS (und ggf. auch XeSS) mithalten kann
This.
FSR wird in dem Moment konkurrenzfähig wo es nicht mehr ein rein spatialer Upscaler ist sondern auch temporale Infos benutzt wie DLSS es tut. Vorher ist es böse gesagt nur optimiertes Supersampling.
 
Auch wenn es erstmal unwahrscheinlich klingt, wäre es nicht das erste Mal, dass grafische Effekte ganz ohne die Notwendigkeit besonderer Beschleunigungshardware ebenso performant funktionieren, wie die Konkurrenz sich das mit dem Closed Source Ansatz und (angeblich) notwendiger Sonderhardware vergolden lässt.

Sollte FSR 2.0 so funktionieren wie angekündigt und keine "Tensor-ähnlichen"-AI Kerne brauchen, dann wäre das wie PhysX 2.0 (und tlw. G-Sync genauso), das auf ATI Hardware und auf CPUs einfach per ID-Check so gekrüppelt wurde, dass es "nur auf Nvidia Hardware" funktionierte.
 
Zuletzt bearbeitet:
Zurück