AMD "FSR 2.0": Next Generation Upscaling auf der GDC 2022

(...) RSR klingt ähnlich wie DSR und wird wohl ein Nachfolger für VSR.
Nein.
VSR und DSR sind schlicht dasselbe, Downsampling. Das Bild wird intern also mit mehr Pixeln als nativ berechnet. Einen Nachfolger braucht es hier weder bei AMD noch bei NV, beide Technologien sind nämlich kaum welche, eher ist es ein QoL Feature, dass man es im Treiber einfach einstellen kann. Downsampling funktioniert nämlich prinzipiell unabhängig von irgendeinem Algorithmus. Man muss die Grafikkarte nur dazu bringen intern eine höhere Auflösung zu berechnen, das war früher eher komplizierter, inzwischen gibt es eben die DSR/VSR genannten Schalter mit vorgegebenen Multiplikatoren.

RSR basiert dagegen auf einem Algorithmus, ziemlich sicher dem selbem oder einem FSR sehr ähnlichem. Der Hauptunterschied ist die Reihenfolge in der dieser Algorithmus angewandt wird. Bei FSR wurde er direkt im Spiel an die (im Bestfall) bestmögliche Stelle in der Berechnung eingefügt.
Bei RSR einfach zum Schluss drübergehauen. Dafür muss es nicht ans Spiel angepasst werden.
Damit ist FSR das Gegenstück zu DLSS (obwohl technisch sehr unterschiedlich, aber in der Anwendung), RSR das Gegenstück zu NIS (die beiden unterscheidet auch technologisch kaum etwas) und VSR zu DSR (auch technologisch mehr oder minder dasselbe).
Alle Ausführungen zu RSR stehen dabei unter dem Vorbehalt, dass es noch nicht offiziell Release ist, können aber als sehr sicher gelten.

Aber mach dir keinen Kopf, bei all dem Abkürzungen und den Gerüchten die so kursieren, ist es wirklich nicht leicht alles zusammenzubehalten.

PS: Ich rate nicht, alle Infos die ich weitergebe hab ich aus mehreren Quellen, wäre ich nicht sehr sicher, würde ich nichts sagen :). Ich finde es selbst schrecklich, wenn Menschen ihre Vermutungen als Fakten rausposaunen, weil sie nicht unterscheiden können was sie wissen und was sie glauben
 
This.
FSR wird in dem Moment konkurrenzfähig wo es nicht mehr ein rein spatialer Upscaler ist sondern auch temporale Infos benutzt wie DLSS es tut. Vorher ist es böse gesagt nur optimiertes Supersampling.
Der kommenden FSR-Version wird nun auch durchaus eine temporale Komponente nachgesagt. Das ändert aber vorerst nichts daran, dass AMD hier erst mal in der Bringschuld ist.
Jedenfalls verlangt die hiesige Klientel typischerweise immer handfeste Belege von bspw. nVidia und Intel und geht vorläufig immer erst mal nur von heißer Luft und hohlen Lippenbekenntnissen aus. ;-)
Einfach mal abwarten, theoretisch kann es ja nur besser als FSR werden und am Ende darf man gespannt sein wie es im Vergleich zu DLSS und XeSS abschneiden wird ...
 
Zuletzt bearbeitet:
Finde die ganzen upscaling sachen echt toll. Besser als dieser Kantenglättungs kack. Bei 4k ist das ganz nützlich und den qualliätsverlust sieht man mit ü 30 nicht mehr ^_^
 
Nein.
VSR und DSR sind schlicht dasselbe, Downsampling. Das Bild wird intern also mit mehr Pixeln als nativ berechnet. Einen Nachfolger braucht es hier weder bei AMD noch bei NV, beide Technologien sind nämlich kaum welche, eher ist es ein QoL Feature, dass man es im Treiber einfach einstellen kann. Downsampling funktioniert nämlich prinzipiell unabhängig von irgendeinem Algorithmus. Man muss die Grafikkarte nur dazu bringen intern eine höhere Auflösung zu berechnen, das war früher eher komplizierter, inzwischen gibt es eben die DSR/VSR genannten Schalter mit vorgegebenen Multiplikatoren.
Ich glaube du hast DLDSR verpasst.
Benutze ich gerade mit Begeisterung in NieR Automata statt der werksseitig verbauten Weichzeichner.
 
Ja und? DLDSR war hier nie Thema, da gab's weder Verwirrung noch Verwechslung. Wozu hätte ich es also in meinen Text aufnehmen sollen, der ja gerade entwirren und nicht mit noch mehr (bisher an der Diskussion völlig unbeteiligten) Abkürzungen verwirren sollte?
 
Wird schwer ohne Tensor Cores
Nicht unbedingt... entgegen den Marketingfolien hat DLSS in den ersten Versionen die Tensor-Einheiten gar nicht benutzt und alles auf den Shadern berechnet (sogar Raytracing funktioniert auf Karten ganz ohne RTX-Einheiten - das ist aber dann tatsächlich um Faktor 4-6 langsamer).
Mittlerweile werden die Tensorcores natürlich benutzt und das aktuelle DLSS ist was performance und Qualität angeht Welten besser als die ersten Versionen, ich wollte damit nur sagen: DLSS geht rein technisch auch ohne Tensor.
 
Das hier präsentierte hat nichts mit OpenSource vs. Proprietär zu tun. Zumal es aus Sicht von AMD auch keine echte Wahlmöglichkeit gab, denn mit einer proprietären, rein auf AMD-GPUs beschränkten Lösung wären sie mit Ansage vor die Wand gefahren, da sie dafür einen viel zu kleinen Marktanteil auf dem PC haben.
Das OpenSource ist in diesem Kontext zudem per se eher ein BuzzWord, weil sich so gut wie kein Entwickler die Arbeit machen wird hier Hand anzulegen, sondern die Implementation wird as-is verwendet, was einfach eine Frage der Effizienz ist. Und darüber hinaus legt auch nVidia keinem Entwickler Steine in den Weg, bzw. im Gegenteil, auch hier könnte ein Entwickler das zugrundeliegende NN gar noch spezifisch für seinen in der Entwicklung befindlichen Titel weitertrainieren aber auch das macht hier praktisch keiner aus dem gleichen Grund.
Das stimmt so nun leider nicht.
Denn AMD hat keinen Zugriff auf das Nvidia Developer Programm und kann deshalb auch keine Optimierungen für die (für AMD) Black Box Features machen, da die Spielestudios das Wissen auch nicht mit AMD teilen dürfen.
Selbst für einige der Nvidia Open Source Pakete muss man im Developer Programm sein...

Deshalb hat OpenSource schon einiges zu sagen - wenn man den Geist des Begriffs nicht so vergewaltigt, wie Nvidia es macht.
 
Nicht unbedingt... entgegen den Marketingfolien hat DLSS in den ersten Versionen die Tensor-Einheiten gar nicht benutzt und alles auf den Shadern berechnet (sogar Raytracing funktioniert auf Karten ganz ohne RTX-Einheiten - das ist aber dann tatsächlich um Faktor 4-6 langsamer).
Mittlerweile werden die Tensorcores natürlich benutzt und das aktuelle DLSS ist was performance und Qualität angeht Welten besser als die ersten Versionen, ich wollte damit nur sagen: DLSS geht rein technisch auch ohne Tensor.
Was mal war ist dann aktuell uninteressant, aber netter side-effect.
 
Finde die ganzen upscaling sachen echt toll. Besser als dieser Kantenglättungs kack. Bei 4k ist das ganz nützlich
Du kannst es mittels DLDSR auch als Anti-Alising-Methode bzw. zur Qualitätssteigerung verwenden. :)

Wurde auch Zeit, dass da was kam. Supersamling AA endlich performant gemacht, dass ich das nach all den Jahren noch erleben darf... ich hoffe, sie verbessern es fleissig weiter.
 
Ja und? DLDSR war hier nie Thema, da gab's weder Verwirrung noch Verwechslung. Wozu hätte ich es also in meinen Text aufnehmen sollen, der ja gerade entwirren und nicht mit noch mehr (bisher an der Diskussion völlig unbeteiligten) Abkürzungen verwirren sollte?
Du behauptest RSR könnte kein "VSR Nachfolger" sein weil die Downsampling Technologien sich nicht weiter entwickeln lassen.
Ich behaupte das Gegenteil, nämlich dass es mit DLDSR durchaus eine Weiterentwicklung gibt und es daher nicht unwahrscheinlich ist dass RSR in die selbe Kerbe schlägt.
 
Du behauptest RSR könnte kein "VSR Nachfolger" sein weil die Downsampling Technologien sich nicht weiter entwickeln lassen.
Ich behaupte das Gegenteil, nämlich dass es mit DLDSR durchaus eine Weiterentwicklung gibt und es daher nicht unwahrscheinlich ist dass RSR in die selbe Kerbe schlägt.
RSR ist sehr wahrscheinlich das Äquuvalent zu NIS. Das behaupte nicht einfach ich, sondern die gesamte Fachpresse. Alle Ankündigungen weisen in dieselbe Richtung.
DLDSR ist meines, zugegebenermassen eher begrenztem, Wissen nach auch kein DSR Nachfolger, DSR ist im Treiber doch noch vorhanden, DLDSR funktioniert nicht auf allen Grafikkarten (?). Das ist kein Ersatz, also Nachfolger.

Ausserdem, nocj einmal, wollte ich schlicht sein Missverständnis aufklären. Mein Anspruch war keine erschöpfende Aufstellung aller Up- und Downsamplingverfahren inklusive Zukunftsaussichten.
 
DLDSR funktioniert nicht auf allen Grafikkarten (?)
"Ist halt DLSS rückwärts" und damit nur auf Karten mit Tensorkernen verfügbar. (Was wiederum heißt es läuft mit allen Grafikkarten die NV heute verkauft.)
Schade ist nach wie vor dass NV bei seinen DL Techniken nicht den selben Weg gegangen ist wie bei RT und sie zumindest prinzipiell auch auf den Altkarten freischaltet. So kann man zumindest weiterhin mutmaßen ob die auch ohne Tensorkerne eine Leistungs/Qualitätsverbesserung gegenüber den klassischen Umsetzungen bringen würden.
RSR ist sehr wahrscheinlich das Äquivalent zu NIS. Das behaupte nicht einfach ich, sondern die gesamte Fachpresse.
Der Aussage möchte ich auch gar nicht widersprechen, das ist genau so gut (oder sogar wahrscheinlicher) möglich. Einen Einwand hatte ich vorallem zu der Aussage beim Downsampling würde sich nichts mehr tun, eben weil sich da gerade bemerkenswertes getan hat.
 
In einer der letzten PCGH war ein ausführlicher Bericht inkl. Screenshots zu DLSS...einerseits ist es lobenswert, wenn man mehr fps in Spielen bekommt, andererseits war anhand der Screenshot klar zu erkennen, die höhere Geschwindigkeit geht zu Lasten der Bildqualität.

Mehr fps würde man auch bekommen, wenn man die Details oder AA runterstellt... Daher bin ich zwiegespalten und würde im Einzelfall notfalls sogar auf DLSS bzw. FSR verzichten.
 
was ein quatsch. also beide "aussagen". zudem wurde wohl auch AMD gehackt, auch wenn da weit weniger daten gestohlen wurden. ^^
Da hast du Recht, nur leider kommen solche Aussagen immer von Leuten mit extrem guter Hardware.

Zum Thema FSR kann ich mich nur wiederholen und danke AMD sagen, ich kenne so viele Leute im Freundes - oder Bekanntenkreis die so glücklich mit diesem Feature sind weil Sie noch mit alten Karten unterwegs sind, entweder weil Sie keine neue bekommen haben oder Sie sich die Karten nicht leisten können.

Als Beispiel kann ich meinen besten Freund mit einer GTX 1060 6GB oder meinen Neffen mit seiner RX 580 8GB nennen. Die sind so froh das Sie dank FSR mit ihrem älteren Karten aktuelle Spiel in ordentlicher Optik und anständigen FPS spielen können das mittlerweile FSR sogar ein Kaufargument für Spiele geworden ist.

Auch bei uns im Clan sind noch extrem viele RX 470, GTX 1050ti usw. unterwegs und die nutzen mittlerweile alle FSR und begrüßen dieses Feature natürlich ausnahmslos.

Also danke AMD und eine Weiterentwicklung dieses Features ist natürlich gerne gesehen und sehr Willkommen.
 
Das stimmt so nun leider nicht.
Denn AMD hat keinen Zugriff auf das Nvidia Developer Programm und kann deshalb auch keine Optimierungen für die (für AMD) Black Box Features machen, da die Spielestudios das Wissen auch nicht mit AMD teilen dürfen.
Selbst für einige der Nvidia Open Source Pakete muss man im Developer Programm sein...

Deshalb hat OpenSource schon einiges zu sagen - wenn man den Geist des Begriffs nicht so vergewaltigt, wie Nvidia es macht.
Sorry, aber das passt nicht. Hier geht es um die AMD-Technologien und entsprechend hat AMD hier bzgl. nVidia-spezifischen Technologien auch nichts zu suchen. Abgesehen davon, wenn es bspw. um etwas wie DLSS geht, implementieren das die Entwickler eines konkreten Titels und nicht etwa AMD und denen steht es frei sich jedwede Unterstützung von nVidia zu holen, weil nVidia einem diese Einbindung ihrer Technologie aus ebenso naheliegenden Gründen nicht vorenthält. Und selbstredend geht es AMD nichts an wie konkret DLSS arbeitet **), weil es schlicht nVidia-IP ist. AMD kann sämtliche nVidia-spezifische IP vollkommen egal sein. Wenn die der Meinung sind, dass die was Vergleichbares aus kompetetiven Gründen benötigen, müssen die es halt selbst entwickeln.

Noch einmal: Entwickler können selbst ihre DLSS-Implementation (insbesondere das NN) an ihre eigenen Bedürfnisse anpassen, nur wird das kein Entwickler machen, weil der Kosten/Nutzen-Zugewinn zu gering ist, denn Käufer des fertigen Titels werden schlicht nicht bereit sein einem den Mehraufwand in barer Münze zu honorieren und bei FSR & Co ist es nicht anders. Da kann sich zwar ein Entwickeler, wenn er die Muße hat, zwar die Implementation im Detail ansehen, jedoch wird es dennoch i. d. R. schlicht bei einer Übernahme der Referenzimplementation bleiben (für die AMD sicherlich eine RDNA-optimierte Variante bereitstellt), weil auch hier ein Feintuning nur wenig bringt außer einem signifikanten Mehraufwand.
Und btw., wenn die bei AMD teiberimplementierte Variante kommt, hat sich das Thema eh grundsätzlich erledigt. Und hinzu kommt, dass FSR ja nicht die einzige, alternative Technologie ist. Es gibt viele derartige Technologien (FSR ist übrigend in weiten Teilen nur "abgekupftert", weil größtenteils Bestandstechnologie; was den Mehrwert für den Anwender jedoch keinesfalls schmälert ***) und bspw. die Unreal 5-Engine hat ihre eigenes temporales Upscaling implementiert, d. h. bspw. in vielen Fällen wird FSR nicht einmal auf den (AMD-)Konsolen zum Einsatz kommen, sondern bspw. Epic's eigene Lösung. Entsprechend haben einzelne Entwickler hier auch wenig Anreiz das Rad neu zu erfinden, sondern werden hier nach dem Gut-Genug-Ansatz verfahren.

Wie schon mal erklärt: Dass AMD das als OpenSource freigegeben hat ist nett, mehr aber auch nicht, denn hier lag es schlicht an der Marktkonstellation, die AMD zu einem solchen Vorgehen zwang. Und das (Nicht-)OpenSource ändert ja auch nichts an den Adaptionsmöglichkeiten. Jeder Entwickler kann es nutzen, genau so wie jeder Entwickler bspw. die nVidia-Technologien nutzen kann.

Ergänzend vielleicht noch die Anmerkung, dass OpenSource nicht der Heilige Gral ist, sondern auch durchaus mit handfesten Nachteilen einhergeht. Je nach konkreter Konstellation lassen sich auch sehr gute Gründe für Closed Source finden.
Darüber hinaus als Schlussbemerkung, dass AMD und grundsätzlich keiner vom Fach den nVidia-Leak (aus der Erpressung!) benötigt, um die grundlegende Arbeitsweise von DLSS zu verstehen. Ein Blick in die konkrete Implementation ist ggf. interessant, aber wie man ja an Intel sieht, haben die etwas sehr ähnliches alleine auf die Beine gestellt, auch wenig verwunderlich bei Intel als einem der großen AI-Player. Und nVidia hält schon seit Jahren In-Depth-TechTalks zu DLSS ;-)

Am Ende ist nur wichtig, dass es alternative Technologien und Implementationen gibt und die sind mit DLSS, XeSS und vielleicht bald auch einem FSR 2.0 da. Wenn der (markt)wirtschaftliche Druck sich vielleicht mal irgendwann bzgl. eines solchen Features nivelliert hat, werden sich mögilcherweise alle Hersteller auf eine Technologie einigen können. ****) Da diese Entwicklungen alle jedoch derzeit aus kompetetivem Druck heraus entstanden sind, werden die Hersteller natürlich auch entsprechend agieren. nVidia als Marktführer kann das noch am ehesten monetarisieren, für die anderen beiden geht es eher um ein Mit-dabei-sein um Akzeptanzschwierigkeiten der eigenen Produkte vorzugreifen und genau aus diesem Grund geben die "Nachzügler" auch "freiwillig" ihre Technologien als Open Source frei.

*) "Selbst für einige der Nvidia Open Source Pakete muss man im Developer Programm sein." - Und warum auch nicht. nVidia möchte halt wissen wer (ggf. auch wie/wofür) ihre Software nutzt. Das Schema sollte jedem SocialMedia-Nutzer bekannt vorkommen. ;-)

**) Und da DLSS 2 schon einige Zeit im Markt ist, darf man, Verträge hin und NDAs her, davon ausgehen, dass per se AMD (und auch bspw. Intel) schon alles über DLSS weiß, was man anhand der freigegebenen Informationen im Developer Programm wissen kann. Das einzige was bleibt, ist die Detailimplementation und wie nVidia konkret das zugrundeliegende NN weitertrainiert und zu verbessern sucht.
Und ob sich hier, wie zuvor einer vorgeschlagen hat, einer der Konkurrenten wirklich mit Reverseengeneering an nVidias SW-Stack probiert hat um einen tieferen Blick auf die Implementation zu erhaschen ... ich glaube eher nicht. Wenn man sich hier mit derartigem Aufwand verdingt, dann eher um die Hardware weiter zu analysieren.

***) nVidia hatte diese Technologien schon lange vor FSR in seinem Portfolio, hat diese jedoch aus wirtschaftlichen Erwägungen zurückgehalten zugunsten von DLSS. Mit dem gestiegenen Marktdruck waren sie nun doch gezwungen zu reagieren (denen wird klar gewesen sein, dass die das irgendwann müssen, die Frage war nur wann) und dementsprechend haben die ihr einfaches Image Scaling nun ebenso in den Treiber gepackt, d. h. die Brot&Butter-Lösung frei verfügbar und die Premium-Lösung als RTX-spezifisches Feature. Das mag so manchem vielleicht nicht passen, ändert aber nichts an der Legitimität des Vorgehens, denn sowohl nVidia als auch AMD sind nur aus einem einzigen Grund in diesem Marktsegment unterwegs. ;-)

****) Hier wird es interessant zu beobachten sein, ob nVidia ihr DLSS noch weiter perfektionieren kann, sodass sie sich noch eine Zeit lang einen kompetetiven (und monetarisierbaren) Vorteil erhalten können. Sollte ihnen dies gelingen (oder wenn nicht technisch, dann zumindest deren Marketing und der Wahrnehmung im Markt ;-)), dann wird deren DLSS noch eine längere Zeit im Markt bestehen bleiben.
FSR 2.0 ist aktuell noch schwer einzuschätzen, da es hier zwar hochgestochene Erwartungen jedoch noch keine Fakten gibt und bei XeSS wird es interessant zu beobachten sein, ob das mit DLSS2 konkurrieren kann und ob es vielleicht dessen Kinderkrankheiten schon hinter sich gelassen hat. Insofern hätte möglicherweise alleine schon XeSS das Potential die Exklusivität von DLSS zu untergraben.
(Wobei "Exklusivität" auch richtig verstanden werden muss in einem von nVidia dominierten Markt, denn selbst die Verbreitung von RTX-Hardware auf dem Desktop ist bereits relativ hoch und wird sich mit der nicht mehr allzu fernen NextGen-Hardware nur noch weiter erhöhen.)
 
Zurück