• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Fidelity FX Super Resolution: Der DLSS-Konkurrent im Video

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu AMD Fidelity FX Super Resolution: Der DLSS-Konkurrent im Video gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Fidelity FX Super Resolution: Der DLSS-Konkurrent im Video
 

PCTom

BIOS-Overclocker(in)
Kann man nur hoffen das so Titel wie CP etc das schnell Softwaremäßig implementieren.
Da auch die Konsolen davon profitieren, wird sich die Technik schnell durchsetzen. Eine offene Technik die auf jeder Hardware funktioniert dürfte die Spieleentwickler interessieren, man steht nicht vor der Entscheidung entweder oder.
Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
 

raPid-81

Freizeitschrauber(in)
Da auch die Konsolen davon profitieren, wird sich die Technik schnell durchsetzen. Eine offene Technik die auf jeder Hardware funktioniert dürfte die Spieleentwickler interessieren, man steht nicht vor der Entscheidung entweder oder.
Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
DLSS wird wohl eher nicht in den nächsten Jahren verschwinden, es kommen ja jetzt gerade erst die Engines mit nativem Support:

1. Unreal, hat bereits RT + DLSS
2. Unity, bekommt bald RT + DLSS
3. Amazon Lumberyard
4. CryEngine

Dann gibt es da noch die, nennen wir sie "Studio Engines":

ID Tech - Doom Eternal etc, bekommt aktuell RT + DLSS
Disrupt Engine - Watch Dogs Legion, hat bereits RT + DLSS
RED Engine - CP2077, hat bereits RT + DLSS
IW Engine - CoD, hat bereits RT+DLSS
Snowdrop Engine - The Division, Die Siedler, RT + DLSS Support unklar
Frostbite - Battlefield, hat bereits RT+DLSS


Warten wir mal ab wie gut FSR am Ende im Vergleich aussieht. Wenn es deutlich schlechter als DLSS ist, warum sollte es ein Entwickler nehmen wenn in der Engine beides verfügbar ist?
 

Sirthegoat

Volt-Modder(in)
Das steht und fällt mit der höchsten auswählbaren Qualität, kann diese mit DLSS 2.0 mithalten wüsste ich nicht warum man sich weiter die Mühe machen sollte DLSS zu Supporten, selbst ältere Nvidia Karten wie Pascal unterstützen wohl Fidelity FX. Mal sehen was am Ende bei rauskommt, Nvidia hat am Ende auch einen zweiten Anlaufen gebraucht um DLSS interssant zu gestalten aber das war eben vor knapp einem halben Jahr. Generell finde ich es aber wieder höchst löblich das AMD einen offenen Standard wählt.
 

PCTom

BIOS-Overclocker(in)
DLSS wird wohl eher nicht in den nächsten Jahren verschwinden, es kommen ja jetzt gerade erst die Engines mit nativem Support:

1. Unreal, hat bereits RT + DLSS
2. Unity, bekommt bald RT + DLSS
3. Amazon Lumberyard
4. CryEngine

Dann gibt es da noch die, nennen wir sie "Studio Engines":

ID Tech - Doom Eternal etc, bekommt aktuell RT + DLSS
Disrupt Engine - Watch Dogs Legion, hat bereits RT + DLSS
RED Engine - CP2077, hat bereits RT + DLSS
IW Engine - CoD, hat bereits RT+DLSS
Snowdrop Engine - The Division, Die Siedler, RT + DLSS Support unklar
Frostbite - Battlefield, hat bereits RT+DLSS


Warten wir mal ab wie gut FSR am Ende im Vergleich aussieht. Wenn es deutlich schlechter als DLSS ist, warum sollte es ein Entwickler nehmen wenn in der Engine beides verfügbar ist?
DLSS ist keine schlechte Technik aber warum sollten Entwickler Zeit und Geld investieren und am Ende nur die halbe Käuferschaft ansprechen, wenn sie mit einer offenen Technik alle inklusive Konsolen erreichen?

AMD hat die Technik nicht umsonst Harwareunabhängig gemacht. Die wussten schon das NV sauber in die Studios investiert hat um DLSS durchzusetzen, ist aber dank einer offenen Technik dank AMD obsolet geworden. War sicher ein Seitenhieb von AMD. NV hat den Braten schon gerochen und ihre Technik mit noch mehr Druck verbreitet, wird nichts helfen.
Am Ende wollen die Studios auch Gewinne einfahren, alle Gamer abholen und nicht nur die Grünen.

Es sei denn es ist nicht aufwendig für die Studios beide Techniken zu implementieren oder NV übernimmt den Hauptteil der Arbeit, dann sehe ich noch eine Chance für DLSS.
 
Zuletzt bearbeitet:

blautemple

Lötkolbengott/-göttin
Da auch die Konsolen davon profitieren, wird sich die Technik schnell durchsetzen. Eine offene Technik die auf jeder Hardware funktioniert dürfte die Spieleentwickler interessieren, man steht nicht vor der Entscheidung entweder oder.
Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
Wichtig ist erstmal das FSR ähnlich gut wie DLSS funktioniert. Es bringt mir nichts wenn FSR mit allem kompatibel ist aber kacke aussieht.
 

deady1000

Volt-Modder(in)
Bezüglich der AMD-Präsentation:
Finde die Bildvergleiche relativ durchsichtig.

AMD FSR Off --> hellere, detailreichere Bildbereiche
AMD FSR ON --> dunkle, schlecht ausgeleuchtete Bildbereiche

Man dreht den Winkel immer so, dass die Unschärfe der Presets nicht auffällt.
Es ist aber im Zoom schon jetzt erkennbar.

Denke, wenn unabhängige Reviewer später die gleichen Maßstäbe wie bei DLSS ansetzen, wird man zu einem vernichtenden Urteil bezüglich der Qualität kommen.

Volle Auflösung:


vlcsnap-2021-06-02-09h35m56s484.jpg vlcsnap-2021-06-02-09h36m07s954.jpg

vlcsnap-2021-06-02-09h36m18s094.jpg

Man muss nicht mal großartig suchen und es ist schon trotz Youtube-Bildkompression sichtbar.
Da können die ihre Ansichten drehen und wenden wie sie wollen.
Und das da ist das "Ultra-Quality-Preset":

1.png


2.png



---


Nvidias KI-Upscaling DLSS ist spätestens seit Version 2.0 so erfolgreich, dass AMD dringend eine Alternative benötigt.
AMD hat ein Problem: Immer mehr Titel setzen auf das aufwendige Lichtrenderverfahren Raytracing und Nvidias KI-Upscaling DLSS. Die Technologie bringt teils massive Leistungsgewinne und erzeugt gerade in hohen Qualitätseinstellungen ein hochgerechnetes Bild, das der originalen Auflösung nahekommt und in den Augen manch eines Betrachters sogar übertrifft – dank zusätzlicher KI-generierter Details.
Ja, auch schon gemerkt? :fresse:
Auf einmal merken alle, dass intelligentes Upscaling die Zukunft ist.

Titel wie Cyberpunkt 2077, die visuell stark von Raytracing profitieren, lassen sich nur mit DLSS in spielbaren Bildwiederholraten erleben.
Ob Cyberpunk 2077 ein gutes oder schlechtes Spiel ist, entscheiden die AMD-Fanboys abhängig davon, wie gut AMD FSR dort funktioniert. :D Aktuell ist das Game natürlich schlecht und Raytracing ist kompletter Müll. Mal gucken, wie der Wind dreht, wenn AMD FSR genutzt werden kann und es hoffentlich "gut" ist.

Laut AMD soll sich die Bildwiederholrate im Performance-Modus durchschnittlich verdoppeln im Vergleich zum nativen 4K-Rendering.
Im Qualitätspreset sind es ca 60%, so wie bei DLSS2.0 auch.
Die Leistungsverbesserung ist augenscheinlich gut.
Mal schauen wie die Qualität dann aber auch in der Realität ist, denn:

Wie genau FSR funktioniert, ist weiter unklar. Allerdings verriet AMD gegenüber Anandtech, dass FSR eine räumliche Upscaling-Technologie sein wird und daher nur jedes Bild separat hochrechnet, ohne Bewegungsdaten (Bewegungsvektoren) aus dem Spiel zu berücksichtigen.
Einen ähnlichen Ansatz verfolgte Nvidia mit DLSS Version 1.0, deren Ergebnisse qualitativ weit hinter denen von DLSS 2.0 liegen, das zusätzlich Bewegungsvektoren mit in die Upscaling-Berechnungen integriert.
Das Upscaling soll ab dem 22. Juni als GPUOpen-Technologie verfügbar sein und zu Beginn in “zehn Titeln und Engines” zum Einsatz kommen. Welche das sind, verrät AMD nicht.
Also überall und nirgendwo.
Das ist ja schlimmer als bei DLSS. :lol:

DLSS kam im Februar 2019. AMD FSR kommt jetzt zweieinhalb Jahre später im Juni 2021 und kämpft wohlmöglich mit den gleichen Kinderkrankheiten, die DLSS damals hatte.

Wenige Games und suboptimale Umsetung bis zum Refresh der Technologie mit der nächsten Generation.
Außerdem wohl kein vernünftiger KI-Ansatz.
16K-Rohmaterial kam auch erst mit DLSS2.0.

Das wird ne richtig bittere Nummer für einige Gehypte - im Vergleich natürlich.
Grundsätzlich ist die Technologie natürlich super für alle Beteiligten.

Bin sehr gespannt auf die Direktvergleiche hinsichtlich Qualität und Performance!

Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
Schwachsinn. DLSS ist gerade mal in den wichtigsten Engines implementiert worden. Das lässt sich mittlerweile mit wenigen Klicks per Plugin hinzuschalten. Das bleibt jetzt garantiert erst mal ne ganze Weile.

Ganz davon haben BigNavi-Grafikkarten im Vergleich zu Turing/Ampere-Grafikkarten kaum einen relevanten Marktanteil, wenn man sich die Hardware-Surveys anschaut. DLSS-Nutzer gibt es mittlerweile extrem viele.

DLSS ist keine schlechte Technik aber warum sollten Entwickler Zeit und Geld investieren und am Ende nur die halbe Käuferschaft ansprechen, wenn sie mit einer offenen Technik alle inklusive Konsolen erreichen?
Weil es kein großer Akt ist DLSS zu aktivieren.
Das hat jetzt quasi Nativ-Support in der UnrealEngine und in Unity, weitere folgen.
Man kann das eine machen ohne das andere zu lassen.
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Am Anfang war ich ein wenig skeptisch, aber die Werte sehen doch schon ganz gut aus. Bleibt abzuwarten, ob es ähnlich gut aussieht, wie DLSS.

Interessant, dass nur die 500er erwähnt wurde, das könnte blöd für die Besitzer einer 400er Karte sein, wobei die Funktion alle gebrauchen können, selbst meine GTX 670 könnte ordentlich davon profitieren. Wenn es dafür käme, dann könnte die R9 390X die erste Karte sein, mit der man auch nach 10 Jahren ordentlich zocken kann und das sogar in 4K.

DLSS wird wohl eher nicht in den nächsten Jahren verschwinden, es kommen ja jetzt gerade erst die Engines mit nativem Support:

Ich fürchte, da könntest du recht haben, da steht uns wohl ein Formatkrieg ins Haus. Am Ende könnte sich AMDs Ansatz durchsetzen, bei Free Sync haben sie es auch geschafft.

Warten wir mal ab wie gut FSR am Ende im Vergleich aussieht. Wenn es deutlich schlechter als DLSS ist, warum sollte es ein Entwickler nehmen wenn in der Engine beides verfügbar ist?

Weil es dann auf 80-100% der Karten, die in Umlauf sind läuft und nicht nur auf den gut 20% RTX Karten. Das ist ein starkes Argument. Nvidia nutzt DLSS um neue Karten zu verkaufen, AMD will Nvidia hingegen rausdrängen.
 

deady1000

Volt-Modder(in)
Weil es dann auf 80-100% der Karten, die in Umlauf sind läuft und nicht nur auf den gut 20% RTX Karten. Das ist ein starkes Argument. Nvidia nutzt DLSS um neue Karten zu verkaufen, AMD will Nvidia hingegen rausdrängen.
Ja es läuft auf allen Karten, aber was nützt es, wenn die Qualität nicht mal im Ansatz an das AI-Upscaling von DLSS2.0 herankommt? DLSS1.0 wurde damals noch zurecht ordentlich kritisiert und wenn man sich die Bildvergleiche bei der AMD-Präsentation, wo man obendrein noch von Cherrypicking ausgehen kann, anschaut, dann würde ich mir nicht zu viel versprechen.

Fehlt der AI-Ansatz, dann kann man sich die Nummer schenken, sofern es auch ohne spielbar ist.
Der Grundsatz war, eine Leistungssteigerung bei gleichbleibender Qualität zu erreichen.

Das hier ist was anderes:


Das ist Matsch mit Schadensbegrenzungsfilter und wohlgemerkt auf "Ultra-Quality". :ugly:
 
Zuletzt bearbeitet:

4thVariety

Software-Overclocker(in)
Nicht alles was jedes Spiel macht, macht Sinn. Es gibt auch solche Beispiele:

Beispiel 1 - Vorher:
Objekt in 4k Szene -> weniger fps dank ordentlich Motion Blur -> effektive Auflösung des Objekts nach dem Verschmieren 1440p

Beispiel 2 - Nachher:
Objekt in 4k Szene -> mehr FPS weil Szene in 1440p gerechnet wird -> weniger fps dank Motion Blur -> effektive Auflösung des Objekts nach dem Verschmieren 1080p -> DLSS rechnet Szene von 1440p auf 4k hoch -> das von Motion Blur betroffene Objekt wird ebenfalls nachgeschärft -> Objekt sieht jetzt besser aus als vorher (weil rekonstruiert von native 1440p ohne (!) Motion Blur und nicht rekonstruiert aus dem 1080p Motion Blur Endergebnis -> Objekt landet auf der Nvidia Homepage als Beispiel wie toll DLSS ist.

Währenddessen:
User beschweren sind über zu viel Motion Blur in dem Spiel.

Ich finde ja auch DLSS und FSR gehört die nahe Zukunft, aber manchmal.....
 

Gurdi

Kokü-Junkie (m/w)
Hier wird schon wieder fabuliert, sowas wie nativ in die Engine integriert gibt es nicht, eine Engine kann höchstens in dem Bausatz aus dem diese besteht mit einem Modul ausgestattet werden um die Funktion leichter zu integrieren. Mit Plug & Play hat das alles nichts zu tun,zudem müssen die Libarys auf jedes Spiel angepasst werden.

Hauseigene Engines sind auch meist kein beliebiger Baukasten wie die Lizensengines von Unity und Epic sondern meist auf ein recht konkretes Einsatzgebiet abgestimmt wo man dann den Grundstock an die neuen Gegebenheiten anpassen kann und selbst die Lizensierbaren Engines müssen auf jedes Projekt entsprechend abgestimmt werden damit da was brauchbares bei raus kommt.

Die krude Annahme, dass nur weil ein Titel ein Feature unterstützt das nun facerollmäßig überall integriert werden kann ist schlicht nativ naiv.

Richtig ist, das je mehr vergleichbare Projekte auf Basis der Engine es gibt, um so besser wird der Rohdatenstamm mit der Zeit und eine implementierung mit der Zeit immer simpler. Hinzu kommt das vor allem Engines von den Techniken profitieren die grundsätzlich schon eine sehr hohe temporale Komponente haben die unschärfe kaschieren soll, nimmt man diese raus erhältman meist den gegenteiligen Effekt und Objekte werden sehr unruhig. Da sind anpassungen auch von Hand immer nötig, allein schon um grobe Artefakte zu vermeiden.
 

KuroSamurai117

BIOS-Overclocker(in)
DLSS ist keine schlechte Technik aber warum sollten Entwickler Zeit und Geld investieren und am Ende nur die halbe Käuferschaft ansprechen, wenn sie mit einer offenen Technik alle inklusive Konsolen erreichen?
Nicht alle Konsolen haben AMD Chips drin. Zumindest in Nintendo Switch werkelt Nvidia Chip. Angeblich soll ja jetzt wirklich Switch Pro mit DLSS Support kommen.
Also hat man zumindest eine Konsomenplattform die man neben PC mit DLSS supporten könnte.

Glaube auch eher dass es erst mal kooexistieren wird. Nvidia wird auch in weiteren Ausbau investieren um sich vielleich wieder Stück abzuheben.
Hängt galt davon ab wie viel Skalierungspotenzial beide Verfahren haben.

Denn schon zur PS4/One hat man bessere AMD Ports bescheinigt aber letzten Endes liefen Konsoleports von Gears Ultimate und Co oft auf Team Grün erst mal potenter.

Die Marktanteile am PC scheinen Entwickler hier und da trotz der Hardwarebasis der Playstation/Xbox nicht davon abzuhalten erst für Nvidia zu optimieren.
 

PCTom

BIOS-Overclocker(in)
Nun mal nicht so schnell mit der Totsagung von AMDs Technik . Die Technik war weder von NV neu noch von AMD. Schon vorher war in Spieleengines ähnliche Techniken implementiert die gut funktionierten. Was jetzt beide HW Hersteller dazu gebracht haben ist eine Globale KI-Datenbank. Auch wenn NV natürlich weil sie die Technik länger am Markt haben einen Zeitvorteil haben, wird AMD diesen durch die breite Masse die sie ansprechen diesen Zeitvorteil schnell aufholen können. Eine Technik die Harwareunabhängig ist und nicht nur auf den letzten 2 Generationen eines Herstellers läuft + die letzten beiden Konsolengerationen mitnimmt, die muss sich durchsetzen.
Welcher Entwickler will schon ausschließlich NV 2000er und 3000er Besitzer ansprechen wenn die Konkurrenz alle erreicht? Genau Keiner!

Wenn AMDs Technik nicht ein totaler Fehltritt wird, was ich nicht glaube da die Techniken an sich schon älter sind, wird es sich durchsetzen.
 

Gurdi

Kokü-Junkie (m/w)
Denn schon zur PS4/One hat man bessere AMD Ports bescheinigt aber letzten Endes liefen Konsoleports von Gears Ultimate und Co oft auf Team Grün erst mal potenter.

Die Marktanteile am PC scheinen Entwickler hier und da trotz der Hardwarebasis der Playstation/Xbox nicht davon abzuhalten erst für Nvidia zu optimieren.
Das hat eher was mit dem Scheduler des Treibers zu tun als mit einer Optimierung auf irgendeinen Hersteller.
Die Portierungen erfolgen mit so wenig aufwand wie nur möglich, das war eben DX11 mit entsprechendem Overhead.Die Sachlage hat sich da aber grundlegend geändert durch die API´s.
 

raPid-81

Freizeitschrauber(in)
Hier wird schon wieder fabuliert, sowas wie nativ in die Engine integriert gibt es nicht, eine Engine kann höchstens in dem Bausatz aus dem diese besteht mit einem Modul ausgestattet werden um die Funktion leichter zu integrieren. Mit Plug & Play hat das alles nichts zu tun,zudem müssen die Libarys auf jedes Spiel angepasst werden.

Hauseigene Engines sind auch meist kein beliebiger Baukasten wie die Lizensengines von Unity und Epic sondern meist auf ein recht konkretes Einsatzgebiet abgestimmt wo man dann den Grundstock an die neuen Gegebenheiten anpassen kann und selbst die Lizensierbaren Engines müssen auf jedes Projekt entsprechend abgestimmt werden damit da was brauchbares bei raus kommt.

Die krude Annahme, dass nur weil ein Titel ein Feature unterstützt das nun facerollmäßig überall integriert werden kann ist schlicht nativ naiv.

Richtig ist, das je mehr vergleichbare Projekte auf Basis der Engine es gibt, um so besser wird der Rohdatenstamm mit der Zeit und eine implementierung mit der Zeit immer simpler. Hinzu kommt das vor allem Engines von den Techniken profitieren die grundsätzlich schon eine sehr hohe temporale Komponente haben die unschärfe kaschieren soll, nimmt man diese raus erhältman meist den gegenteiligen Effekt und Objekte werden sehr unruhig. Da sind anpassungen auch von Hand immer nötig, allein schon um grobe Artefakte zu vermeiden.
Also ein Plugin aktivieren ist nicht Plug-and-Play? Das definieren wir wohl anders. Klar muss man da noch manuell nachsteuern, aber das wird bei FSR ja nicht anders sondern sogar schlimmer sein. Da gibt's nämlich offenbar kein Training seitens AMD, das müssen die Entwickler selber machen. Und die haben keine Neural-Network-Serverfarmen wie NV wo sie mit 16K Bildmaterial mal eben so den Algorithmus trainieren können.
 

Gurdi

Kokü-Junkie (m/w)
Also ein Plugin aktivieren ist nicht Plug-and-Play? Das definieren wir wohl anders. Klar muss man da noch manuell nachsteuern, aber das wird bei FSR ja nicht anders sondern sogar schlimmer sein. Da gibt's nämlich offenbar kein Training seitens AMD, das müssen die Entwickler selber machen. Und die haben keine Neural-Network-Serverfarmen wie NV wo sie mit 16K Bildmaterial mal eben so den Algorithmus trainieren können.
Mit aktivieren hat das nichts zu tun, das muss INTEGRIERT werden. Ein entscheidender Unterschied.
Die Art des Trainings ist für die Entwickler sogar besser würde ich sagen,man benötigt keine zuarbeit und verwendet seine eigenen Daten im laufenden Prozess zum trainieren. Das wird man einfach over night aktivieren und rechnen lassen und generiert sich so seinen eigenen Datenstamm der einem selbst gehört und der sich selbst editieren lässt.Ich sehe da kein Problem darin, die "Cloud" dürfte sogarlangfristig deutlich mehr Daten generieren und vor allem deutlich breiter angelegte.
 

deady1000

Volt-Modder(in)
Wie gesagt, ich bin höchst gespannt auf faire Direktvergleiche zwischen FSR und DLSS, aber mehr aufgrund des Unterhaltungswertes. Das Ergebnis kann man sich nämlich jetzt schon denken bzw sehen. AMD betreibt hier die übelste Schadensbegrenzung. Das Feature sollte eigentlich schon unmittelbar mit der RX6900XT launchen und jetzt ist ein halbes Jahr vergangen und in wenigen Wochen ist dann "Abgabe". :ugly: Da wird das Ding dann auf den Tisch geklatscht und der Hypetrain passt nicht durch den Tunnel. :fresse:


Man kann das dolle Feature dann mit ganzen 10 Games testen.
Hat da irgendwer ein Déjà-vu? Ich schon.

Jetzt wo ein Upscaling-Feature auch bei AMD-Karten verfügbar wird, verschieben sich die Maßstäbe, denn man wird sich einem Direktvergleich stellen müssen und jetzt guckt man sicherlich nicht mehr so genau hin bei "Unschärfen". Und den KI-Ansatz braucht man ja auch nicht. Und am besten schnell weg mit DLSS. :lol:

Und man hört es ja auch schon in dieser Diskussion heraus:

DLSS wird in die Unreal Engine eingepflegt und ist als PlugIn herunterladbar und aktivierbar. Bei Unity das gleiche.
--> "Dauert JAHRE bis das implementiert wird."

AMD FSR wird für die gleichen Engines als PlugIn herunterladbar und aktivierbar.
-->"Das wird jetzt ganz ganz schnell überall Einzug finden."

Ihr müsst euch mal selbst zuhören. :lol::lol::lol:
 

PCTom

BIOS-Overclocker(in)
Wie gesagt, ich bin höchst gespannt auf faire Direktvergleiche zwischen FSR und DLSS, aber mehr aufgrund des Unterhaltungswertes. Das Ergebnis kann man sich nämlich jetzt schon denken bzw sehen. AMD betreibt hier die übelste Schadensbegrenzung. Das Feature sollte eigentlich schon unmittelbar mit der RX6900XT launchen und jetzt ist ein halbes Jahr vergangen und in wenigen Wochen ist dann "Abgabe". :ugly: Man kann das dolle Feature dann mit ganzen 10 Games testen. Hat da irgendwer ein Déjà-vu? Ich schon.

Jetzt wo ein Upscaling-Feature auch bei AMD-Karten verfügbar wird, verschieben sich die Maßstäbe, denn man wird sich einem Direktvergleich stellen müssen und jetzt guckt man sicherlich nicht mehr so genau hin bei "Unschärfen". Und den KI-Ansatz braucht man ja auch nicht. Und am besten schnell weg mit DLSS. :lol:
Weiß garnicht warum du so scharf schiessen mußt, wird doch auch auf deiner 3090 laufen ;).
 

deady1000

Volt-Modder(in)
Weiß garnicht warum du so scharf schiessen mußt, wird doch auch auf deiner 3090 laufen ;).
Ich sage dir warum.

Weil es die gleiche Diskussion seit zweieinhalb Jahren für DLSS gibt und da seit jeher scharf geschossen wird. Die nächsten Wochen werden eine Genugtuung für alle sein, die endlich die Chance bekommen, den Gegnern, vorwiegend aus dem anderen Lager, mal den Spiegel vorzuhalten.

Popcorn steht bereit.

Und als ob ich das aktivieren würde.
Hast du die Screenshots oben gesehen?
Das ist ja schlimmer als DLSS1.0.

Man kann nur hoffen, dass die Hersteller zweigleisig fahren und DLSS2.X ebenfalls weiterhin einbauen.
 

dampflokfreund

Freizeitschrauber(in)
DLSS wird nicht verschwinden. Es ist bereits tief in fast alle modernen Engines integriert, für die Entwickler ist es kaum Aufwand DLSS in neue Spiele zu aktivieren.

Es wird zukünftig beides geben, ist doch ganz klar. FSR wird dann einfach das derzeit übliche Upscaling ersetzen.
 

Hills1975

Komplett-PC-Aufrüster(in)
Ja es läuft auf allen Karten, aber was nützt es, wenn die Qualität nicht mal im Ansatz an das AI-Upscaling von DLSS2.0 herankommt? DLSS1.0 wurde damals noch zurecht ordentlich kritisiert und wenn man sich die Bildvergleiche bei der AMD-Präsentation, wo man obendrein noch von Cherrypicking ausgehen kann, anschaut, dann würde ich mir nicht zu viel versprechen.

Fehlt der AI-Ansatz, dann kann man sich die Nummer schenken, sofern es auch ohne spielbar ist.
Der Grundsatz war, eine Leistungssteigerung bei gleichbleibender Qualität zu erreichen.

Das hier ist was anderes:


Das ist Matsch mit Schadensbegrenzungsfilter und wohlgemerkt auf "Ultra-Quality". :ugly:
Hm... AMD Version läuft auch auf alten Karten, hm...
Ok nehmen wir an, ein Game auf einer alten Karte läuft, obwohl nicht Max Details, gerade so im 30 FPS Bereich, mit der AMD Technik könnte es fast flüssig (45 FPS) laufen, da bin ich doch als Alte Karte Besitzer (Radeon 580] Dankbar. Vor allem wo es kaum neue Karten gibt.
 

gaussmath

Lötkolbengott/-göttin
Hier wird schon wieder fabuliert, sowas wie nativ in die Engine integriert gibt es nicht, eine Engine kann höchstens in dem Bausatz aus dem diese besteht mit einem Modul ausgestattet werden um die Funktion leichter zu integrieren. Mit Plug & Play hat das alles nichts zu tun,zudem müssen die Libarys auf jedes Spiel angepasst werden.
Wut? Es ist in die Engine integriert mit dem Plugin und muss bloß aktiviert werden.
 

deady1000

Volt-Modder(in)
Da stößt du bei ihm auf taube Ohren.
Von Fakten lässt man sich in dieser Hinsicht nicht mehr ablenken.

Es stimmt.
Man kann das DLSS-Plugin bei Nvidia herunterladen, in den UE4-Editor einfügen und dann läuft das.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

Painkiller

Moderator
Teammitglied
Da auch die Konsolen davon profitieren, wird sich die Technik schnell durchsetzen. Eine offene Technik die auf jeder Hardware funktioniert dürfte die Spieleentwickler interessieren, man steht nicht vor der Entscheidung entweder oder.
Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
Komisch, das gleiche hat man über PhysX und G-Sync auch gesagt. ;) Ich verstehe den ganzen Streit um DLSS und AMD FXSR nicht. Die beiden können doch gerne weiterhin koexistieren. Durch die Konsolen kann AMD das Feature sehr schnell unter die Leute bringen und dementsprechend auch schnell Erfahrungen und Feedback sammeln. Aber im Kern muss es sich dennoch mit DLSS messen. Dadurch das AMDs FXSR auch auf älternen Karten läuft, erhalten viele so ihren zweiten Frühling. Das ist gerade im Moment unter Berücksichtigung der GPU-Preise wirklich eine gute Nachricht. :daumen:
 

raPid-81

Freizeitschrauber(in)
Und man hört es ja auch schon in dieser Diskussion heraus:

DLSS wird in die Unreal Engine eingepflegt und ist als PlugIn herunterladbar und aktivierbar. Bei Unity das gleiche.
--> "Dauert JAHRE bis das implementiert wird."

AMD FSR wird für die gleichen Engines als PlugIn herunterladbar und aktivierbar.
-->"Das wird jetzt ganz ganz schnell überall Einzug finden."

Ihr müsst euch mal selbst zuhören. :lol::lol::lol:
Word. Danke für den Schmunzler, hast Du gut zusammengefasst!

Vor allem soll es besser sein wenn die Entwickler das selbst trainieren!? Sorry, aber das ist so ein Unfug. NV hat im Neural-Network-Training aktuell so weit die Nase vorn, da kann doch kein Game-Studio mithalten.

Und das "die Cloud wird's richten" Argument verstehe ich nicht, sollen die Gamer selbst FSR trainieren? Klar, ich lass gern meinen PC nächtelang laufen damit das AMD Produkt besser wird. Nicht... Und selbst dann ist eine hochspezialisierte NN Serverfarm x-Mal schneller und effizienter darin.
 

BigYundol

Software-Overclocker(in)
Ein Plugin zu aktivieren, das zuerst noch intensives KI-Training und sonstiges Rumgebastel braucht, damit es auch ordentlich funktioniert, ist nicht plug&play.

Die Integration einer Lösung in Engines die nur eine kleine Hardwarebasis eines einzigen Herstellers damit ansprechen kann, ist dazu bei weitem nicht so attraktiv wie eine in Engines integrierte Lösung, die weitgehend hardware- und herstellerunabhängig funktioniert. Ersteres muss künstlich beatmet werden, um zu überleben, oder man überpinselt wie bei Gsync irgendwann den offenen, sich durchgesetzten Standard mit seinen Farben und tut so, als habe man den Technologiekampf nicht verloren.

Davon ab taugen diese Upscaler, egal ob mit fancy-bling-bling-KI oder ohne, so oder so nur als Lebensverlängerungsmassnahmen, um die nächste Aufrüstrunde ein wenig erträglicher weiter nach hinten zu schieben. Das ist in Zeiten von völlig gestörten Strassen- und teils auch UVP-Preisen für Grafikkarten aber auch genug Grund, um dieses Feature dankend anzunehmen.
 

PCTom

BIOS-Overclocker(in)
Komisch, das gleiche hat man über PhysX und G-Sync auch gesagt. ;) Ich verstehe den ganzen Streit um DLSS und AMD FXSR nicht. Die beiden können doch gerne weiterhin koexistieren. Durch die Konsolen kann AMD das Feature sehr schnell unter die Leute bringen und dementsprechend auch schnell Erfahrungen und Feedback sammeln. Aber im Kern muss es sich dennoch mit DLSS messen. Dadurch das AMDs FXSR auch auf älternen Karten läuft, erhalten viele so ihren zweiten Frühling. Das ist gerade im Moment unter Berücksichtigung der GPU-Preise wirklich eine gute Nachricht. :daumen:
Sicher uns kanns egal sein ob beide Techniken in einem Spiel implementiert sind oder nicht. Über 80% der Gamer, Konsole, ältere HW auch NV HW und AMD HW Nutzer dürften über den reinen Einsatz von DLSS wohl weniger begeistert sein, da kommt eine offene Technik gerade recht. Das dürften auch die Entwickler wissen. Jetzt kommt es halt noch auf den Arbeitsaufwand für die Gameschmieden an, beide Techniken zu unterstützen. Ist der Aufwand gering werden wir wohl bald ausladende Grafikkoptionsmenüs in Spielen sehen. Es könnte aber auch sein das weder DLSS noch Fidelity FX in den Menüs erscheint sondern nur 4 Qualitätsstufen, je nachdem was für Hardware verbaut ist wird die eine oder andere Technik benutzt.

PhysX und G-Sync sind schon noch am Markt, werden aber eher weniger als mehr eingesetzt.
 
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
Ein Plugin zu aktivieren, das zuerst noch intensives KI-Training und sonstiges Rumgebastel braucht, damit es auch ordentlich funktioniert, ist nicht plug&play.
Für die Game-Devs bei DLSS schon. Plugin runterladen, aktivieren, läuft. Ist ja bereits trainiert seitens NV und Epic im Unreal-Engine Fall.

Die Integration einer Lösung in Engines die nur eine kleine Hardwarebasis eines einzigen Herstellers damit ansprechen kann, ist dazu bei weitem nicht so attraktiv wie eine in Engines integrierte Lösung, die weitgehend hardware- und herstellerunabhängig funktioniert. Ersteres muss künstlich beatmet werden, um zu überleben, oder man überpinselt wie bei Gsync irgendwann den offenen, sich durchgesetzten Standard mit seinen Farben und tut so, als habe man den Technologiekampf nicht verloren.
Kleine Hardware Basis? Weltfremder geht nicht. Steam Hardware Umfrage und Geforce vs RDNA Umsätze beweisen das Gegenteil.

Davon ab taugen diese Upscaler, egal ob mit fancy-bling-bling-KI oder ohne, so oder so nur als Lebensverlängerungsmassnahmen, um die nächste Aufrüstrunde ein wenig erträglicher weiter nach hinten zu schieben. Das ist in Zeiten von völlig gestörten Strassen- und teils auch UVP-Preisen für Grafikkarten aber auch genug Grund, um dieses Feature dankend anzunehmen.
Das stimmt soweit, aber ich nehme dann doch lieber den Upscaler mit der besseren Qualität. Das war bisher ja immer das Argument gegen DLSS -> kostet Qualität. Wenn FSR jetzt noch mehr Qualität kostet, dann ist das Feature doch nicht besser!?
 

deady1000

Volt-Modder(in)
Ein Plugin zu aktivieren, das zuerst noch intensives KI-Training und sonstiges Rumgebastel braucht, damit es auch ordentlich funktioniert, ist nicht plug&play.
Wovon sprichst du jetzt?
Das DLSS-Plugin benötigt im Vorfeld kein intensives Training.
Das ist Plug&Play.

Das Training macht Nvidia ständig im neuralen Netzwerk und verteilt die DLSS-Optimierungen per Treiber.

Als Entwickler aktiviert man das Plugin und FERTIG.

Guck doch das Video:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

deady1000

Volt-Modder(in)
Hier ein YT-Video, und wie das dann so funktioniert mit dem "Wunderplugin" im UE-Werkzeugkasten.

Vorsicht: Ab ~2:30 Augenkrebsgefahr.
Komisches Video. Guck dir mal die Bilder/Szenen bei DLSS-OFF an.
Das sieht auch nativ schon kacke aus. Sowohl die Monitore, als auch die Lavalampe.

Sieht krizzlig aus, wie wenn man ein Bild nicht fertig gerendert hat.
DLSS macht da ja schon fast Schadensbegrenzung, besonders wenn man auf den Ofen schaut.

EDIT:
Aso ja er sagt, dass die Bounces, von der Global Illumination nicht fertig gerendert sind.
Find das macht das aber dann auch nicht richtig beurteilbar.
 
Zuletzt bearbeitet:

Methusalem

Freizeitschrauber(in)
Das ist vom einem Entwickler. Der ganz stolz zu sein scheint wegen des Plugins.

Was die BQ angeht: Nativ vielleicht schon nicht so toll - ist halt Geschmackssache - , aber mit DLSS eine Katastrophe.
 

deady1000

Volt-Modder(in)
Bis "Performance" gehts noch einigermaßen.
Bei "Ultra-Performance" stirbt hinten der Monitor.

Aber guck mal auf die FPS:
Von 11FPS auf 63FPS, also die 5,73-fache Leistung.

Quality 23FPS (= 2,09x), Balanced 27FPS (= 2,45x), Performance 34FPS (=3,09%).

Ganz ehrlich, bei solchen Leistungsunterschieden, finde ich eine Qualitätsreduktion erwartbar.
Da packt man halt DLSS-Quality rein und gut ist. Doppelte Leistung, gute Qualität.

Wir reden ja sowieso in der Regel vom besten Preset, also bei DLSS2.0 --> Quality.
 

raPid-81

Freizeitschrauber(in)
Das ist vom einem Entwickler. Der ganz stolz zu sein scheint wegen des Plugins.

Was die BQ angeht: Nativ vielleicht schon nicht so toll - ist halt Geschmackssache - , aber mit DLSS eine Katastrophe.
Hehe, geil, jetzt werden schon nicht fertig gerenderte Beispiele genommen um zu zeigen wie mies DLSS aussieht. Du bist ja lustig. :lol:
 
Oben Unten