News DLSS-Konkurrent FidelityFX Super Resolution: Plug-in für Unreal-Engine, Blick auf FSR 3 im März?

Will endlich fake Frames bei AMD ausprobieten, also her mit FSR 3. Mal schauen wie es im Vergleich zu den Grünen wird.

Aber schon lustig wie AMD alles kostenlos anbietet wofür bei nvidia zusätzliche Kosten für die Kunden entstehen. Meinetwegen kann nvidia noch viele tolle und teure Sachen entwickeln die ich dann bei AMD später umsonst bekomme ??
 
Kapier' ich nicht. RT Cores bei AMD kamen erst mit RX 6x00 Serie, bei Nvidia mit der RTX 20x0er Serie. Also was heisst das dann, wenn Du "Auch auf älteren und der Konkurrenz...." schreibst ? Was ist dann mit RX 5x00 und GTX 10x0 ? Die gehören doch auch zu den "älteren" ?
Ich würde es mir ja auch wünschen, aber das Leben ist kein Ponyhof....
Bei navidia geht es nur bei den 4000 Karten
Falls amd wirklich rt cores benötigt doch wohl bei viel mehr karten
 
Aber schon lustig wie AMD alles kostenlos anbietet wofür bei nvidia zusätzliche Kosten für die Kunden entstehen. Meinetwegen kann nvidia noch viele tolle und teure Sachen entwickeln die ich dann bei AMD später umsonst bekomme ??
Sollte man es gut finden, dass AMD nur hinterher hechelt? FSR 2 kommt schon nicht an DLSS 2 ran, da sehe ich bei FSR 3 vs DLSS 3 richtig schwarz obwohl letzteres trotz Hardwarebeschleunigung noch seine Probleme hat. Apropos Hardwarebeschleunigung: AMD hat bisher mit keiner Silbe versprochen, dass FSR 3.0 für alle Karten verfügbar sein wird. RDNA 3 hat AI Cores die bisher brachliegen, sollte mich nicht wundern wenn FG nur auf RDNA 3 richtig funktioniert und alles darunter eine unbrauchbare Sparversion bekommt oder ganz außen vor bleibt.
 
ja nvidia sollte sich schämen ständig mal was neues zu bringen.

während die konkurenz dann versucht nachzuziehen mit einer kopie.

Es geht mir absolut nicht um die Einführung neuer Technologien (das ist doch begrüßenswert), sondern die Art und Weise, wie so etwas passiert.
Und da ist NVidia aber sowas von negativ vorbelastet.
Weil die wie Apple absolute Eigenbrödler sind und alles dafür tun, damit das nur in einem sehr speziellen Rahmen funktioniert und dementsprechend auch extra teuer abgezockt wird.
Thema G-Sync als einfaches Beispiel.
Da wurden dann mal eben Aufpreise von gerne auch mal 150 Euro von Monitorherstellern einkassiert.
Und dann hast du so ein Gerät da rumstehen und bist aber vollständig auf einen Hersteller angewiesen.
Wer beißt sich dann nicht auf die Lippe, wenn dann ausgerechnet bei einem anstehenden Grafikkartenupdate andere Hersteller das für einen bessere Produkt im Portfolio haben könnten?
Man kann ja gerne eine Technologie unterstützen und forcieren, aber man sollte ein Hintertürchen für andere offen lassen.
Es ist ja trotzdem noch möglich seine Produkte speziell angepasst und optimiert auf den Markt zu bringen, während andere dann nur kompatibel sind.
Wer dann optimale Performance, Stabilität und volle Funktionalität haben möchte, kann ja weiterhin gezielt kaufen.
 
So sieht es leider aus. FSR 2.x ist DLSS 2.5.x deutlich unterlegen und wird für mich immer eine Notlösung bleiben falls doch mal kein DLSS verfügbar sein sollte. Spätestens mit DLSS 3.1.1 und DLSSTweaks womit es möglich ist jedes erdenkliche Preset zu forcieren, ist FSR Stand jetzt aber chancenlos. DLSS Q + Preset F ist der Wahnsinn, von nativer Auflösung so gut wie nicht mehr zu unterscheiden.
Dem zweiten Satz muss ich an dieser Stelle widersprechen. Alle Vergleichstests, die ich bisher gesehen habe von FSR2.x und DLSS 2.x.x gingen unentschieden aus. Keines der beiden Upsampling Verfahren war in der Lage komplett ohne Fehler auszukommen und keines der Beiden hatte deutliche Nachteile dem Anderen gegenüber. Beispiel: Vögel bekommt FSR besser hin (weniger Smearing) und dünne Linien bekommt DLSS besser hin (genauere Nachbildung in der Ferne).
Ansonsten sind die beiden identisch gut. In manchen Spielen sieht FSR besser aus, in manchen Spielen sieht DLSS besser aus...
Also bitte nicht übertreiben.

Dass Nvidia sich die Innovation bezahlen lässt und angibt DLSS würde nur mit den entsprechenden Kernen laufen (was ab DLSS 3 auch verständlich ist) ist nachzuvollziehen. Das AMD als Nachzügler versucht das ganze für alle anzubieten, um sein Standing zu verbessern, da sie der Innovation hinterher laufen, ist auch nachvollziehbar. Für uns Endkunden ist beides gut. Es wird an Upsampling Verfahren gearbeitet und geforscht, was uns das Spielen versüßt wenn wir in hohen Auflösungen spielen möchten UND weil der Nachzügler in der Bringschuld ist können auch ältere Karten vom Upsampling profitieren (und ich kann mit meiner 1080ti noch ein bisschen länger glücklich sein)

Mein Daumen geht für beide Seiten hoch :daumen:
 
Sollte man es gut finden, dass AMD nur hinterher hechelt? FSR 2 kommt schon nicht an DLSS 2 ran, da sehe ich bei FSR 3 vs DLSS 3 richtig schwarz obwohl letzteres trotz Hardwarebeschleunigung noch seine Probleme hat. Apropos Hardwarebeschleunigung: AMD hat bisher mit keiner Silbe versprochen, dass FSR 3.0 für alle Karten verfügbar sein wird. RDNA 3 hat AI Cores die bisher brachliegen, sollte mich nicht wundern wenn FG nur auf RDNA 3 richtig funktioniert und alles darunter eine unbrauchbare Sparversion bekommt oder ganz außen vor bleibt.
Für den Aufpreis bei nvidia kann es dort auch etwas besser sein. Wäre ja ansonsten sinnfrei als Kunde für etwas zu zahlen ohne einen Vorteil zubekommen.
 
Dem zweiten Satz muss ich an dieser Stelle widersprechen. Alle Vergleichstests, die ich bisher gesehen habe von FSR2.x und DLSS 2.x.x gingen unentschieden aus. Keines der beiden Upsampling Verfahren war in der Lage komplett ohne Fehler auszukommen und keines der Beiden hatte deutliche Nachteile dem Anderen gegenüber. Beispiel: Vögel bekommt FSR besser hin (weniger Smearing) und dünne Linien bekommt DLSS besser hin (genauere Nachbildung in der Ferne).
Ansonsten sind die beiden identisch gut. In manchen Spielen sieht FSR besser aus, in manchen Spielen sieht DLSS besser aus...
Also bitte nicht übertreiben.
Ich habe nicht umsonst DLSS 3.1.1 + DLSSTweaks erwähnt und verlinkt womit es möglich ist ein beliebiges Preset bei der gewünschten Qualitätsstufe zu forcieren. DLSS Q mit Preset F muss man einfach selber gesehen haben. Wenn du schon widersprechen willst, dann bitte erst nachdem du aufmerksam gelesen hast.
 
Wo genau findet das machine learning denn statt?
Nicht auf der Grafikkarte so weit ich weiß.
Neimand weiß wie AMD den Algorithmus weiterentwickelt außer AMD selbst. Es wäre schonm extrem merkwürdig, wenn AMD dafür nicht auch automatisierte Prozesse sprich machine learning verwendet.
Jeder mit einem PC kann heutzutage machine leraning anwenden.
Sowas kann man auch wissen, wenn man kein Programmierer ist.
Am Ende sind wieder alle überrascht, wie gut AMD das doch geschafft hat, ohne irgendwas von AI zu verstehen .....

Nvidia speichert auch nicht die gelernten Bilder in dem Treiber, sie speichern wie die Bilder genutzt werden.
 
Zuletzt bearbeitet:
FSR, XeSS und DLSS, NIS, AMD, ole ole!
MFG! Mit freundliche Grüßen!...
Mittlerweile gibt es mehr Upscaler auf dem Markt als ich Unterbüchsen in der Kommode habe.:-D
Zumindest dürfte für jeden Geschmack etwas dabei sein.:devil:
 
Sollte man es gut finden, dass AMD nur hinterher hechelt? FSR 2 kommt schon nicht an DLSS 2 ran, da sehe ich bei FSR 3 vs DLSS 3 richtig schwarz obwohl letzteres trotz Hardwarebeschleunigung noch seine Probleme hat. Apropos Hardwarebeschleunigung: AMD hat bisher mit keiner Silbe versprochen, dass FSR 3.0 für alle Karten verfügbar sein wird. RDNA 3 hat AI Cores die bisher brachliegen, sollte mich nicht wundern wenn FG nur auf RDNA 3 richtig funktioniert und alles darunter eine unbrauchbare Sparversion bekommt oder ganz außen vor bleibt.
Also fsr2 ist inzwischen eigentlich ebenbürtig mit dlss....
Sagt auch jeder test den ich in letzter Zeit lese
 
Also fsr2 ist inzwischen eigentlich ebenbürtig mit dlss....
Sagt auch jeder test den ich in letzter Zeit lese
Das FSR typische ausfransen ist spieleübergreifend allgegenwärtig, wer das nicht sieht ist einfach blind. Zudem gibt es bei FSR nur wenig Möglichkeiten einzugreifen. DLSSTweaks ist ein mächtiges und leicht zu bedienendes Tool.
 
Das FSR typische ausfransen ist spieleübergreifend allgegenwärtig, wer das nicht sieht ist einfach blind. Zudem gibt es bei FSR nur wenig Möglichkeiten einzugreifen. DLSSTweaks ist ein mächtiges und leicht zu bedienendes Tool.
Tja ich sehe es nicht und die tester die es testen auch nicht
 
Aber schon lustig wie AMD alles kostenlos anbietet wofür bei nvidia zusätzliche Kosten für die Kunden entstehen.
Inwiefern ist das bei AMD "kostenlos"? AMD muss ihre Entwicklungskosten genauso auf die Einnahmen die sie generieren umlegen, wie Nvidia auch.
Meinetwegen kann nvidia noch viele tolle und teure Sachen entwickeln die ich dann bei AMD später umsonst bekomme ??
Mit einer Nvidia Karte vor Turing lässt sich FSR auch nutzen.

...sondern die Art und Weise, wie so etwas passiert.
Wäre ja auch dumm von Nvidia aufwändige Software-Entwicklungen, die ihr environment betreffen einfach auf Karten des Konkurrenten lauffähig zu machen.
Und da ist NVidia aber sowas von negativ vorbelastet.
Nvidias RT Vorstoß mündete beispielsweise vollständig in DXR. Nvidia ist hauptsächlich Innovationstreiber, somit nicht negativ vorbelastet, eher positiv!

Thema G-Sync als einfaches Beispiel.
Da wurden dann mal eben Aufpreise von gerne auch mal 150 Euro von Monitorherstellern einkassiert.
Und dann hast du so ein Gerät da rumstehen und bist aber vollständig auf einen Hersteller angewiesen.
Man war auch auf den ASIC den Nvidia zusammen mit den Monitorherstellern produzierte angewiesen, weil viele der Funktionalitäten die dann Adaptive Sync ermöglichte eine langwierige Geschichte waren.
Nvida G-sync war Plug and Play, sprich Qualität, Adaptive Sync brauchte 2, bzw 3 Jahre um auf G-sync aufzuschließen.

Man kann ja gerne eine Technologie unterstützen und forcieren, aber man sollte ein Hintertürchen für andere offen lassen.
Mantle oder Radeon Boost sind auch AMD Technologien die anfangs bzw. bis jetzt noch nicht auf Geforce Karten funktionieren, nur interessiert sich keine mehr dafür, weil ersteres in Direct12/Vulkan aufging und zweiteres nicht von den Nutzern angenommen wird.
 
Zuletzt bearbeitet:
Inwiefern ist das bei AMD "kostenlos"? AMD muss ihre Entwicklungskosten genauso auf die Einnahmen die sie generieren umlegen, wie Nvidia auch.

Mit einer Nvidia Karte vor Turing lässt sich FSR auch nutzen.
Bei AMD ist es für User kostenlos, da es keinen Hardwarezwang gibt um es nutzen zu können. Willst du DLSS nutzen wäre eine RTX nötig. War auch schon bei Gsync der Fall, bis es Freesync von AMD erschienen ist. Erst dann gab es Gsync Compatible.
 
Apropos Hardwarebeschleunigung: AMD hat bisher mit keiner Silbe versprochen, dass FSR 3.0 für alle Karten verfügbar sein wird. RDNA 3 hat AI Cores die bisher brachliegen, sollte mich nicht wundern wenn FG nur auf RDNA 3 richtig funktioniert und alles darunter eine unbrauchbare Sparversion bekommt oder ganz außen vor bleibt.
Bei der Ankündigung hieß es sogar, das es vorerst RDNA3-Exklusiv sein wird.
Aber auch das sie schauen wollen, wie sie es auch für weitere Generationen / Karten verfügbar machen können.

Manche neue Features kann man jedoch schlicht nicht allgemein Verfügbar machen. Kennt man ja von Raytracing, ohne spezialisierte Hardware-Einheiten, läuft es einfach viel zu langsam, als das man es in Echtzeit nutzen könnte.
Man könnte es evtl. stark abgespeckt noch irgendwie bringen, nur muss man sich dann Fragen, lohnt sich der Aufwand?
 
Tja ich sehe es nicht und die tester die es testen auch nicht
Weiß ja nicht welche Tester du meinst? Hier auch ein Beispiel wo FSR gerne versagt: Disocclusion

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Bei der Ankündigung hieß es sogar, das es vorerst RDNA3-Exklusiv sein wird.
Aber auch das sie schauen wollen, wie sie es auch für weitere Generationen / Karten verfügbar machen können.

Manche neue Features kann man jedoch schlicht nicht allgemein Verfügbar machen. Kennt man ja von Raytracing, ohne spezialisierte Hardware-Einheiten, läuft es einfach viel zu langsam, als das man es in Echtzeit nutzen könnte.
Man könnte es evtl. stark abgespeckt noch irgendwie bringen, nur muss man sich dann Fragen, lohnt sich der Aufwand?
so wie sie vor 2 Jahren gesagt haben, dass sie schauen wollen ob RSR für Vega verfügbar gemacht werden soll und nix passiert ist?

komm schon. AMD wird con Generation zu Generation immer mehr wie Intel und Nvidia. Da kann ich auch gleich zur aktuell besseren Konkurrenz greifen....

Das lächerlichste war ja, dass es zum Zeit der Veröffentlichung nur Vega APUs gab. Zwar waren die Nachfolger in den startlöchern aber ich hätte doch noch erwartet, dass die zu dem Zeitpunkt aktuellsten Laptops noch davon profitieren würden, aber Pustekuchen.....

Ist ja nett dass inzwischen nach all den Jahren schon nette 200 Spiele von fsr profitieren. Bei 17.000 spielen die jährlich releasen fehlt ja nicht mehr viel.....erst letztens erschien wieder mit wo long ein Titel der keinen der bildverbesserer unterstützt....
 
Dann hast du noch nie auf einem 4K Schirm die Vorteile von Performance und Ultra Performance in der Praxis gegengeprüft, wenn deiner Grafikkarte mal die Puste aus geht und sie selbst für Full HD zu wenig Leistung hätte...

Du hast denke ich das Verfahren hinter dem Super-Sampling Upscaling mit der temporalen Akkumulation gar nicht verstanden und tätigst deshalb solche Aussagen.


Lade bitte mal entsprechende Vergleiche hoch. Dieses Verhalten habe ich noch nie beobachtet.
Was kann man daran denn nicht begreifen? Ist ja nun wirklich keine Raketenwissenschaft. Zudem nutze ich seit bald fünf Jahren einen 4K Schirm. Wir haben scheinbar einfach komplett verschiedene Einstellungen zu dem Thema. Wenn mir ein Spiel zu langsam läuft, dann spiele ich es einfach zwei Jahre später mit der übernächsten Karte. Das juckt mich nicht. Ich spiele eh so wenig.
Was deine Beispiele angeht... Das habe ich bei CP2077, Outsiders, Control und einem weiteren Spiel gemacht. Immer die gleiche Diskussion. Es scheint einfach Leute zu geben die unterschiedliche Dinge sehen/wahrnehmen. Ist ja auch nicht schlimm.
Es gibt auch Spiele wie Wolfenstein, wo die Bildqualität klar gesteigert wurde, aber der Inhalt ein anderer. Flaggen an Gebäuden und Graffitis fehlten einfach, dafür war das Bild super. DLSS hat Vorteile, aber wie aktuell im Hogwarts thread. Ich hab auf dem handybildschirm in der Bildvorschau schon die Unschärfe des DLSS quality Bildes wahrgenommen, mein Kollege direkt neben mir nicht. Zwar nicht wirklich deutlich, aber sofort mit dem Gefühl: irgendwas stimmt hier nicht. Nur dass wir uns nicht falsch verstehen und daraus wieder so ein Lager -Ding wird, ich nutze auch FSR nicht.

Edit
Ich bin aber auch Sichtprüfer und es gewohnt auf Bildern und unterm Mikroskop kleinste Unterschiede festzustellen. Kann sein, dass mich das einfach kleinlich hat werden lassen.
 
Zuletzt bearbeitet:
So sieht es leider aus. FSR 2.x ist DLSS 2.5.x deutlich unterlegen und wird für mich immer eine Notlösung bleiben falls doch mal kein DLSS verfügbar sein sollte. Spätestens mit DLSS 3.1.1 und DLSSTweaks womit es möglich ist jedes erdenkliche Preset zu forcieren, ist FSR Stand jetzt aber chancenlos. DLSS Q + Preset F ist der Wahnsinn, von nativer Auflösung so gut wie nicht mehr zu unterscheiden.

Ich habe nicht umsonst DLSS 3.1.1 + DLSSTweaks erwähnt und verlinkt womit es möglich ist ein beliebiges Preset bei der gewünschten Qualitätsstufe zu forcieren. DLSS Q mit Preset F muss man einfach selber gesehen haben. Wenn du schon widersprechen willst, dann bitte erst nachdem du aufmerksam gelesen hast.
Aber ich habe deinen Beitrag doch aufmerksam gelesen, bevor ich meinen Beitrag geschrieben habe. Deshalb habe ich doch auch nur deinem zweiten Satz "FSR 2.x ist DLSS 2.5.x deutlich unterlegen und wird für mich immer eine Notlösung bleiben falls doch mal kein DLSS verfügbar sein sollte." widersprochen. In diesem Satz ist mit keinem Wort DLSS 3.1.1 erwähnt, sondern es steht FSR2.x gegen DLSS 2.5.x. Und in diesem Vergleich sehe ich, wie in meinem Beitrag ausführlich beschrieben, keinen Vorteil für DLSS.
Bitte lese du doch auch Beiträge anderer erst aufmerksam, bevor du antwortest.
Vielen Dank.
 
Und die Erde ist eine Scheibe... dann nenne die spezialisierten Rechenwerke der 6000er Serie einfach anders.
Ok, ich finde es inzwischen gut ,dass AMD Karten gsync und DLSS beherrschen. Der NVENC Encoder von AMD ist ja auch inzwischen richtig gut geworden. Hoffentlich unterstützen die AMD Karten bald Nvidas Ray Accelerators für das RT.

 
Zurück