AMD Fidelity FX Super Resolution: Open Source und Multiplattform-Feature bestätigt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Fidelity FX Super Resolution: Open Source und Multiplattform-Feature bestätigt

Zur Vorstellung der Desktop-Grafikkarten auf RDNA-2-Basis hat AMD die neue Funktion namens AMD Fidelity FX Super Resolution angekündigt, womit der Hersteller gegen die KI-Bildglättung Nvidia DLSS antritt. AMDs Lösung wird hierbei Open Source sein, wie die Firma bestätigt hat.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Fidelity FX Super Resolution: Open Source und Multiplattform-Feature bestätigt
 
Kein Machine Learning? Wäre cool falls die Qualität gut ist, denn das würde hoffentlich bedeuten es wäre vielleicht einfach auf alle Spiele anwendbar.
 
Allerdings ist die Funktion DLSS auf Nvidia-Grafikkarten beschränkt und ein PC-Spiel muss vom jeweiligen Spiele-Entwickler explizit angepasst werden, um Nvidia DLSS nutzen zu können.
Anpassen kann (muss) man es nicht, man muss die NGX API ins Spiel integrieren. Dann wird bei Aktivierung Screenpercentage mit dem jeweiligen NGX Auflösungsprofil überschrieben (NGX get optimal setting). Es ist nicht open source, man kann daran also nicht händisch umher optimieren. Es gibt entsprechende Profile die dort hinterlegt sind.
 
Zuletzt bearbeitet von einem Moderator:
Nicht mal Ansatzweise mit DLSS vergleichbar. Es ist "nur" eine weiter Super-Sampling Methode - wieder einmal adaptive-Supersampling, nur wie man dort ja gesehen hat werden die von so gut wie garkeinem Spiel unterstützt obwohl es dazu seit vielen Jahren viele gute OpenSource-Lösungen gibt.
Witzig wäre es wenn AMD wieder mal was nimmt was Nvidia als offene Papers released hat und es dann als ihr eigenes vermarktet - zb https://www.pcgameshardware.de/Rayt...vidia-Adaptive-Temporal-Antialiasing-1261965/
 
Nicht mal Ansatzweise mit DLSS vergleichbar. Es ist "nur" eine weiter Super-Sampling Methode - wieder einmal adaptive-Supersampling, nur wie man dort ja gesehen hat werden die von so gut wie garkeinem Spiel unterstützt obwohl es dazu seit vielen Jahren viele gute OpenSource-Lösungen gibt.
Witzig wäre es wenn AMD wieder mal was nimmt was Nvidia als offene Papers released hat und es dann als ihr eigenes vermarktet - zb https://www.pcgameshardware.de/Rayt...vidia-Adaptive-Temporal-Antialiasing-1261965/
Echt, und ich dachte sie stimmen die Methode mit den Spieleentwicklern ab und richten sich danach was die wollen, weil Plattform übergreifend eigentlich schon besagt um was es sich handeln kann. Warum sollte es ein closed AI Konzept sein. Das spaltet den Markt gerade in der Spieleentwicklung weiter und verteuert die Entwicklung.

Wie viele Supercomputer willst du damit noch füttern, vor allem wer bezahlt das?
 
Nicht mal Ansatzweise mit DLSS vergleichbar. Es ist "nur" eine weiter Super-Sampling Methode - wieder einmal adaptive-Supersampling, nur wie man dort ja gesehen hat werden die von so gut wie garkeinem Spiel unterstützt obwohl es dazu seit vielen Jahren viele gute OpenSource-Lösungen gibt.
Witzig wäre es wenn AMD wieder mal was nimmt was Nvidia als offene Papers released hat und es dann als ihr eigenes vermarktet - zb https://www.pcgameshardware.de/Rayt...vidia-Adaptive-Temporal-Antialiasing-1261965/
Interesant was du immer so weisst..
Müsstest eigentlich Multi Milliardär sein... nach dem du immer alles weisst bevor jeder andere es weisst..
So wie AMD keine RT Codes hat sondern alles auf den Shadern berechnet?
 
Ich hab nie gesagt das sie das in den Shadern berechnen - aber danke das du so schön zeigst das zumindest du mit deinen Behauptungen immer daneben liegst.
Tun sie. Per Computeunit (CU), Raybox- (4 pC) und Raytriangle- (1pC) Intersects beschleunigen sie dediziert. Also ist es nicht ganz falsch. Die Performance lässt sich anpassen, wobei sie den IFC zur Reduzierung der Intersectlatency einsetzen.

Der Shader ist nicht anders als bei Nvidia (wäre ja auch komisch weil man sonst was anderes zu Gesicht bekommt), aber die Beschleunigung in Hardware. Es geht um die Berechnung der Strahlen. Du musst die Primitive auf seinem Verlauf berechnen. Dabei gibt es unterschiedliche Unterteilungsschema die man selbst, wenn sich um BVH handelt, in Hardware unterschiedlich beschleunigen kann.
 
Zuletzt bearbeitet von einem Moderator:
D
Ich hab nie gesagt das sie das in den Shadern berechnen - aber danke das du so schön zeigst das zumindest du mit deinen Behauptungen immer daneben liegst.
Doch hast du..
Hast genauso Gedächtnisses verlust wie damals Schaffe....
Aber noch einmal zu deinem Post woher hast du deine Informationen die kein anderer auf dieser Welt hat?
 
also am Ende nur so ein Checkerboard Quatsch
Am Ende wieder nur belangloses geredet... xD

Diese ganzen Techniken ziehen Alle auf das eine hinaus... Das zum. Schluß mehr Leistung übrig bleibt.
Es gibt nen Haufen Spiele die Checkerboard Rendering nutzen und man sieht KEINEN Unterschied...
Wer sagt das NV Lösung die richtige ist?
 
Es gibt nen Haufen Spiele die Checkerboard Rendering nutzen und man sieht KEINEN Unterschied...
Naja, da gibt es durchaus andere Meinungen...

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Außerdem bin ich überzeugt, dass DLSS2 letztlich eine Verbesserung von Checkerboard ist, also die Grundidee (temporales verrechnen von sub-pixel versetztem Rendering) eine Stufe weiterentwickelt hat. Daher auch die temporalen "Wisch-Effekte" die DLSS2 an bestimmten Stellen zeigt.
 
Reines Checkerboard ist auch nicht sinnvoll, man muss da natürlich noch paar Techniken nutzen damit zum Schluß ein fehlerfreis Bild bei rumkommt.
Natürlich gibt es games wo man direkt sieht was los ist aber da war man eben nur faul.
Frage mich eh woher diese nativ wahnsinn kommt...der Großteil der Gamer und TV Nutzer spielen nicht auf 4k oder können es nicht
 
Reines Checkerboard ist auch nicht sinnvoll, man muss da natürlich noch paar Techniken nutzen damit zum Schluß ein fehlerfreis Bild bei rumkommt.
Was willst Du uns damit sagen? Von welchem "Checkerboard" sprichst Du, das alleine ohne "paar Techniken" nicht fehlerfrei wäre? Weißt Du, was Checkerboard der PS4 bedeutet?
 
Hm ich dachte FX SR würde auch Deep Learning nutzen, scheinbar aber nicht der Fall.

Schade, so kann man nicht wirklich von einer DLSS Alternative sprechen :/
 
Naja, da gibt es durchaus andere Meinungen...

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Außerdem bin ich überzeugt, dass DLSS2 letztlich eine Verbesserung von Checkerboard ist, also die Grundidee (temporales verrechnen von sub-pixel versetztem Rendering) eine Stufe weiterentwickelt hat. Daher auch die temporalen "Wisch-Effekte" die DLSS2 an bestimmten Stellen zeigt.
Was da mMn noch fehlt ist der Schärfefilter. Der würde da noch viel bringen denke ich.

EDIT:
Oh sorry, bei 9 Minuten irgendwas, haben sie Sharpening ja aktiviert.
Hab nix gesagt...
 
Außerdem bin ich überzeugt, dass DLSS2 letztlich eine Verbesserung von Checkerboard ist, also die Grundidee (temporales verrechnen von sub-pixel versetztem Rendering) eine Stufe weiterentwickelt hat. Daher auch die temporalen "Wisch-Effekte" die DLSS2 an bestimmten Stellen zeigt.
Ja der Meinung und das wars auch schon. DLSS ist nichts weiter als Superspampling (das gibt es schon ewig), auf Ausführungsbasis eines NN wozu es seperate Ausführungseinheiten braucht, Ceckerboard inklusive Rekonstruktionsfilter und Objekt ID Buffer brauchen dafür keine Tensorcore, weil dort keine Bildvorlage abgeglichen wird, sondern anhand der vorliegenden Pixeldaten interpoliert.

Der Vorteil ist, das es dafür keine seperate Vorlage braucht und das NN auch nichts lernen muss, denn wenn es ein Bild nicht zuordnen kann kommt es zu Artefakten, bei schnell wechselnden Hintergründen zum Beispiel und zur Unschärfe.

Supersampling hat in dem Fall den Nachteil, dass es immer noch eine hohe Rechenlast fordert und man ein NGX Framework mit nutzbaren Profilen braucht, es eignet sich daher nicht für jede Engine. Den Platzbedarf und die Kosten für die zusätzlichen Rechenwerke genauso, was letztlich auch Platz auf dem Wafer kostet und die Preise hochjubelt.

Was Supersampling angeht gibt es unterschiedliche Methoden, so wie das RGSS, was eigentlich die besten Resultate bei der Glättung aller Kanten erzielt. Genau deshalb muss Nvidia auch mit der Ausgangsauflösung runter.

Übrigens gibt es pattern auch eine Montecarlomethode, die dann zu ihrem Reward RTRT passt.

Und trotzdem, dass mystische Gequatsche über DLSS langweilt einfach nur, es ist Supersampling mehr nicht.
 
Zuletzt bearbeitet von einem Moderator:
Zurück