AMD Fidelity FX Super Resolution: Source Code bereitgestellt, neue Spiele plus Support für Unreal Engine und Unity

Es gibt auch andere Kosten: allen Interviews von Entwicklern die ich bisher gelesen habe zufolge ist DLSS weitaus aufwendiger zu implentieren als FSR -> höhere Entwicklungskosten.
Hast Du Links zu den Interviews der Entwickler, wo angemerkt ist, dass DLSS weitaus aufwändiger zu integrieren sei als FSR? ich lese nur immer davon, dass FSR einfach und in 1-2 Tagen zu intergrieren sei....

Dazu:
“NVIDIA DLSS 2.0 basically gives our players a free performance boost, without sacrificing image quality” said Russ Bullock, President at Piranha Games. “It was also super easy to implement with NVIDIA’s new SDK, so it was a no brainer for us to add it to MechWarrior 5.”

oder


Die einzige Aussage, die in deine kerbe schlägt, sehe ich hier:

Kann man durchaus einer gewissen Ebene vergleichen: G-Sync/DLSS läuft ausschließlich mit nvidia Hardware, Adaptive-Sync/FSR sind offen.
Dafür hast Du mit G-Sync Mindeststandards, wobei Du mit Adaptive- Sync nicht wirklich blind sagen kannst, welche Qualität bzw. welchen Arbeitsbereich Du erhältst.

Siehe Kosten. Nur weil DLSS von den Engines untersützt wird, ist es nicht per Drag&Drop implementierbar (FSR kommt dem aber offenbar sehr nahe). Liegt natürlich auch an der Technik.
Auch FSR kommt dem nicht nahe, da Du das nicht beliebig in Deiner Renderpipeline einbauen musst und auch hier diverse Vorgänge vor- bzw. nachgelagert werden müssen. Wie bei DLSS eben auch.
Das wird sich dann ja zeigen. Ich bin gespannt.
Dass er überlegen ist zeigt sich doch schon die ganze Zeit. Es ist nur die Frage, ob man die bessere Technik aus welchen Gründen auch immer einer schlechteren, dafür einer vermeintlich weiter zu verbreitenden Technik opfern will.

Ich bin dafür, dass beide Techniken bestehen bleiben. So hat der User die Wahl.
Was in diesen Diskussionen komplett verkannt wird ist, dass FSR in der jetztigen Form erstens nicht mehr besser werden kann (das ist der Preis, den man für eine einfachere Integration nebst der geringeren Qualität zahlt) und zweitens, dass die Verfahren FSR und DLSS sich gegenseitig nicht ersetzen können.
 
Zuletzt bearbeitet:
Es gibt auch andere Kosten: allen Interviews von Entwicklern die ich bisher gelesen habe zufolge ist DLSS weitaus aufwendiger zu implentieren als FSR -> höhere Entwicklungskosten.
Wie @ZeroZerp sagt, bitte Quellen dazu. In der UE4+5 dauert es 5 Minuten DLSS zu integrieren. In Unity und diversen anderen Engines (Snowdrop, IDTech, Frostbite, Anvil, Disrupt, REDEngine, Cryengine, RAGE) sieht es genau so aus oder kommt mit dem nächsten Release. Da muss AMD erst mal nachlegen, soweit ich weiss wird FSR bisher in 1-2 Engines nativ unterstützt (UE + Unity).

https://www.computerbase.de/2021-07...e-sowie-unity-und-als-open-source-verfuegbar/

In Unity gibt es FSR in einer Beta-Version von Unity 2021.2 HDRP, während die Technologie zwar nicht direkt in der Unreal Engine integriert ist, aber mittels des von AMD zur Verfügung gestelltem Patches in die UE 4.26 eingebaut werden kann.

Kann man durchaus einer gewissen Ebene vergleichen: G-Sync/DLSS läuft ausschließlich mit nvidia Hardware, Adaptive-Sync/FSR sind offen.
Ja, kann man so vergleichen, dabei aber bitte nicht außen vor lassen:
- G-Sync ist durchweg besser als Freesync (unterstützer Hz Bereich)
- DLSS ist qualitativ besser als FSR (FSR ist gut bei 4K Ultra Quality, DLSS ist im Quality Mode in jeder Auflösung überlegen)

Siehe Kosten. Nur weil DLSS von den Engines untersützt wird, ist es nicht per Drag&Drop implementierbar (FSR kommt dem aber offenbar sehr nahe). Liegt natürlich auch an der Technik.
Doch, es ist genau so: drag and drop. Siehe hier:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Das wird sich dann ja zeigen. Ich bin gespannt.
Worauf bezieht sich das "wird sich zeigen"? Dass deep-learning Ansätze überlegen sind wird sich nicht zeigen, das weiss man bereits. Siehe diverse Tests der Fachmagazine.
 
Sieht man sich jedoch die ganzen KI-StartUps an, von denen einige mit sehr erfolgreichen Produkten aufwarten, verwendet von denen keiner FPGAs, sondern die verwenden für ihre AI-Produkte alle dedizierte, selbstentwickelte Designs. ;-)

Ich weiß zwar nicht, was dein langer Monolog mit meinem Beitrag zu tun haben soll, aber offensichtlich hast du da nicht so den Durchblick und scheinst dich mit FPGAs auch nicht wirklich auszukennen. Denn lustigerweise setzt ein deutsches Startup eher auf FPGAs ;-)

Und je nach Anwendung sind FPGAs der sehr wohl im Vorteil und auch begehrt, google und du wirst viel finden.


Intel wird keine FPGAs in ihre CPUs einbauen, das ist bei denen schon "ein alter Hut" und das Thema haben sie in der letzten Zeit eher im Gegenteil wieder zurückgebaut.

Gut, dass DU weißt was intel machen wird. Gerade mit ihrem neuen Big Little Ansatz, wäre es für sie einfacher FPGAs zu integrieren. Zumindest AMD sieht darin einen sehr vielversprechenden Ansatz, we will see

Für AI hat Intel AVX-512 sukzessive erweitert und jetzt kommt auch noch AMX dazu, dass den Durchsatz auf der CPU noch einmal bis zu verdoppeln können soll, die HBM2-Varianten von Sapphire Rapids dürften vermutlich ebenso primär auf AI-Workloads abziehlen und als dedizierte Lösung kommt Xe-HPC mit anscheinend immenser AI-Leistung hinzu.

Zum einen muss man die neuen Erweiterungen erstmal in Software unterstützen und zum anderen scheinst du wirklich absolut keine Ahnung von FPGAs zu haben....

Allein die bessere Energieeffizienz spricht für FPGAs, von daher wäre intel sehr blöd, wenn sie ihre FPGA Sparte vernachlässigen, zumal sie sie auch teuer eingekauft haben.

FPGAs direkt auf der CPU scheinen vorerst Geschichte zu sein bei Intel und stattdessen wird es dedizierte Lösungen in Form der Agilex- und insbesondere Stratix-FPGAs geben. (Und Intel hat schon längst entsprechende Funktionseinheiten im Stratix 10 NX, nur nennen die diese hier "Tensor Block" und die sind vermutlich weitestgehend auf das Inferencing ausgelegt.)

Als Custom Design für die Superrechner wäre die Kombination vermutlich durchaus gefragt, wobei man natürlich auch extra Karten dafür nehmen kann. Bzw. würde es sich für Server als Securitycenter anbieten, da man es bei BUGs einfacher flashen kann. Auch wenn intel aktuell kein Produkt angekündigt hat, so dumm werden sie nicht sein und nicht auch damit weiter zu forschen, die Ressourcen haben sie.

FSR musste grundsätzlch "leichtgewichtig" ausgelegt sein, da AMD hier vorrangig die Konsolen-SoCs im Auge halten musste, die bestenfalls über 52 CUs verfügen und langsamer takten als die dedizierten RDNA2-GPUs, d. h. ohne spezielle Ausführungseinheiten kann man da nicht übermäßig viel Rechenleistung für verplanen, weil das am Ende sonst kontraproduktiv wird.

Und das hat was mit meinem Post zu tun? Nichts.

Abgesehen davon ist FSR eh nur eine von vielen Lösungen. Ganz neu von Epic ist deren TSR, das ebenso hochgradig auf die NextGen-Konsolen hin optimiert ist. Microsoft arbeitet anscheinend ebenfalls an einem AI-basierten, eigenen Ansatz und bei Intel liest man in Verbindung mit Xe-HPG von einem "XeSS" als Codenamen, wobei es hierzu aber noch keine Details gibt. Deren Xe-Architektur verfügt entgegen RDNA2 jedoch auch über eine erhöhte Inferencing-Leistung und wird mit angepasster Technik da vermutlich auch besser performen können. Man darf gespannt sein ob RDNA3 sich vielleicht etwas mehr in Richtung ML bewegen wird.

Microsoft wird auch den Ansatz von AMD nutzen, wieso sollten sie auch was eigenes verwenden... Immerhin nutzen sie RDNA Hardware und selber noch Geld reinzustecken, da wären sie ja schön blöd, wenn das so auch gut funktioniert.


Aber auch hier wird man absehbar den Gedanken an FPGAs in Consumer-GPUs vorerst streichen können, Xilinx hin oder her. Abseits dessen sind FPGAs für AI-Workloads auch nicht unbedingt der heilige Gral. Bei Xilinx kommen die lediglich zwangsweise aus der Richtung, weil FPGAs deren Kerngeschäft sind, der größe Boom in der Industrie jedoch mittlerweile im ML-Markt stattfindet und dementsprechend versucht man da sein KowHow zu transferieren.

Sie sind für AI Workloads wesentlich besser wie GPUs aber macht nichts ;-) Und zusammen mit dem Chipletansatz wäre dies ein durchaus plausibler Ansatz, da man die Funktionalität für Raytracing usw. auslagert. Aber mit RDNA 3 wird das definitiv nicht kommen, das wäre viel zu früh. Aber was im Detail kommt wird man dann sehen, nur sollte man halt FPGAs nicht unterschätzen, damit lässt sich so einiges realisieren und durch die neuen programmiermöglichkeiten von Microsoft und Xilinx, kann man einfach C code schreiben, welcher dann umgesetzt wird, was die Sache wieder vereinfacht.
 
Zurück