Fidelity FX Super Resolution: AMDs "DLSS" funktioniert auch mit Geforce-GPUs

Anvil, Source2, Blizzards Engine, RE-Engine.
Anvil ist die Engine von Ubisoft und das sind ne Menge Spiele.
AnvilNext 2.0 - Rainbow Six Siege bekommt DLSS, mal sehen ob es danach nativ in der Engine unterstützt wird

Ubisoft hat übrigens nicht nur eine Engine, die von mir aufgezählte Disrupt Engine (Watch Dogs Legion) liegt auch bei denen. Und die hat RT+DLSS.

Beim Rest stimme ich zu, wobei damit nicht gerade viele Spiele veröffentlicht werden. Die Anzahl der Engines mit nativem DLSS Support ist auf jeden Fall größer.
 
Bei all den scheinbar bekannten Details zu den Funktionsweisen der Upscaler etc. frage ich mich ein wenig wofür die 285 "Tensor"-TFLOPS des nVidia-Flaggschiffs gut sind.
Wenn ein Upscaling mit ML-Beteiligung (FSR "Ultra High Quality") auf AMD-Karten besser läuft und ähnlich aussieht wie DLSS auf Ampere-Karten wäre das schade um die brachliegende ML-Leistung auf den nVidia-Karten.

Gerade die hier auch angesprochenen Möglichkeiten für NPC-Verhalten oder Physik hätten sehr viel Potential für Echtzeitanwendungen. Auch die GAN-basierten Bildgeneratoren die aus Minecraft-Klötzchen tolle 3D-Grafik in Echtzeit generieren wären ein spannender Ansatz weniger Entwicklungsaufwand bei besserem Spielerlebnis zu bekommen.
Man könnte AMD auch als Innovationsbremse darstellen, da sie die Beschleunigung von RT und ML in Hardware zurückstellen. Würde AMD auch da ansatzweise mitziehen könnten Entwickler endlich wirklich große und sinnvolle Sachen damit angehen.
 
Bei NV ist leider sehr wenig bekannt was die reale Auslastung an geht.
Aber ja, Inferencing ist allgemeine eher billig. Die vielen Tensor Kerne wären eher zum lernen nötig, aber der Teil passiert ja offline.
 
Mit der 8k Unterstützung für DLSS ist die Technik ja sogar effektiv da. Also 8k@DLSS Quality downsamplen auf UHD müsste in die Richtung gehen.
Nur das HUD sieht dann halt so mittel toll aus wenn man die Funktion nicht intern handhabt.
Naja der Gaussfilter via Treiber ist nun keine wirklich sinnvolle Option in dem Kontext, da kommt nur Murks bei raus.
 
Bei all den scheinbar bekannten Details zu den Funktionsweisen der Upscaler etc. frage ich mich ein wenig wofür die 285 "Tensor"-TFLOPS des nVidia-Flaggschiffs gut sind.
Wenn ein Upscaling mit ML-Beteiligung (FSR "Ultra High Quality") auf AMD-Karten besser läuft und ähnlich aussieht wie DLSS auf Ampere-Karten wäre das schade um die brachliegende ML-Leistung auf den nVidia-Karten.

Gerade die hier auch angesprochenen Möglichkeiten für NPC-Verhalten oder Physik hätten sehr viel Potential für Echtzeitanwendungen. Auch die GAN-basierten Bildgeneratoren die aus Minecraft-Klötzchen tolle 3D-Grafik in Echtzeit generieren wären ein spannender Ansatz weniger Entwicklungsaufwand bei besserem Spielerlebnis zu bekommen.
Man könnte AMD auch als Innovationsbremse darstellen, da sie die Beschleunigung von RT und ML in Hardware zurückstellen. Würde AMD auch da ansatzweise mitziehen könnten Entwickler endlich wirklich große und sinnvolle Sachen damit angehen.
Sieht halt nicht gleich gut aus, das sieht man schon im Video trotz Kompression:

1622621471452.png


1622621481508.png


Und hier wird der Ultra-Quality-Mode gezeigt. Wenn DLSS 2.0 "vermatschte" Texturen produziert, was ist dann das hier!? :schief:

Zum Vergleich CP2077:

DLSS Off:

WQHD - RT Psycho - Details max - DLSS off.jpg



DLSS Quality:

WQHD - RT Psycho - Details max - DLSS Quality.jpg
 
DLSS wird sicher nicht sterben, der qualitative Vorsprung scheint doch immens zu sein, erst wenn FSR so weit aufgeholt hat (wohl eher wenn RDNA3 etwas ähnliches wie Tensor Cores einbaut), dann ist es gut möglich dass FSR sich durchsetzt, aber das ist Spekulation und wird sich erst zeigen.
DLSS ist in den bekanntesten Engines mittlerweile integriert, daher wird es wohl auch bleiben.
 
Den kannan ja auf 0% zusammen stauchen.
"Überschärfung" sollte eigentlich kein Problem sein bei DLSS.
Ich habs ausprobiert, die Kombimacht keinen Sinn. Der Gaussflter ist dazu einfach nicht wirklich geeignet,die doppelte Manipulation des Bildes macht einfach keinen Sinn. Du ziehst übertragen gesagt,drei mal Qualität ab und fügst einmal hinzu.
 
DLSS
FSR
VRS
Radeon Boost
dynamische Auflösungsskalierung
und was weiss ich noch alles

Es sind ja nur noch solche Bildverschlimmbesserer im Trend. Turnt mich überhaupt nicht.
 
DLSS
FSR
VRS
Radeon Boost
dynamische Auflösungsskalierung
und was weiss ich noch alles

Es sind ja nur noch solche Bildverschlimmbesserer im Trend. Turnt mich überhaupt nicht.
+1 Ich spiel immer noch altmodisch Nativ. Interessant sind die Techniken wegen der aktuellen HW/Preis Lage aber trotzdem. Gerade auf den Konsolen wird es wichtig und wird es kommen.
 
Es zählt das was raus kommt. Bei ja per Definition künstlicher 3D Computer-Grafik von "gefaked" zu reden, erst recht wenn man von Raster Grafik spricht, ist absurd.
Es wird irgendwie versucht ein schickes Bild zu rendern. Wie das genau von statten geht finde ich zwar technisch sehr spannend, am Ende wird aber immer das aktiviert was im Optik/Leistungsbudget der aktuellen HW drin ist.Wenn ich mit "Super Resolution" eine bessere Optik bekomme als ohne wird es an gemacht, wenn nicht dann nicht.
DLSS hab ich selbst in Control übrigens aus gemacht weil ich die "schwimmenden" Artefakte nerviger fand als noch etwas unschärfere Darstellung bei klassischem Upsampling. Nativ war halt leistungsmäßig so oder so nicht drin, also auch keine nennenswerte Option.
Ich habs ausprobiert, die Kombimacht keinen Sinn. Der Gaussflter ist dazu einfach nicht wirklich geeignet,die doppelte Manipulation des Bildes macht einfach keinen Sinn. Du ziehst übertragen gesagt,drei mal Qualität ab und fügst einmal hinzu.
Danke für das Feedback. Hatte es selbst noch nicht getestet (wurde das 8k DLSS für die 20er Generation überhaupt freigeschaltet?).
 
In 2-3 Jahren packt keine "Next bzw. Current-Gen" Konsole einen First Party Kracher mit mehr als 30FPS ohne FSR, da wird die 60FPS angepeilt und zwar mit Upsampling^^.
Normalerweise lernen die Entwickler mit der Zeit die Konsole besser kennen und können mit der selben Hardware mehr herausholen.
Diese FPS, welche dir in den Kopf kommen, können ausschließlich sündhaft teure, nicht lieferbare GPUs leisten, die sich kein Mensch kauft, weil AFAIK eig. unnütze^^.
Die fps kommen nicht von mir, sondern von Sony und Microsoft. Die GPU in den Konsolen wird man so schnell nicht selbst wechseln können :D
Gott, nichtmal ne RTX3090/RX6900XT packen 4K 120Hz, teilweise nichtmal mit Quality DLSS, da willst du 120FPS mit ner Konsole?!
Davon war niemals die Rede. Es gibt nur die 2 (3) Konsolen mit gleicher Hardware, aber PCs/Laptops gibt es in 1000 facher Ausführung. Wenn du nur für eine Personen kochen musst, dann kannst du das Gericht auf diese abstimmen, aber wenn du für 100 Personen das selbe Gericht kochen musst, dann muss es jedem schmecken, ob sie mehr oder weniger Salz bevorzugt, egal, es muss schmecken.
 
Normalerweise lernen die Entwickler mit der Zeit die Konsole besser kennen und können mit der selben Hardware mehr herausholen.
War aber hauptsächlich noch als Konsolen exotische bzw eigenwillige Architekturen hatten. Jetzt sind sie den PC Architekturen mit Zen 2 und RDNA GPU recht nahe.
Lernkurve ist also nicht mehr so steil. APIs auch plattformübergreifend. Mit neuen Engine werden halt Dinge effizienter genutzt weil man jetzt Daten schneller von der SSD bekommt und Dinge wie VRS oder Mesh Shader einsetzen kann.

Aber es ist auch so dass man für 10% bessere Grafik immer höher werdenden Aufwand betreiben muss. Helfen dann wiederum Dinge wie Megascan Texturen aus damit Entwickler nicht ewig an hochauflösenden Details hocken muss.

PS5 und Series X werden recht schnell in 2-3 Jahren recht gut genutzt werden.

Bei PS3 und 360 ging Auflösung in Framerat in den letzten beiden Jahren des Konsolenzyklus wieder nach unten. Kannst halt hier mit guten Upscaler abfangen.
Selbst die UE5 Demos rennen fast nur mit internen Updcaler recht vernünftig.
 
@KuroSamurai117
Ja, da hast du auch wieder recht. Das geht bei den neuen Konsolen sicher schneller. Ich halte es aber immer noch für einen großen Vorteil bei den Konsolen. Man weiß was man hat. Entwickler müssen eh machen was sie gesagt bekommen, ich hoffe einfach, dass es nicht nach hinten losgeht und die fps Optimierung auf der Strecke bleibt, weil man mit DLSS und FFSR mehr fps rausbekommt.
 
Der Open Source Ansatz soll nach der Logik direkt 100% abdecken? Mitnichten, der muss auch in die Engines / Games implementiert werden. Sonst hätte man in der Präsentation bestimmt nicht erwähnt dass bereits 10 Engines / Studios FSR implementieren.
Die Aussage von AMD kannst du so oder so in den Mülleimer geben. OpenSource heißt in der Regel schlecht unterstützt oder die Technik dümpelt mit schlechtem Support vor sich her, bis sie final aufgegeben wird.

Die 10 Engines / Studios sind reines Marketing. Entweder das oder es sind die üblichen AMD "Haus und Hofprogrammier" am Werk. Godfall zum Beispiel ist absolut für AMD optimiert. Ob das andere Studios bringen ist zurzeit mehr als fraglich.

Edit: Und dass Du keine einzige oft verwendet Engine aufzählen kannst die keinen DLSS Support bekommt spricht für sich...
Vergiss besser jeden Versuch einer Diskussion mit gewissen Leuten. Einige von diesen Kandidaten haben sich so auf Nvidia / DLSS eingeschossen, das ist nicht mehr feierlich.

Jetzt deutet AMD etwas ähnliches auch nur and und plötzlich ist die Technik der Heilsbringer? Auch mit übelst aussehender erster Präsentation?

Die üblichen Heuchler gehen voll in den "Messen mit zweierlei Maß Modus" über. DLSS haben sie zerissen mit allen möglichen unsinnigen Pseudo-Argumenten, obwohl Nvidia wieder und wieder geliefert hat.

Es zählt das was raus kommt. Bei ja per Definition künstlicher 3D Computer-Grafik von "gefaked" zu reden, erst recht wenn man von Raster Grafik spricht, ist absurd.
Richtig!
Vor allem wenn man Techniken wie "Culling" , "Mesh Shading" oder diverse "Anti-Aliasing" Ansätze dazu nimmt.

Die Diskussion um "Nativ" ist sowieso unsinnig. Bei Videos sage ich dazu im Prinzip nichts. PC-Videospiele sind da aber ein anderes Kaliber. Von daher stimme ich deinem ersten Satz voll zu!

Wenn ich mit "Super Resolution" eine bessere Optik bekomme als ohne wird es an gemacht, wenn nicht dann nicht.
Besser ist da noch garnichts. Davon sind wir noch Welten entfernt.

Was AMD da geliefert hat, bekommt man heute schon mit Drittanbieter Tools und Upscalern hin. Die Ergebnisse lassen allerdings zu wünschen übrig. Deshalb überzeugt die FFX Technologie noch nicht wirklich.

DLSS hab ich selbst in Control übrigens aus gemacht weil ich die "schwimmenden" Artefakte nerviger fand als noch etwas unschärfere Darstellung bei klassischem Upsampling. Nativ war halt leistungsmäßig so oder so nicht drin, also auch keine nennenswerte Option.
Control hatte eine extreme Zeit mit DLSS v1.9 und Shader-basiertem DLSS-Modus. Ab Version 2.0 wurden die größten Mängel beseitigt und es gab Lob von überall. Das ist erst einmal eine Hausnummer an die AMD sich orientieren muss. Auf leere Versprechen und Marketinggewäsch falle ich inzwischen nicht mehr herein!

Ich bin hier auch so fair und behaupte es ist evtl. Ansichtssache, ob man eher Artefakte oder verwaschenen Pixelmatch bevorzugt.
 

fünf.
Und ja, ehe jemand nachfragt: Sowas wie TAA, FXAA & Co schalte ich in aller Regel ab, MSAA mit weniger als acht Samples erachte ich auch eher als Flimmerbremse denn Bildverbesserer. Einzig mit ×4 SSAA alias DSR habe ich mich mittlerweile angefreundet. Aber ich gehöre ja auch noch zu der Generation, die aus dem Kopf Unterschiede zwischen EGA und VGA nennen kann und nicht zwingend alle Pixel zu Brei verrühren will. :-D


Mit der 8k Unterstützung für DLSS ist die Technik ja sogar effektiv da. Also 8k@DLSS Quality downsamplen auf UHD müsste in die Richtung gehen.
Nur das HUD sieht dann halt so mittel toll aus wenn man die Funktion nicht intern handhabt.

Man kann sich zwar drum herum mogeln, aber soweit ich weiß erlauben Nvidia-Treiber bis heute keine direkte Kombination beider Techniken. (Nachgucken kann ich gerade nicht, weil das Nvidia Control Panel am Privat-PC seit ein paar Tagen streikt. Wo sind noch mal die Leute, die immer vehement für dessen Abschaffung eintreten? I would like to have a word with you. Outside.)


Bei NV ist leider sehr wenig bekannt was die reale Auslastung an geht.
Aber ja, Inferencing ist allgemeine eher billig. Die vielen Tensor Kerne wären eher zum lernen nötig, aber der Teil passiert ja offline.

Ich glaube, bislang wurde nicht einmal der Flächen- oder Platzbedarf der Tensoreinheiten geklärt, oder? Ohne zu wissen, was die Teile kosten, könnte man auch exakt bekannten Nutzen nicht sinnvoll bewerten.


Es zählt das was raus kommt. Bei ja per Definition künstlicher 3D Computer-Grafik von "gefaked" zu reden, erst recht wenn man von Raster Grafik spricht, ist absurd.
Es wird irgendwie versucht ein schickes Bild zu rendern. Wie das genau von statten geht finde ich zwar technisch sehr spannend, am Ende wird aber immer das aktiviert was im Optik/Leistungsbudget der aktuellen HW drin ist.Wenn ich mit "Super Resolution" eine bessere Optik bekomme als ohne wird es an gemacht, wenn nicht dann nicht.
DLSS hab ich selbst in Control übrigens aus gemacht weil ich die "schwimmenden" Artefakte nerviger fand als noch etwas unschärfere Darstellung bei klassischem Upsampling. Nativ war halt leistungsmäßig so oder so nicht drin, also auch keine nennenswerte Option.

Danke für das Feedback. Hatte es selbst noch nicht getestet (wurde das 8k DLSS für die 20er Generation überhaupt freigeschaltet?).

Der Unterschied zwischen Treiber-"Fakes" und Grafik-"Optimierung": Wenn es ein Entwickler für sein Spiel macht, dann kommt mit hoher Wahrscheinlichkeit etwas bei raus, dass näher an der Vision des Entwicklers liegt. Wenn Bilder nachträglich schöngerechnet werden sollen, resultieren dagegen immer wieder die von dir angesprochenen Artefakte. Je nach persönlichem empfinden, kann letzteres die Immersion deutlich stärker stören – ich laufen viele Leute rum, die sich auch schon in der definitiv detailärmeren, matschigeren, niedrig aufgelösten Grafik von 15, 20 oder 25 Jahre alten Spielen verlieren konnten, bei denen aber schon ein einfaches Kompressions-Artefakt die Alarmglocken schellen lässt. Manchmal ist es besser, einfach weniger anzuzeigen als etwas falsches.
 
Zurück