Control: Nvidia DLSS-Support soll mehr Details und bessere Performance bringen

Man muss schon ganz schön verblendet sein um DLSS durchgehend als gut zu bezeichnen. Mir sind bisher nur ein paar Ausnahmen untergekommen, wo DLSS brauchbar wirkte und selbst dort war diskussionswürdig, ob ordinäres hochskalieren mit Schärfefilter nicht ebenbürdig ist.
 
Ich glaub kein Wort von dem Schmarrn!
Erst wenn ich es selbst sehe, bzw unabhängige Tester es bestätigen.

Hier, überzeuge Dich einfach selbst (interne Renderauflösung von 1080p mit DLSS auf 4K hochgerechnet):

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Diese kleine Popel-KI auf einer GPU schafft das niemals! Die Datenmengen aus Rechenzentren müssten vorher geladen werden, bei den heimischen Leitungen... ;D

Da hat jemand nicht verstanden, wie Machine Learning funktioniert. Der Aufwand entsteht im Rechenzentrum (und der ist enorm). Wenn die KI dort fertig trainiert wurde, entsteht ein relativ kleiner (vergleichsweise) Datensatz an Instruktionen, wie die GPU im heimischen PC dann zu rendern hat. Die GPU selbst macht weder KI noch betreibt sie das dafür notwendige Machine Learning.

Du findest diesen Ansatz übrigens nicht nur auf nVidia GPUs, sondern auch in Deinem Smartphone und vielen anderen Geräten und Einsatzszenarien. Quasi überall, wo KI auf Endgeräten zum Einsatz kommt.
 
Ich weiß nicht, warum hier jeder rummotzt.

Hab Control auf meiner RTX 2070 Super getestet und DLSS funktioniert perfekt. 720p DLSS sieht nahezu genau so gut aus wie natives 1080p.

Und nein, diese Qualität lässt sich nicht einfach mit 720p+Sharpening erreichen.

Du hast Recht, sie wird nicht nur erreicht, sie wird vollkommen überboten und ist überall verfügbar.
YouTube

Und für FHD ist es nicht 720p sondern 900p+Sharpening
 
made my day:lol::lol::lol:.

Du kennst aber schon den Unterschied zwischen aktivem Spielen, also dem Berechnen in Echtzeit und dem abspielen von passivem Material?

Letzteres kann auch eine Kartoffel und in Auflösung X darstellen, für ersteres gibt es sagenumwobene Grafikkarten welche den Job dann in Echtzeit erledigen, nebenbei aber auch noch sämtliches andere abarbeiten, anstatt nur eine passive Bildinformation zu skalieren;)

Ich glaube, Du hast nicht verstanden, was er meinte. Oder Du verstehst selbst nicht, wie das ganze funktioniert. Selbstverständlich skaliert auch ein TV Bildinhalte *aktiv* hoch. Der macht nichts anderes, als eine Grafikkarte, die hoch skaliert. Ob ein Bewegtbild, das skaliert werden muss, von einem x-beliebigen Film kommt oder von einem Spiel, macht nicht den allergeringsten Unterschied.
 
ich dachte, bis NV mit seinem DLSS kam, man wäre dabei ehr downsampling zu verwenden,
also zb in 4k das spiel zu berechnen und dann auf 1080p runter zu skallieren und dafür auf kantenglättungen usw zu verzichten.

finde ich gut, würde dafür auch eine bessere grafikkarte nehmen als das was ich derzeit habe.

umgekehrtes, DLSS will ich nicht und ist mit sicherheit verlustbehaftet egal was für KI oder sonstwas da hinter steckt.
was nicht da ist, kann man nicht schönrechnen.

NV, behaltet den kram, will ich nicht......
und gleich dazu:
und was RT angeht, was ich für sinnvoll halte, kommt wieder wenn es leistungfähig ist, also in 2-3generationen wenn ihr das weiter ausbaut....
 
umgekehrtes, DLSS will ich nicht und ist mit sicherheit verlustbehaftet egal was für KI oder sonstwas da hinter steckt.
was nicht da ist, kann man nicht schönrechnen.

Wenn die KI gut trainiert wurde, ist es eher nicht verlustbehaftet (eigentlich gar nicht, denn es wird ja etwas hinzugerechnet, das vorher nicht da war). DLSS wird eher von diversen Artefakten geplagt, vornehmlich Noise. Das trifft aber auf so ziemlich alle "Kantenglättungsmechanismen" und sonstige "Bildverbesserer" zu, die alle so ihre unterschiedlichen Nachteile haben. Perfekt ist keiner davon.

Davon abgesehen ist KI mittlerweile sehr mächtig, und kann Dinge errechnen, die Du vom original Vorbild nicht mehr unterscheiden kannst. Stichwort Deep Fakes. Oder z.B. die bekannten Superzeitlupenaufnahmen, die aus 30 FPS Source Material entstehen. Die durch KI berechneten Zwischenframes lassen sich kaum von einer echten Superzeitlupe unterscheiden. Es gibt zahlreiche Beispiele für sowas. Darunter auch das Spiel Control, das hier im Artikel diskutiert wird. Schau Dir mal das Video an, das ich oben verlinkt habe. Der Unterschied zwischen 1080p per DLSS auf 4K hochgerechnet und 4K nativ ist quasi nicht erkennbar, es sei denn, man betreibt Pixel Peeping am Standbild. Dazu hat man beim Spielen in der Regel allerdings keine Zeit ;)

Keine Frage, es gab anfangs unglaublich schlechte DLSS Implementierungen (BFV, Anthem...). Spiele wie Metro Exodus und nun auch Control zeigen jedoch, dass es auch anders geht.

Der Scaler ist aber auch nur ein sehr kleiner Teil einer GPU.

Richtig. Der Punkt, den der Kollege gemacht hat, war aber, dass es einen Unterschied zwischen dem Skalieren von bewegten Filminhalten und bewegten Spielinhalten gibt und der Aufwand bei letzterem deutlich höher sei. Daher reiche im TV ein einfacher Scaler und bei Spielen müsse eine fette GPU ans Werk. Das stimmt so schlicht nicht. Logischerweise.

Und dann sich über Konsolen lustig machen, wenn diese nicht nativ die 1080p oder 4k schaffen, weil zu wenig Leistung. Auf dem PC hingegen kauft man sich deutlich stärkere Grafikkarten und schraubt mit DLSS freiwillig die Auflösung runter :ugly:

Der Unterschied zur Konsole ist hier allerdings, dass die Konsole nur in 1080p ausgibt. Bei DLSS ist die Ausgabeauflösung höher als die Renderauflösung. Hier werden Äpfel mit Birnen verglichen.
 
Keine Frage, es gab anfangs unglaublich schlechte DLSS Implementierungen (BFV, Anthem...). Spiele wie Metro Exodus und nun auch Control zeigen jedoch, dass es auch anders geht.

Also direkt am Anfang konnte ich die Unschärfe sehen, die DLSS bei Metro verursacht. Bei Control fällt DLSS aber wirklich nicht weiter auf, jedoch ist die Grafik auch so schon sehr von Unschärfe geprägt. Laut CB hilft DLSS sogar ein wenig dagegen. Ich sehe die Unschärfe zusammen mit den Schattenartefakten aber mittlerweile als eigenwilligen Grafikstil. Dem spaßigen Gameplay schadet es imo sowieso nicht.
 
Wenn die KI gut trainiert wurde, ist es eher nicht verlustbehaftet (eigentlich gar nicht, denn es wird ja etwas hinzugerechnet, das vorher nicht da war). DLSS wird eher von diversen Artefakten geplagt, vornehmlich Noise. Das trifft aber auf so ziemlich alle "Kantenglättungsmechanismen" und sonstige "Bildverbesserer" zu, die alle so ihre unterschiedlichen Nachteile haben. Perfekt ist keiner davon.

Davon abgesehen ist KI mittlerweile sehr mächtig, und kann Dinge errechnen, die Du vom original Vorbild nicht mehr unterscheiden kannst. Stichwort Deep Fakes. Oder z.B. die bekannten Superzeitlupenaufnahmen, die aus 30 FPS Source Material entstehen. Die durch KI berechneten Zwischenframes lassen sich kaum von einer echten Superzeitlupe unterscheiden. Es gibt zahlreiche Beispiele für sowas. Darunter auch das Spiel Control, das hier im Artikel diskutiert wird. Schau Dir mal das Video an, das ich oben verlinkt habe. Der Unterschied zwischen 1080p per DLSS auf 4K hochgerechnet und 4K nativ ist quasi nicht erkennbar, es sei denn, man betreibt Pixel Peeping am Standbild. Dazu hat man beim Spielen in der Regel allerdings keine Zeit ;)

Keine Frage, es gab anfangs unglaublich schlechte DLSS Implementierungen (BFV, Anthem...). Spiele wie Metro Exodus und nun auch Control zeigen jedoch, dass es auch anders geht.



Richtig. Der Punkt, den der Kollege gemacht hat, war aber, dass es einen Unterschied zwischen dem Skalieren von bewegten Filminhalten und bewegten Spielinhalten gibt und der Aufwand bei letzterem deutlich höher sei. Daher reiche im TV ein einfacher Scaler und bei Spielen müsse eine fette GPU ans Werk. Das stimmt so schlicht nicht. Logischerweise.



Der Unterschied zur Konsole ist hier allerdings, dass die Konsole nur in 1080p ausgibt. Bei DLSS ist die Ausgabeauflösung höher als die Renderauflösung. Hier werden Äpfel mit Birnen verglichen.


Mit DLSS ist der Auflösung Unterschied nicht erkennbar, bei dem Spiel ist allgemein ein Unterschied schwer zu erkennen!

Außerdem hat die Xbox one 720p, PS4 900p, Pro 1080p, X 1440p. Die Settings sind Low oder Medium dort, auf dem PC heißt 30% mehr FPS Medium
und die Konsolen kämpfen um die 30 Fps. Was auch kein Wunder ist warum nur die X das Spiel überhaupt Spielbar hin bekommt, alle andren haben Standbilder und starke FPS drops.
Die X hat nur die FPS drops und das war nur der Anfang später wird es noch fordernder.



DLSS hat so viele Probleme die praktisch nie angesprochen werden, in Metro gibt es fast keinen Unterschied. Ja bis auf Eckige Spinnennetze und Baumstämme
als Beispiel merkt man es bestimmt nicht das es Aussieht wie hinter einem Vorhang. Wenn das fast keine Unterschiede sind dann kann man gleich die Settings Reduzieren
sind ja fast keine Unterschiede.
Erst war Upscaling verpönt auf dem PC und kaum macht Nvidia das selbst dann ist ganz toll. Upscaling hat immer Nachteile und gerade DLSS hat viele Fehlberechnungen
und meine Meinung ist hätte man nicht nur 35% mehr GPU Leistung gebracht müsste man gar nicht auf so eine Idee kommen.
Vielleicht sollte Nvidia mal die Kunden im Fokus haben woher sie ihr Geld haben, genau das tut Nvidia nämlich nicht mehr. DLSS gibt es nur weil sie irgend wie das ganze Rechtfertigen wollen,
für RT sind Karten zu langsam jeder der wirklich spielt kennt die Probleme damit. Shadow of the Tomb raider läuft super auf einer 2070 ja sogar auf Geforce, bis man gewissen Blätterhaufen zu nahe kommt.
RT hat ein riesen Problem das die Spiele nicht dafür Entwickelt werden und es nur ein Überzug ist. Problematische stellen gibt es Haufen weise in solchen Titeln, man konnte ja nicht damit rechnen das viele Blätter ein Problem darstellen
in einem Spiel in einem Jungel.

DX12 kann man in Control total vergessen Standbilder, Fps drops DX12 zeigt sich hier in seiner ganzen Pracht. Das will man dann in Kauf nehmen für RT plus schlechte FPS und Random Abstürze.
Das gibt sich doch keiner Freiwillig und da es DLSS ja nur ab einer 2060 gibt stellt sich sowieso die Frage wozu. 1080p auf Max in DX11 60 Fps bekommt man mit der GPU Klasse gut hin und hat man den Abspann gesehen
wird man das nicht spielen wollen.
Deswegen zählt für die allermeisten Spieler wie läuft es zu release, ich hab es durch und kann sagen RAM Bandbreite ist alles bei dem Spiel.
 
@jadiger: Endlich mal einer, der raushaut so wie es teilweise auch tatsächlich ist. Hier wird die Nvidia-Technik teilweise so unrealistisch gefeiert, dass sich die Balken biegen. Bloß nichts Negatives sagen, es ist ja der heilige Grahl.

Gleich kommt wieder Polys Standardreaktion: Kann ich so nicht bestätigen... :ugly::D
 
Und dann sich über Konsolen lustig machen, wenn diese nicht nativ die 1080p oder 4k schaffen, weil zu wenig Leistung. Auf dem PC hingegen kauft man sich deutlich stärkere Grafikkarten und schraubt mit DLSS freiwillig die Auflösung runter :ugly:

Dafür halt RT hoch, was die Konsolen zu einer Diashow degradieren würde. Und DLSS ist prinzipiell ein vielversprechenderer Ansatz als Checkerboarding und normales Upscaling.

Wenn die KI gut trainiert wurde, ist es eher nicht verlustbehaftet (eigentlich gar nicht, denn es wird ja etwas hinzugerechnet, das vorher nicht da war).

Die meisten hier gehen hier scheinbar davon aus, dass eine Auflösung mit der gleichen Auflösung, die durch DLSS erreicht wurde verglichen werden muss. Dann ist es schon verlustbehaftet.

Der Unterschied zur Konsole ist hier allerdings, dass die Konsole nur in 1080p ausgibt. Bei DLSS ist die Ausgabeauflösung höher als die Renderauflösung. Hier werden Äpfel mit Birnen verglichen.

Konsolen können auch in 4K ausgeben. Aber der Upscalingprozess ist halt in aller Regel simpel bilinear.

Erst war Upscaling verpönt auf dem PC und kaum macht Nvidia das selbst dann ist ganz toll. Upscaling hat immer Nachteile und gerade DLSS hat viele Fehlberechnungen

Naja, es ist halt deutlich mehr simples Upscaling und auch wenn die Ergebnisse jetzt wohl durchwachsen sind, finde ich den Ansatz vielversprechend, auch wenn er nicht alles halten konnte. Es überrascht mich ehrlich gesagt auch, weil mit KI in den Bereichen eigentlich wirklich erstaunliche Sachen möglich sind.
 
DLSS in Control funktioniert eher mangelhaft. Ohne Sharpening Filter ist die Bildqualität sehr unscharf und blass. Ich verstehe auch nicht, wie die Leute das wieder schönreden müssen.

Hier mal Vergleichsbilder von SKu bei CB: Test - Control mit RTX & DLSS im Test: Von sehr huebsch bis fehlerhaft ist alles dabei| Seite 26 | ComputerBase Forum
Bei deinem Link schreibt SKu aber
[FONT=&quot]Dafür sieht das Bild halt definitiv wesentlich besser aus.[/FONT]
Schreibt der auch schön? Oder Widersprichst du dir gerne?
 
Ist für mich schwer nachvollziehbar, warum immer alles so schwarz und weiß betrachtet werden muss. Manche hier scheinen das Thema wie so oft auf "AMD vs. nVidia" zu reduzieren. Wenn man die Sache allerdings objektiv betrachtet - und vor allem ohne Markenbrille - wird man schnell feststellen, dass DLSS sicher nicht perfekt ist. Das kann man allerdings von fast keiner "grafischen Errungenschaft" behaupten. Ist ja nicht so, als wären Technologien wie Temporal Antialiasing, Screen Space Reflections, Ambient Occlusion etc. alle problemfrei - im Gegenteil - die bringen alle ihr eigenes Set an grafischer Grütze mit sich.

Es geht immer um einen Kompromiss, so auch bei DLSS. Raytracing sieht fantastisch aus, braucht aber massiv Performance - eine für viele nicht erreichbare Performance. Da kann DLSS Abhilfe schaffen. Man muss sich dann eben entscheiden, ob man ein paar Artefakte oder von mir aus auch eine etwas unschärfere Darstellung in Kauf nimmt und dafür das Bild durch Raytracing massiv aufwertet, oder ob man lieber auf Raytracing verzichtet, um das schärfste Bild zu erhalten. Wobei man da dann unter Umständen mit der Unschärfe und dem Kantenflimmern von AA zu kämpfen hat.

Perfekt gibts halt nicht. Nirgendwo. DLSS hat durchaus seine Probleme, sieht in vielen Fällen aber weit weniger schlimm aus, als es oftmals kolportiert wird.

Ich kann nur noch mal anbieten, dass man sich das Video von Digital Foundry anschaut, das ich weiter oben verlinkt habe. Ich war davon jedenfalls sehr positiv überrascht und hatte nicht bemerkt, dass es sich beim gezeigten Material nicht um natives 4K handelt. Ich musste erst darauf hingewiesen werden (der Hinweis erfolgt erst relativ spät im Video).
 
Zurück