Xbox Series X: Raytracing bei Entwicklern offenbar unbeliebt

Die Belichtungszeit ist doch auch nativ, es kommen ja keine Informationen hinzu die nicht da sind sondern diese werden nur sichtbarer gemacht und das hat rein gar nichts mit upscaling zu tun
Genau- Deswegen ist der Ausdruck "Upscaling" für DLSS auch falsch gewählt. An sich ist es eher DSR denn "Upscaling". Das Wort Super Sampling, welches sich aus den letzten Buchstaben speist, ist da eigentlich eindeutig.
Die Leute greifen sich aber hier immer nur EINEN Verarbeitungsschritt der gesamten Pipeline (der der dem Rasterderivat der nativen Auflösung entspräche) raus und reimen sich dann ihr eigenes Zeug zusammen.

sondern diese werden nur sichtbarer gemacht und das hat rein gar nichts mit upscaling zu tun
Es ist genau das gleiche Prinzip. Es werden über die Zeit mehr Photonen gesammelt, die auf das Pixelraster eines Sensors fallen können und somit wird über die Zeit das Bilderpuzzle besser vervollständigt.
Auch bei DLSS werden keine Informationen hinzugefügt, die vorher nicht da waren, denn die Quellinformation, aus welcher DLSS die Information sammelt, also den Geometriedaten, ist beliebig groß. Es wird nur mit geringerer Auflösung, dafür aber deutlich länger und in unterschiedlichen Perspektiven auf das Szene geschaut.

Ich kann beim Rastern aufgrund dieser Basisinformation jedes Bild in beliebiger Auflösung fahren. Ab 10x10 Pixel oder 64k - Die Bilder speisen sich immer aus dem gleichen Ursprungsmaterial, welches unbegrenzt skalieren kann, weil es aus Geometriedaten und deren Koordinaten besteht. Darasu speist auch ein DLSS seine Informationen.
 
Zuletzt bearbeitet:
Nein, DLSS sieht "nicht besser aus" sondern enthält objektiv mehr Informationen als das native 4k Bild, es ist also objektiv besser und prinzipiell sogar "höher aufgelöst" (da mehr Details sichtbar werden).

Du darfst den zeitlichen Aspekt nicht vergessen: Es wird zwar mit verringerter Auflösung gerendert, aber es werden auch die Informationen aus dem vorhergehenden Bildern mit verwendet. Und theoretisch, neben all dem AI Gedöns, kann es auch durchaus sein, dass man ähnlich wie beim PS4 Checkerboard die Bilder immer um einen Subpixel versetzt rendert, um auch Details, die eigentlich unterhalb der Renderauflösung liegen, noch mit erfassen zu können.

Klassisches Rendern mit pixelgenauer Berechnung war immer im Grundsatz fehlerbehaftet und man sollte sich von dem Gedanken trennen, dass ein auf Pixel exakt berechnetes Bild in der gegebenen Auflösung das Optimum darstellt. Die ganzen AA Methoden wurden ja genau deswegen entwickelt, weil es eben weit weg vom Optimum ist.

Ein Bild in unendlicher Auflösung (das ist das, was man als "Original" bezeichnen muss!) hat kein Aliasing und braucht auch kein AA. Und wenn DLSS dem näher kommt ohne Information zu verlieren, dann ist es in jeder Hinsicht einfach nur besser als nativ!
 
Zuletzt bearbeitet von einem Moderator:
Es ist eigentlich ganz simpel, kann bei der Methodik das Original 100 %ig rekonstuiert werden, dann ist es verlustfrei und genau das geht bei DLSS nicht, da dort antrainierte Informationen anhand von Beispielberechnungen hoch aufgelöster Bilder vorab, "hinzugerechnet" werden und nicht mehr 100 % ig dem Original entsprechen, was man ja auch im Detailvergleich sehen kann. Es ändert nichts daran das der visuelle Eindruck schöner ist, es geht dabei schlicht um das Original. Anders ist es bei Downsampling von einer höheren Auflösung auf 4k, da wird jedes Bild eins zu eins vom Original berechnet. Und am besten ist einfach gleich eine höhere Auflösung zu verwenden, dass hat dann den gleichen Effekt wie DLSS ist aber verlustfrei und wie ich bereits mehrfach schrieb, entsprechende Leistung vorausgesetzt, ist nativ einem verlustbehaftetem AI upscaling immer zu bevorzugen.

DLSS ist schon gut und es macht was es soll, es spart Leistung ein bei augenscheinlich gleichem Output/ vermeintlich Besserem.

MfG
 
DaStash, Du hast nicht verstanden, was ich sagen wollte. Ich weiß nicht, wie ich es noch besser ausdrücken kann, deswegen meine Bitte, mein Posting nochmal langsam und genau zu lesen. Die Aussage "das Original 100 %ig rekonstuiert werden" von Dir stimmt schon im Ansatz nicht, da Du meinst, das 4k nativ gerenderte Bild wäre "das Original". Das ist es aber nicht.

Bitte versuch den Gedanken nachzuvollziehen, ok?
 
Es ist eigentlich ganz simpel, kann bei der Methodik das Original 100 %ig rekonstuiert werden, dann ist es verlustfrei und genau das geht bei DLSS nicht
Das kannst Du aber bei dem Bild, welches Du als NATIV bezeichnest auch nicht, weil es nicht nativ ist. Es ist ein "Screenshot" der Szene, in einer gewissen Auflösung und somit enorm verlustbehaftet.
Je nachdem welche Auflösung der Screenshot hat, mal mehr, mal weniger. Das ist das Grundprinzip des Rasterns.

Nochmal. Du hast eine Kamera und fotografierst eine Szene mit einer 1080P Kamera. Beim zweiten Mal hast Du eine Vorrichtung mit einer Kamera, die zwar intern nur 720P auflöst, aber intern durch Kippspiegel das Bild immer ein Stückchen versetzt viele, viele Male aufnimmt und dann zum Schluss das Bild wieder in groß zusammensetzt.

Das hat nix mit KI und nix mit dem Inferencing von DLSS 1.0 zu tun, und nur durch diesen normalen, rein rasterbasierten Vorgang, hast Du, je nach Anzahl der Fotos, die Du mit zweiter Variante schließt, schon ein deutliches Auflösungsplus gegenüber der nativen Variante. So arbeiten im Übrigen viele der heutig erhältlichen 4K Beamer. Die haben ein 1080P Panel, welches in schneller Abfolge hinterinander mehrfach um einen Pixel "geshiftet" wird. Daraus ergibt sich dann ein hochaufgelöstes Gesamtbild.
Die KI bei DLSS2.0 schaut nur, dass die Pixel der niedrig aufgelösten Kamera mit den vielen Aufnahmen auch fehlerfrei wieder zusammengesetzt werden, da sich das Bild eines Computerspiels ja laufend in Bewegung befindet.

da dort antrainierte Informationen anhand von Beispielberechnungen hoch aufgelöster Bilder vorab, "hinzugerechnet" werden und nicht mehr 100 % ig dem Original entsprechen, was man ja auch im Detailvergleich sehen kann.
Die KI hat in DLSS 2.0 komplett andere Aufgaben. Die KI ist dort nebst professionellem "Puzzlespieler" und "Pixelzusammensetzer" als Mustererkennungsverfahren zu sehen, welches die Charakteristika eines Bildes NACH dem ganzen Prozess, der die hochauflösenden Bilder erzeugt, der Ground Truth annähert.
Das ist der letzte Schliff, indem Artefakte und noch ungeglättete Kanten nachbehandelt werden.

Es ändert nichts daran das der visuelle Eindruck schöner ist, es geht dabei schlicht um das Original.
Du erhältst mit DLSS aber das Original mit mehr Bildinformation!

Anders ist es bei Downsampling von einer höheren Auflösung auf 4k, da wird jedes Bild eins zu eins vom Original berechnet.
Bei DLSS auch. DLSS 2.0 ist kein upsampling- Verfahren! Es ist supersampling. Sammelt also mehr Informationen, als in der nativen Auflösung ursprünglich vorgesehen.

Und am besten ist einfach gleich eine höhere Auflösung zu verwenden, dass hat dann den gleichen Effekt wie DLSS ist aber verlustfrei
Nein- Du hast ein SCHLECHTERES Bild und spürbar weniger Leistung, mit dem Vorteil, dass der Lag von einem Frame, der durch die Bildanalyse induziert wird wegfällt.

und wie ich bereits mehrfach schrieb, entsprechende Leistung vorausgesetzt, ist nativ einem verlustbehaftetem AI upscaling immer zu bevorzugen.
Nur dass wir hier nicht von einem verlustbehafteten AI upscaling sprechen.
 
Zuletzt bearbeitet:
DaStash, Du hast nicht verstanden, was ich sagen wollte. Ich weiß nicht, wie ich es noch besser ausdrücken kann, deswegen meine Bitte, mein Posting nochmal langsam und genau zu lesen. Die Aussage "das Original 100 %ig rekonstuiert werden" von Dir stimmt schon im Ansatz nicht, da Du meinst, das 4k nativ gerenderte Bild wäre "das Original". Das ist es aber nicht.

Bitte versuch den Gedanken nachzuvollziehen, ok?
Ja, ich verstehe das, weswegen ich ja auch sage das dann DS@4k "nativer" <--- in Anführungsstrichen, ist als DLSS, da dort 100 % des tatsächlichen Ausgangsmaterials genutzt wird, im Vergleich zu DLSS, wo das nur anhand einer antrainierten Annahme geschieht und noch besser ist dann natürlich die direkte und höhere Auflösung. Ausgehend davon das du in Auflösung X rendern kannst, ist demnach natürlich alles verlustbehaftet, da man das schlicht nicht darstellen kann aber es gibt ja so etwas wie ein Target und da macht es einen Unterschied ob man 100 % Originalinformation zur Darstellung nutzt, auch und vor allem wenn DS zum Einsatz kommt oder ob den Bildern anhand antrainierter Algorithmen Informationen hinzugefügt werden. Ersteres also DS, ist dabei selbstverständlich, da Originalinformation zu 100 % vorhanden, nicht verlustbehaftet, bzw. weniger, im Vergleich zu DLSS aber frisst natürlich entsprechende Leistung.

Im direkten Vergleich zwischen DS@4k sollte das besser aussehen als DLSS@4k, da dort die tatsächlich vorhanden Informationen verarbeitet werden und nicht nur die antrainiert Angenommenen.

Ich hoffe du verstehst auf was ich hinaus will.

Nochmal. Du hast eine Kamera und fotografierst eine Szene mit einer 1080P Kamera. Beim zweiten Mal hast Du eine Vorrichtung mit einer Kamera, die zwar intern nur 720P auflöst, aber intern durch Kippspiegel das Bild immer ein Stückchen versetzt viele, viele Male aufnimmt und dann zum Schluss das Bild wieder in groß zusammensetzt.
Was hat das mit deinem vorherigen Beispiel bezüglich der Belichtungszeit zu tun?

Bei deinem nun benannten Beispiel werden tatsächlich vorhanden Informationen aufgenommen und zusammengefügt. Bei DLSS werden angenommenen Informationen hinzugefügt, die durch Antrainieren der KI auf Grundlage hochaufgelöster Beispielbilder entstehen. Das hinzufügen aus einer nicht 100 % Originalquelle ist doch perse schon verlustbehaftet, egal ob Informationen entfallen oder hinzugefügt werden, da du im Detail logischer Weise vom 100 % Original abweichst und somit laut Definition es sich um ein verlustbehaftetes Verfahren handelt.

Das hat nix mit KI und nix mit dem Inferencing von DLSS 1.0 zu tun, und nur durch diesen normalen, rein rasterbasierten Vorgang, hast Du schon ein deutliches Auflösungsplus gegenüber der nativen Variante.
Die KI bei DLSS2.0 schaut nur, dass die Pixel der niedrig aufgelösten Kamera mit den vielen Aufnahmen auch fehlerfrei wieder zusammengesetzt werden, da sich das Bild eines Computerspiels ja laufend in Bewegung befindet.
Ich verstehe das schon mit dem Auflösungplus und die Frage ist ja nicht ob es das gibt, da sind wir uns einig, sondern wie man dahin gelangt, ob nativ und direkt durch DS oder aber durch ein AI Verfahren was anhand von antrainierten annahmen Details rekonstruiert und hinzufügt. Letzteres kann nicht 100 % ig dem Original entsprechen und genau das sieht man doch auch bei diversen Vergleichsscreens.

Die KI hat in DLSS 2.0 komplett andere Aufgaben. Die KI ist dort nebst professionellem "Puzzlespieler" und "Pixelzusammensetzer" als Mustererkennungsverfahren zu sehen, welches die Charakteristika eines Bildes NACH dem ganzen Prozess, der die hochauflösenden Bilder erzeugt, der Ground Truth annähert.
Das ist der letzte Schliff, indem Artefakte und noch ungeglättete Kanten nachbehandelt werden.
Versucht anzunähern, anhand einer antrainierten Logik, die aber nicht in Gänze einer Bild für Bild DS Methode entspricht und letztere basiert reell auf 100 % Renderinfos, jeh nach dem in welchem Grad DS ausfällt.

Du erhältst mit DLSS aber das Original mit mehr Bildinformation!
Und genau das ist eben der Knackpunkt, man erhält nicht 100 % ig das Original. Wenn es nur 99,5 % sind, es ist dann verlustbehaftet.

Bei DLSS auch. DLSS 2.0 ist kein upsampling- Verfahren! Es ist supersampling. Sammelt also mehr Informationen, als in der nativen Auflösung ursprünglich vorgesehen.
Ja

Nein- Du hast ein SCHLECHTERES Bild und spürbar weniger Leistung, mit dem Vorteil, dass der Lag von einem Frame, der durch die Bildanalyse induziert wird wegfällt.
Ja, bei der Leistung, hatte ich ja schon mehrfach geschrieben, stimme ich zu beim Bild aber nicht, jedenfalls nicht bei DS@4k. Bei reinem 4k mag das so sein aber davon rede ich ja nicht.

mfG
 
Zuletzt bearbeitet:
Ist doch egal wie die Technik dahinter ist, wichtig ist dass DLSS 2.0 besser wie das native 4K Bild aussieht und dabei enorm viel Performance frei wird.
 
@DaStash:
Ja, aber Du berücksichtigst meinen Einwand mit dem zeitlichen Aspekt und dem Subpixel versetzten Rendering nicht.
 
Ist doch egal wie die Technik dahinter ist, wichtig ist dass DLSS 2.0 besser wie das native 4K Bild aussieht und dabei enorm viel Performance frei wird.
Eigentlich nicht, weil ja dadurch, dass die Technik nicht verstanden wird, die ganzen Missverständnisse um eine mögliche Qualität von DLSS gestrickt sind.

Sind halt immernoch viele der Meinung, dass ich ein 720p Bild generiere und die KI dann so lange magischen Staub und Erfahrung ins Bild "reindichtet", bis es halt so aussehen würde "als ob".

Nur ist das halt leider grundweg verkehrt und würde auch mit aktuellen Techniken kein in Bewegung konsistentes Bild ergeben. Man versucht im Augenblick deshalb so viel "Raterei" von der KI fernzuhalten wie möglich und diese nur da einzusetzen, wo sie treffsicher agieren kann.
 
Die Funktionalität von DLSS ist doch unstrittig, der Knackpunkt an der Stelle ist welches Verfahren vom Original abweicht und welches zu 100 %, Bild für Bild, anhand der originalen Rasterauflösung entsteht und DLSS kann die die Informationen durch eine AI nicht zu 100 % rekonstruieren im Vergleich zu DS und ist somit nach Definition verlustbehaftet. Damit will ich auch nicht die Leistung und Daseinsberechtigung von DLSS absprechen. Im Falle von genügend Leistung ist dann aber die nativere Variante zu bevorzugen und am nativsten wäre dann eine höhere Auflösung, beispielsweise 8K und wenn noch mehr Leistung da ist, dann DS@8k, ausgehend von 16k Material. :devil:

MfG
 
Du bist immer noch dabei, dass "das Original" das native 4k Bild ist. Diese Annahme ist falsch. Ich weiß nicht, wie oft ich das noch wiederholen muss.

Das Original ist, wenn man den Begfriff überhaupt verwenden will, das Bild in unendlicher Auflösung "gerendert".

Und sowohl das 4k native als auch DLSS sind eine Annäherung an dieses optimale Original Bild. Keines der beiden ist perfekt, die Frage ist, welches nun näher rankommt und weniger Fehler macht. Und da scheint DLSS deutlich überlegen zu sein.
 
Wieso sollte man nativ bevorzugen?
Digital Foundry hat bereits detaillierte Vergleiche gemacht und ist eindeutig zum Schluss gekommen dass das DLSS 2.0 Bild dem nativen überlegen ist.
 
Eigentlich nicht, weil ja dadurch, dass die Technik nicht verstanden wird, die ganzen Missverständnisse um eine mögliche Qualität von DLSS gestrickt sind.

Sind halt immernoch viele der Meinung, dass ich ein 720p Bild generiere und die KI dann so lange magischen Staub und Erfahrung ins Bild "reindichtet", bis es halt so aussehen würde "als ob".

Nur ist das halt leider grundweg verkehrt und würde auch mit aktuellen Techniken kein in Bewegung konsistentes Bild ergeben. Man versucht im Augenblick deshalb so viel "Raterei" von der KI fernzuhalten wie möglich und diese nur da einzusetzen, wo sie treffsicher agieren kann.

Mal eine Dumme Frage wenn ich dich richtig verstanden habe schaut sich DLSS mehre (ich nenne sie jetzt mal) Frames an und Sammelt Information aus diesen und setzt diese dann mit hilfe einer AI zusammen . Richtig ?
Wenn ja würde dies nicht zu einem erhöhtem inputlag führen bzw. zu einer Spätern Ausgabe des Bildes da er ja erst infos Sammeln muss?
Oder werden die Infos aus dem Framebuffer benutzt die ja so oder so darin liegen?
 
Mal eine Dumme Frage wenn ich dich richtig verstanden habe schaut sich DLSS mehre (ich nenne sie jetzt mal) Frames an und Sammelt Information aus diesen und setzt diese dann mit hilfe einer AI zusammen . Richtig ?
Wenn ja würde dies nicht zu einem erhöhtem inputlag führen bzw. zu einer Spätern Ausgabe des Bildes da er ja erst infos Sammeln muss?
Oder werden die Infos aus dem Framebuffer benutzt die ja so oder so darin liegen?

Es führt zu den "Nachzieheffekten" bei schnellen Bewegungen und an bestimmten Details. Die sind unschön, man kann noch daran arbeiten, aber ganz verschwinden werden sie nie, weil sie teil aller Temporalen Techniken sind (auch TAA z.B.)
 
Mal eine Dumme Frage wenn ich dich richtig verstanden habe schaut sich DLSS mehre (ich nenne sie jetzt mal) Frames an und Sammelt Information aus diesen und setzt diese dann mit hilfe einer AI zusammen . Richtig ?
Wenn ja würde dies nicht zu einem erhöhtem inputlag führen bzw. zu einer Spätern Ausgabe des Bildes da er ja erst infos Sammeln muss?
Oder werden die Infos aus dem Framebuffer benutzt die ja so oder so darin liegen?

Volltreffer - Siehe auch meine Aussage ein par Posts vorher:

Nein- Du hast ein SCHLECHTERES Bild und spürbar weniger Leistung, mit dem Vorteil, dass der Lag von einem Frame, der durch die Bildanalyse induziert wird wegfällt.
Es werden zwar viele Bilder in die Vergangenheit, aber nur eins sozusagen mit dem Status Quo in ein zukünftiges Frame verrechnet.
 
Igor hat mal wieder interessantes Video zu DLS S 2.0 gemacht:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mit Framelimiter sorgt DLSS bei 2080ti mit bis zu 80Watt an Energieeinsparung. Sagt selber dass DLSS 2.0 teilweise besser azssehen kann als bativ 4k. Auch wenn es nicht immer 100% akkurat ist. Wie hier auch ift gesagt fallen selbst bei 2160p einige Details durch das Pixelraster.

Zumindest zeigt es dass DLSS auch auf Konsolen gutes Stück Energie einsparen können gegenüber nativer 4k Berechnung.
 
Es führt zu den "Nachzieheffekten" bei schnellen Bewegungen und an bestimmten Details. Die sind unschön, man kann noch daran arbeiten, aber ganz verschwinden werden sie nie, weil sie teil aller Temporalen Techniken sind (auch TAA z.B.)
Ich hab mir das mal per nsight näher angesehen. Die Nachzieheffekte gibt es immer dann, wenn man dem DLSS entweder bereits temporal verrechnete Informationen zufüttert (da entstehen dann Inkonsistenten in der Übergabe der Motion- Vektoren), oder wenn gewisse Bereiche des Bildes nicht per Geometrie sondern per Postprocessing oder per nachträglicher Platzierung im Screenspace stattfindet.

Also alles eher kein Effekt von DLSS, wenn man es nur schön nach Leitfaden mit allen entsprechenden Informationen füttert:
http://behindthepixels.io/assets/files/DLSS2.0.pdf

In dem Sheet ist übrigens auch sehr schön beschrieben, welche Information dem convonutional Autoencoder zugefüttert werden muss und dass die Texturen im Gegensatz zur Annahme vieler quasi unbehandelt durch die Pipeline gehen.
Gibt es ansonsten Halos oder Ringing ist das rein dem Nachschärfen beim DLSS geschuldet, aber auch nicht der Technik an sich.
 
Du bist immer noch dabei, dass "das Original" das native 4k Bild ist. Diese Annahme ist falsch. Ich weiß nicht, wie oft ich das noch wiederholen muss.
Morgen!

Ich glaube da missverstehst du mich. Ich rede davon das DS also downsampling@4k besser ist als DLSS@4k, da wie gesagt jedes Bild abgetastet und an die Ausgabeauflösung angepasst wird. Bei DLSS geschieht das nur anhand eines antrainierten Algorithmus und basiert damit nicht zu 100 % auf Grundlage des Originals. Und deswegen sage ich, dass DS@4k, wobei die Ausgangsbasis gerne 8k/16k sein kann, techn. Basis vorausgesetzt, besser ist und eben nahezu nicht verlustbehaftet, wie DLSS was sich nur den "möglichen" 100 % annähern kann. Besser wäre von Hause aus eine höhere Auflösung und mehr Pixeldichte, denn dann hat man nativ die mehr Details, die bei niedrigeren Auflösungen in der Ausgabe mit hinzugefügt werden müssen. Das ist dann 100 % nativ und damit verlustfrei und spätestens an dem Punkt ist DLSS überflüssig.

MfG
 
Downsampling von 8k auf 4k ist natürlich ein enormer Rechenaufwand. Es kann gut sein, dass dabei ein besseres Ergebnis als bei DLSS Quality@4k (also intern gerendert mit WQHD) geliefert wird, aber es muss 9x mal mehr berechnet werden (8k hat 9 mal so viel Pixel wie WQHD).
 
Zuletzt bearbeitet von einem Moderator:
Und dlss muss aufwendig vorher für jedes einzelne Spiel eintrainiert werden, was im Umkehrschluss bedeutet, dass sich das nur auf ein paar wenige Blockbuster Titel beziehen wird, was auch nicht gerade ein Vorteil dieser Technologie darstellt. Aber wie gesagt, dlss ist wirklich ein super feauter und eine perfekte Übergangstechnologie, bis ausreichend Leistung vorhanden ist, um sehr hohe Auflösung darstellen zu können.

MfG
 
Zurück