DaStash, Du hast nicht verstanden, was ich sagen wollte. Ich weiß nicht, wie ich es noch besser ausdrücken kann, deswegen meine Bitte, mein Posting nochmal langsam und genau zu lesen. Die Aussage "das Original 100 %ig rekonstuiert werden" von Dir stimmt schon im Ansatz nicht, da Du meinst, das 4k nativ gerenderte Bild wäre "das Original". Das ist es aber nicht.
Bitte versuch den Gedanken nachzuvollziehen, ok?
Ja, ich verstehe das, weswegen ich ja auch sage das dann DS@4k "nativer" <--- in Anführungsstrichen, ist als DLSS, da dort 100 % des tatsächlichen Ausgangsmaterials genutzt wird, im Vergleich zu DLSS, wo das nur anhand einer antrainierten Annahme geschieht und noch besser ist dann natürlich die direkte und höhere Auflösung. Ausgehend davon das du in Auflösung X rendern kannst, ist demnach natürlich alles verlustbehaftet, da man das schlicht nicht darstellen kann aber es gibt ja so etwas wie ein Target und da macht es einen Unterschied ob man 100 % Originalinformation zur Darstellung nutzt, auch und vor allem wenn DS zum Einsatz kommt oder ob den Bildern anhand antrainierter Algorithmen Informationen hinzugefügt werden. Ersteres also DS, ist dabei selbstverständlich, da Originalinformation zu 100 % vorhanden, nicht verlustbehaftet, bzw. weniger, im Vergleich zu DLSS aber frisst natürlich entsprechende Leistung.
Im direkten Vergleich zwischen DS@4k sollte das besser aussehen als DLSS@4k, da dort die tatsächlich vorhanden Informationen verarbeitet werden und nicht nur die antrainiert Angenommenen.
Ich hoffe du verstehst auf was ich hinaus will.
Nochmal. Du hast eine Kamera und fotografierst eine Szene mit einer 1080P Kamera. Beim zweiten Mal hast Du eine Vorrichtung mit einer Kamera, die zwar intern nur 720P auflöst, aber intern durch Kippspiegel das Bild immer ein Stückchen versetzt viele, viele Male aufnimmt und dann zum Schluss das Bild wieder in groß zusammensetzt.
Was hat das mit deinem vorherigen Beispiel bezüglich der Belichtungszeit zu tun?
Bei deinem nun benannten Beispiel werden tatsächlich vorhanden Informationen aufgenommen und zusammengefügt. Bei DLSS werden angenommenen Informationen hinzugefügt, die durch Antrainieren der KI auf Grundlage hochaufgelöster Beispielbilder entstehen. Das hinzufügen aus einer nicht 100 % Originalquelle ist doch perse schon verlustbehaftet, egal ob Informationen entfallen oder hinzugefügt werden, da du im Detail logischer Weise vom 100 % Original abweichst und somit laut Definition es sich um ein verlustbehaftetes Verfahren handelt.
Das hat nix mit KI und nix mit dem Inferencing von DLSS 1.0 zu tun, und nur durch diesen normalen, rein rasterbasierten Vorgang, hast Du schon ein deutliches Auflösungsplus gegenüber der nativen Variante.
Die KI bei DLSS2.0 schaut nur, dass die Pixel der niedrig aufgelösten Kamera mit den vielen Aufnahmen auch fehlerfrei wieder zusammengesetzt werden, da sich das Bild eines Computerspiels ja laufend in Bewegung befindet.
Ich verstehe das schon mit dem Auflösungplus und die Frage ist ja nicht ob es das gibt, da sind wir uns einig, sondern wie man dahin gelangt, ob nativ und direkt durch DS oder aber durch ein AI Verfahren was anhand von antrainierten annahmen Details rekonstruiert und hinzufügt. Letzteres kann nicht 100 % ig dem Original entsprechen und genau das sieht man doch auch bei diversen Vergleichsscreens.
Die KI hat in DLSS 2.0 komplett andere Aufgaben. Die KI ist dort nebst professionellem "Puzzlespieler" und "Pixelzusammensetzer" als Mustererkennungsverfahren zu sehen, welches die Charakteristika eines Bildes NACH dem ganzen Prozess, der die hochauflösenden Bilder erzeugt, der Ground Truth annähert.
Das ist der letzte Schliff, indem Artefakte und noch ungeglättete Kanten nachbehandelt werden.
Versucht anzunähern, anhand einer antrainierten Logik, die aber nicht in Gänze einer Bild für Bild DS Methode entspricht und letztere basiert reell auf 100 % Renderinfos, jeh nach dem in welchem Grad DS ausfällt.
Du erhältst mit DLSS aber das Original mit mehr Bildinformation!
Und genau das ist eben der Knackpunkt, man erhält nicht 100 % ig das Original. Wenn es nur 99,5 % sind, es ist dann verlustbehaftet.
Bei DLSS auch. DLSS 2.0 ist kein upsampling- Verfahren! Es ist supersampling. Sammelt also mehr Informationen, als in der nativen Auflösung ursprünglich vorgesehen.
Ja
Nein- Du hast ein SCHLECHTERES Bild und spürbar weniger Leistung, mit dem Vorteil, dass der Lag von einem Frame, der durch die Bildanalyse induziert wird wegfällt.
Ja, bei der Leistung, hatte ich ja schon mehrfach geschrieben, stimme ich zu beim Bild aber nicht, jedenfalls nicht bei DS@4k. Bei reinem 4k mag das so sein aber davon rede ich ja nicht.
mfG