AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an
Das ist immerhin das Performanceplus einer Grafikkartengeneration, die einen größeren Sprung hinlegt. Und das kriegt man jetzt bei der RTX Generation on Top zu den 30-40% Performancezuwachs.
DLSS 2.0 zeichnet sich doch lt. nvidia eben gerade dadurch aus, eben kein explizites Training durch das anzulernende Spiel mehr durchlaufen zu müssen (12:22-12:50), sondern aus den bis jetzt eingelesenen Daten inzwischen schon universal bei allen Spielen entsprechende Veränderungen herbeiführen zu können.
12:50-13:16
Mensch- Das ist mit DER Faktor, der DLSS überhaupt interessant macht.
Wenn die GPU 4x4 matrix- Berechnungsbeschleunigungseinheiten hat (NV nennt die Tensor- Cores), kann die das ebenso durchführen.
Wichtig- Wir reden hier nicht von DLSSx2 oder 2X, welches meines Wissens noch nicht in freier Wildbahn gesichtet wurde, sondern von DLSS 2.0, wie es in dem von mir verlinkten analyse- Video bezeichnet wird. Ich fürchte deshalb entsteht hier gerade etwas Verwirrung.
LG
Zero
Das muss es doch garnicht. Reicht ja schon, wenn es in den Framezahlbereichen, die unter Umständen weh tun können (unter 60FPS) 50% mehr Performance bietet.Ich wäre da vorsichtiger und würde nicht schreiben, es wird deutlich schneller
Das ist immerhin das Performanceplus einer Grafikkartengeneration, die einen größeren Sprung hinlegt. Und das kriegt man jetzt bei der RTX Generation on Top zu den 30-40% Performancezuwachs.
Bei Wolfenstein und Deliver us the moon läuft es auch ohne online- Verbindung. Wie also kommst Du drauf, dass es vernetzt sein muss?als derzeitiges DLSS. 2.x war/wurde schon immer lernfähig vorgestellt, muss für die entgültige Ausgabe des Bildes aber vernetzt sein, belastet also zusätzlich den Datenstrom auf dem Netzwerk.
Da der zeitliche Rechenanteil der Tensorcores pro Bild abgeschlagen wird, fördert es den Input- Lag, wie jedes andere Bildgebende Verfahren im post- processing und ist somit eher gekoppelt an die tatsächliche FPS Rate, die letztendlich damit erreicht wird. Also eher wird der Input- Lag durch höhere Framezahl niedriger als höher.Ob das den Inputlag fördert ist nicht klar, aber zu vermuten.
Nv führt aus, dass es azu mehr Vorlagen braucht die in höherer Ausgabeauflösung eingelesen werden müssen (es braucht also mehr Zeit bei der Entwicklung und dem Anlernprozess) und ein ständiger Abgleich mit Bildvorlagen von nöten ist, natürlich ausgehend von der Bildqualität im direkten Vergleich mit TAA, nicht zu vergessen.
DLSS 2.0 zeichnet sich doch lt. nvidia eben gerade dadurch aus, eben kein explizites Training durch das anzulernende Spiel mehr durchlaufen zu müssen (12:22-12:50), sondern aus den bis jetzt eingelesenen Daten inzwischen schon universal bei allen Spielen entsprechende Veränderungen herbeiführen zu können.
Es gehen keine Daten vom Netzwerk rein und auch nicht raus. Somit ist der Inferencing Datensatz (wie es nvidia ebenso beschreibt) unabhängig des Netzwerks, also standalone.Die Kombination mit dem DLSS Netzwerk ist dabei wohl unumgänglich, also ein weiterer Faktor der die Framerate beeinflussen kann und Zeit kostet.
12:50-13:16
Die Benchmarkwerte lügen nicht? Und ansonsten hab ich nur noch Fragezeichen im Gesicht? Es steht für Dich nicht fest, dass DLSS nicht schneller als nativ rechnet?Ob schneller oder am schnellsten, ist nicht klar und schneller als nativ auch nicht.
Mensch- Das ist mit DER Faktor, der DLSS überhaupt interessant macht.
Ja- öhm... Genau? Wie glaubst Du sind die Messwerte und Bildvergleiche entstanden? Benchmarkwerte aus der Praxis sind für Dich Theorie?Du bist bei dem Thema immer so euphorisch und legst dich gleich abschließend anhand theoretischer Werte fest, Paxisnah bleibt die bessere Option,
Ja- Anhand der vorhandenen DLSS Software feiern alle Publikationen unabhängig DLSS 2.0 als den großen Wurf.bewerten wenn alles sichtbar gut läuft.
Da man eben davon weggeht, dass Einzeltitel ein langes Training durchlaufen müssen und auf eine universelle Inferencing- Datenbasis zurückgreifen kann, also es für jedes Spiel unabhängig diese Option gibt, geht man eben genau auch weg von "control 2.x NV".Ich bin da tatsächlich skeptischer, kann auch control 2.x Nv bedeuten, ohne besondere Vorteile und hängt ja auch davon ab welche Hardware benötigt wird und wie es sich verbreitet.
Wenn die GPU 4x4 matrix- Berechnungsbeschleunigungseinheiten hat (NV nennt die Tensor- Cores), kann die das ebenso durchführen.
Wichtig- Wir reden hier nicht von DLSSx2 oder 2X, welches meines Wissens noch nicht in freier Wildbahn gesichtet wurde, sondern von DLSS 2.0, wie es in dem von mir verlinkten analyse- Video bezeichnet wird. Ich fürchte deshalb entsteht hier gerade etwas Verwirrung.
LG
Zero
Zuletzt bearbeitet: