Rainbow Six Siege: DLSS 2.2 ist da, erste User euphorisch

Wer braucht das ? Selbst die konsolen schaffen 4k 90 -130fps mit framerate priorisieren 140-170 . Sic hat nen fps counter auf jeder plattform ?
 
Der Titel wurde wohl auch deshalb gewählt, weil es ein sehr dankbares Beispiel ist. Klar wäre ein WatchDogs mit seinen vielen kleinen Details und dem Raytracing interessanter.
 
Rainbow hätte jetzt nicht umbedingt DLSS gebraucht, allerdings ist schon beeindruckend wie gut das ganze läuft.
Hab mal paar Benchmarkruns gemacht
System: FullHD, 3700x, 2070Super, 32GB 3200Mhz, installiert auf Crucial MX500 SSD
Ich habe ohne DLSS rund 180FPS Durchschnitt, mit DLSS Qualität hatte ich knappe 310FPS. Das sind mal Zahlen. :D
Qualitätsverlust konnte ich keinen Feststellen. Zumindest im bewegten Bild. Ich glaube das müsste man sehr genau hinschauen oder mit einer höheren Aufösung.

Schon krass was man mit KI alles hinbekommt... 130FPS geschenkt ist schon eine Ansage.

Grüße aus Italien.
 
Na das ist ja mal ein "günstiger" Zeitpunkt DLSS 2.2 zu zeigen, so kurz vor dem FSR Release. Hehe, die Nvidia Marketing Pros wieder am Start. :D

Wenn der Algorithmus "einfach" per copy-paste für Spiele funktioniert die bereits 2.0 unterstützen, dann sind hier ja die Entwickler gefragt dass per Patch auszurollen. Vermutlich war R6 jetzt halt gerade "ready to battle" FSR.
 
Rainbow hätte jetzt nicht umbedingt DLSS gebraucht, allerdings ist schon beeindruckend wie gut das ganze läuft.
Hab mal paar Benchmarkruns gemacht
System: FullHD, 3700x, 2070Super, 32GB 3200Mhz, installiert auf Crucial MX500 SSD
Ich habe ohne DLSS rund 180FPS Durchschnitt, mit DLSS Qualität hatte ich knappe 310FPS. Das sind mal Zahlen. :D
Qualitätsverlust konnte ich keinen Feststellen. Zumindest im bewegten Bild. Ich glaube das müsste man sehr genau hinschauen oder mit einer höheren Aufösung.

Schon krass was man mit KI alles hinbekommt... 130FPS geschenkt ist schon eine Ansage.

Grüße aus Italien.
Es wäre halt schön, wenn du es dann OutOfTheBox (ohne DSR, sondern direkt als DLSS 2x oder DLSS UltraQuality/ GigaQuality) auch einfach nutzen könntest, um bei nativem FHD-Rendering zu bleiben und die Qualität gegenüber nativ ordentlich zu pushen...
...aber das sage ich ja nicht zum ersten Mal. Nvidia bleibt diesen Modus leider trotzdem weiterhin schuldig... (sie hatten bereits vor dem Release von DLSS 1.0 versprochen)
 
Das muß ne tolle "KI" sein, wenn da immer ne ganze Mannschaft von Nvidia an einem Spiel rumdoktert, bis das paßt, welches dann als Aushängeschild fungieren darf. :D :D :D
 
Das muß ne tolle "KI" sein, wenn da immer ne ganze Mannschaft von Nvidia an einem Spiel rumdoktert, bis das paßt, welches dann als Aushängeschild fungieren darf. :D :D :D
Deep-Learning bzw. Machine-Learning bzw. Neurale Netze sind ja keine "KI". Wird nur so vom Marketing genannt. Eine echte KI gibt's nicht.

Und dass da immer große Mannschaften dran sitzen, joah, also bei FSR wird das ähnlich sein. Ist halt so bei der Hardware- und Software-Entwicklung. Man frickelt bis es passt.
 
Es wäre halt schön, wenn du es dann OutOfTheBox (ohne DSR, sondern direkt als DLSS 2x oder DLSS UltraQuality/ GigaQuality) auch einfach nutzen könntest, um bei nativem FHD-Rendering zu bleiben und die Qualität gegenüber nativ ordentlich zu pushen...
...aber das sage ich ja nicht zum ersten Mal. Nvidia bleibt diesen Modus leider trotzdem weiterhin schuldig... (sie hatten bereits vor dem Release von DLSS 1.0 versprochen)

Bleibt halt nur es manuell mit Downsampling zu kombinieren. Sei es über den Treiber, oder eine spielinterne Skalierungsoption.

Bei FSR würde ich mir so eine Funktion natürlich auch wünschen. ;)
 
Das sieht doch schon besser aus - Anscheinend haben sie das Ghosting jetzt deutlich besser im Griff:

DLSS 2.1 (bei 1:22 ghosting deultich sichtbar - auf die Rücklichter achten)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

DLSS 2.2
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Hier mit Videos (in diesem Falle Cyberpunk)
 
Zuletzt bearbeitet:
Das ist mir sehr wohl bewusst, und durchaus genehm. Daher schrieb ich ja auch, dass ich nicht verstehe, warum einem die SCHLECHTERE Qualität empfohlen wird.
Ist letzten Endes schlicht eine Marketing-Frage. Simple, plakative Zahlen, wie 109 Fps vs. 77 Fps versteht auch der dümmste Honk ad hoc, da muss man nicht viel zu schreiben. Dagegen etwas wie bspw. 89 Fps vs. 77 Fps ist ein deutlich kleinerer Zugewinn (obwohl durchaus ein signifikanter), denn man gleich unterstützend mit einer Aussage wie "aber im Quality-Mode ist die Grafik dafür noch einmal besser und fast nicht unterscheidbar von einer nativen Darstellung" flankieren muss und dann geht die Diskussion dennoch weiter mit "wie nah ist den nun ein 'fast nicht unterscheidbar' am 'Original' dran?", usw. Die einschlägigen Diskussionen kennt man ja hier bereits aus dem Forum.
War übrigens bei AMDs FSR-Präsentation auch nicht anders. Hier hat man bspw. die Lauffähigkeit auf der kleinen Geforce auch lieber mit hohen Fps-Zugewinnen ausgewiesen, dafür aber extrem "matschiges" Bildmaterial gezeigt.

Warum dann der Verweis auf die Latenz, siehe News?
Und wie geht das eigentlich, da es sich doch hier um eine zusätzliche Berechnung handelt?
Mir scheint du missverstehst hier die Definition von Latenz in diesem Kontext. Deinem gespiegeltem Verständnis nach sollte man dann sämtliche Postprocessing-Effekte deaktivieren, man sollte möglichst unnötige Vegitation nicht mitrendern, ebenso am besten gleiche alle nichtessentielle Physik deaktivieren, vielleicht auch noch alle passiven NPCs, ... :-D

Das muß ne tolle "KI" sein, wenn da immer ne ganze Mannschaft von Nvidia an einem Spiel rumdoktert, bis das paßt, welches dann als Aushängeschild fungieren darf. :D :D :D
Jo, zweifellos, denn sonst würde die Technik keine so guten Resultate abliefern und sich die Konkurrenz so viel Zeit lassen, mit was Vergleichbarem nachzuziehen.
Darüber hinaus scheinst du aber auch nicht zu verstehen, warum da bei nVidia so viele daran rumwerkeln. Das ist eine universell einsetzbare Technik, die mit den natürlicherweise notwendigen Anpassungen in jede Engine integriert werden kann und dementsprechend ist da eine besondere Sorgfalt und Weitsicht bei der Entwickung angeraten. Darüber hinaus wird die Unterstützung für das RSS-Studio vergleichsweise klein ausfallen, da da nicht viel nötig ist; schätzungsweise bestenfalls ein oder vielleicht zwei Grafik-Ingenieuere und die auch nur dann mit einer mäßigen Arbeitsstundenzahl, sofern die ncht noch anderweitig zu optimieren helfen, jedoch vermute/weiß ich nicht, ob dieses RSS-Update noch nennenswert was an der Grafik tuned und von daher würde ich annehmen, dass die direkte Unterstützung seitens nVidia hier vergleichsweise gering ausfällt und möglicherweise nur deshalb gegeben ist, weil man den Titel als Vorzeigeobjekt heranziehen kann.
Btw., wenn irgendwas (auch nur entfernt) mit KI zu tun hat, bedeutet das nicht, dass man da keinen Finger rühren muss, dass sich alles von alleine implementiert, den Bestandscode ändert und wie von Geisterhand läuft auf einmal plötzlich alles und gleich auch noch viel, vieeel besser ... das liest sich dann doch eher nach zu vielen geschauten ScienceFiction-Filmen. ;-)

Abseits dessen: Es wäre sicherlich mal interessant zu wissen wie vielen personellen und arbeitsstundentechnischen Aufwand nVidia in DLSS gesteckt hat um den heutigen Stand zu erreichen.
Und ja, selbstredend soll DLSS auch für Gamer die Tensor Cores auf den GPUs in gewisser Weise rechtfertigen ... ändert dennoch nichts daran, dass die Technik tatsächlich einen handfesten Mehrwert schafft, d. h. die ist schon lange und weit über eine Art Alibifunktionalität hinausgewachsen. Wäre dem nicht so, würden andere Mitbewerber nicht versuchen gleichwertige oder gar verbesserte alternative Techniken in den Markt zu bringen. ;-)

Das sieht doch schon besser aus - Anscheinend haben sie das Ghosting jetzt deutlich besser im Griff:
Sieht tatsächlich etwas stabiler aus bzgl. bspw. der Oberlandleitungen links, was den Inkrement in der Minor-Versionsnummer durchaus erklären könnte. Man darf gespannt sein bis zu den offiziellen Release-Notes zu v2.2, wenn sie denn mal welche veröffentlichen sollten, ob und was da noch so drin ist oder ob hier im Wesentlichen das zugrundeliegende NN weiteroptimiert wurde?
 
Zuletzt bearbeitet:
Rainbow hätte jetzt nicht umbedingt DLSS gebraucht, allerdings ist schon beeindruckend wie gut das ganze läuft.
Hab mal paar Benchmarkruns gemacht
System: FullHD, 3700x, 2070Super, 32GB 3200Mhz, installiert auf Crucial MX500 SSD
Ich habe ohne DLSS rund 180FPS Durchschnitt, mit DLSS Qualität hatte ich knappe 310FPS. Das sind mal Zahlen. :D
Qualitätsverlust konnte ich keinen Feststellen. Zumindest im bewegten Bild. Ich glaube das müsste man sehr genau hinschauen oder mit einer höheren Aufösung.

Schon krass was man mit KI alles hinbekommt... 130FPS geschenkt ist schon eine Ansage.

Vor allem sieht man auch wie gut Vulkan da läuft. Denn bei anderen Spielen bekommt man mit Verringerung der Auflösung kaum noch höheren FPS in FullHD, weil man dann ins CPU-Limit kommt.
 
Der kleine Entwickler hat dafür vermutlich keine Ressourcen - oder einfach keine Prio; Teil 1 war recht schnell "ausgepatcht". Aber für Teil 2 kannst du fest damit rechnen.

MfG
Raff
Welcher kleine Entwickler? Ninja Theory gehört jetzt zu Microsoft Game Studios. Wurden im Personal ordentlich aufgestockt und arbeiten an 2-3 Projekten.
Sooo...klein sind die jetzt nicht mehr. ;)

Da Hellblade 2 ja neben PC hauptsächlich für Xbox Series X/S kommt wird man sehen ob da DLSS oder andere Methoden zum Einsatz kommen.
 
Na das ist ja mal ein "günstiger" Zeitpunkt DLSS 2.2 zu zeigen, so kurz vor dem FSR Release. Hehe, die Nvidia Marketing Pros wieder am Start. :D

Wenn der Algorithmus "einfach" per copy-paste für Spiele funktioniert die bereits 2.0 unterstützen, dann sind hier ja die Entwickler gefragt dass per Patch auszurollen. Vermutlich war R6 jetzt halt gerade "ready to battle" FSR.
NVidias Marketing Guys sind die besten, sicher wie du sagst kein Zufall.

Das Video finde ich mal endlich eine gute Show. Man sieht dem Spiel schmeckt DLSS, gerade Linien und Beschriftung ist genau das Richtige für KI zum ausbügeln. Unterschiede findet man wirklich nur mit der Lupe.

Auch hier wieder leider 4K, stark breiter gestreutes 1440p wäre mir und sicher anderen lieber gewesen zur Begutachtung.
 
Das täuscht gewaltig. Alles bis auf Crysis sah damals nicht so pralle aus, zumindest aus heutiger Sicht.
Und Crysis wiederum war auf Seiten der CPU nie gut optimiert. Und auch Crysis bot keine vernünftige (integrierte) AA-Lösung...
...die Punkte werden gerne vergessen, wenn sich Leute ein neues Spiel wie Crysis wünschen: Auch dort gab es signifikante technische Probleme, die (damals) nie angegangen wurden und aktuell auch nur mehr schlecht als recht angegangen werden.
→ es ist wichtig, dass das Spiel, was versucht das nächste Crysis zu werden (Squadron 42) nicht die gleichen Fehler macht, sondern bis zum Release noch ordentliche CPU-Performance und ein kompetent gemachtes AA erhält. Am liebsten natürlich einen spielespezifisch ausgerichteten DLSS-Konter, der daher dann uneinholbar ist...
 
Infos (wenn auch mager) zu DLSS 2.2

1623995738303.png


 
→ es ist wichtig, dass das Spiel, was versucht das nächste Crysis zu werden (Squadron 42) nicht die gleichen Fehler macht, sondern bis zum Release noch ordentliche CPU-Performance und ein kompetent gemachtes AA erhält.

Da glaube ich eher an ein Crysis 4 Release von Crytek, als an einen Release von Sq42.
Ich denke auch nicht, dass Sq42 ansatzweise so gut wird, wie es ein Crysis 1 damals war.
Jedoch bin ich gern bereit, mich eines Besseren belehren zu lassen.
 
Habs nur mal kurz angeworfen, aber hab die option DLSS "Ein, Aus" oder 1440 nicht auf Anhieb gefunden.. komisch.
Treiber 466.63, ist vielleicht auch schon wieder "alt"
DLSS ist nur im Vulkan renderer verfügbar.
Um ehrlich zu sein sind einige Einstellungen nur im Vulkan modus verfügbar und garnicht unter DX.
 
Jedoch bin ich gern bereit, mich eines Besseren belehren zu lassen.
Möchtest du dich auch schon vor Release "belehren" lassen?
Falls ja, dann hätte ich da was für dich:
Bald fünf Jahre alt, aber genügend aktuell bzw. problemlos von den Lesenden OnTheFly aktualisierbar. (natürlich würde ich mittlerweile sehr anders schreiben, aber das tut ja erstmal nichts zur Sache)
Wieso Star Citizen: Squadron 42 | GameStar-Pinboard
Kernaussagen waren und bleiben: Es ist zu leicht, SQ42 zu einem Erfolg zu machen, um es nicht zu releasen. Dass es die Erwartungen gleichzeitig nicht erfüllen kann, ist wahrscheinlich. Dass es dabei ein schlechtes Spiel herumkommen wird, ist aber gleichzeitig unwahrscheinlich.
Ich bin auf dein Feedback gespannt.
Falls nein finde ich das aber auch voll okay. :)
 
Zurück