• Ihr möchtet selbst ĂŒber spannende, neue PC-Komponenten, Peripherie und PC-Spiele berichten, habt aber noch keine Plattform dafĂŒr? Ihr kennt euch mit alter Hardware oder Retro-Spielen gut aus? Ihr möchtet neben Studium oder Job Geld verdienen? Dann solltet ihr euch noch heute bewerben - alle Infos gibt es im folgenden Link. https://extreme.pcgameshardware.de/threads/ihr-moechtet-pcgh-de-mitgestalten.620382/

Rainbow Six Siege: DLSS 2.2 ist da, erste User euphorisch

gloriav

PC-Selbstbauer(in)
Wer braucht das ? Selbst die konsolen schaffen 4k 90 -130fps mit framerate priorisieren 140-170 . Sic hat nen fps counter auf jeder plattform đŸ€—
 

4thVariety

BIOS-Overclocker(in)
Der Titel wurde wohl auch deshalb gewÀhlt, weil es ein sehr dankbares Beispiel ist. Klar wÀre ein WatchDogs mit seinen vielen kleinen Details und dem Raytracing interessanter.
 

DarkG4m3r

Freizeitschrauber(in)
Rainbow hÀtte jetzt nicht umbedingt DLSS gebraucht, allerdings ist schon beeindruckend wie gut das ganze lÀuft.
Hab mal paar Benchmarkruns gemacht
System: FullHD, 3700x, 2070Super, 32GB 3200Mhz, installiert auf Crucial MX500 SSD
Ich habe ohne DLSS rund 180FPS Durchschnitt, mit DLSS QualitÀt hatte ich knappe 310FPS. Das sind mal Zahlen. :D
QualitĂ€tsverlust konnte ich keinen Feststellen. Zumindest im bewegten Bild. Ich glaube das mĂŒsste man sehr genau hinschauen oder mit einer höheren Aufösung.

Schon krass was man mit KI alles hinbekommt... 130FPS geschenkt ist schon eine Ansage.

GrĂŒĂŸe aus Italien.
 

raPid-81

Software-Overclocker(in)
Na das ist ja mal ein "gĂŒnstiger" Zeitpunkt DLSS 2.2 zu zeigen, so kurz vor dem FSR Release. Hehe, die Nvidia Marketing Pros wieder am Start. :D

Wenn der Algorithmus "einfach" per copy-paste fĂŒr Spiele funktioniert die bereits 2.0 unterstĂŒtzen, dann sind hier ja die Entwickler gefragt dass per Patch auszurollen. Vermutlich war R6 jetzt halt gerade "ready to battle" FSR.
 

CD LABS: Radon Project

Volt-Modder(in)
Rainbow hÀtte jetzt nicht umbedingt DLSS gebraucht, allerdings ist schon beeindruckend wie gut das ganze lÀuft.
Hab mal paar Benchmarkruns gemacht
System: FullHD, 3700x, 2070Super, 32GB 3200Mhz, installiert auf Crucial MX500 SSD
Ich habe ohne DLSS rund 180FPS Durchschnitt, mit DLSS QualitÀt hatte ich knappe 310FPS. Das sind mal Zahlen. :D
QualitĂ€tsverlust konnte ich keinen Feststellen. Zumindest im bewegten Bild. Ich glaube das mĂŒsste man sehr genau hinschauen oder mit einer höheren Aufösung.

Schon krass was man mit KI alles hinbekommt... 130FPS geschenkt ist schon eine Ansage.

GrĂŒĂŸe aus Italien.
Es wĂ€re halt schön, wenn du es dann OutOfTheBox (ohne DSR, sondern direkt als DLSS 2x oder DLSS UltraQuality/ GigaQuality) auch einfach nutzen könntest, um bei nativem FHD-Rendering zu bleiben und die QualitĂ€t gegenĂŒber nativ ordentlich zu pushen...
...aber das sage ich ja nicht zum ersten Mal. Nvidia bleibt diesen Modus leider trotzdem weiterhin schuldig... (sie hatten bereits vor dem Release von DLSS 1.0 versprochen)
 

Basileukum

Software-Overclocker(in)
Das muß ne tolle "KI" sein, wenn da immer ne ganze Mannschaft von Nvidia an einem Spiel rumdoktert, bis das paßt, welches dann als AushĂ€ngeschild fungieren darf. :D :D :D
 

raPid-81

Software-Overclocker(in)
Das muß ne tolle "KI" sein, wenn da immer ne ganze Mannschaft von Nvidia an einem Spiel rumdoktert, bis das paßt, welches dann als AushĂ€ngeschild fungieren darf. :D :D :D
Deep-Learning bzw. Machine-Learning bzw. Neurale Netze sind ja keine "KI". Wird nur so vom Marketing genannt. Eine echte KI gibt's nicht.

Und dass da immer große Mannschaften dran sitzen, joah, also bei FSR wird das Ă€hnlich sein. Ist halt so bei der Hardware- und Software-Entwicklung. Man frickelt bis es passt.
 

DKK007

PCGH-Community-Veteran(in)
Es wĂ€re halt schön, wenn du es dann OutOfTheBox (ohne DSR, sondern direkt als DLSS 2x oder DLSS UltraQuality/ GigaQuality) auch einfach nutzen könntest, um bei nativem FHD-Rendering zu bleiben und die QualitĂ€t gegenĂŒber nativ ordentlich zu pushen...
...aber das sage ich ja nicht zum ersten Mal. Nvidia bleibt diesen Modus leider trotzdem weiterhin schuldig... (sie hatten bereits vor dem Release von DLSS 1.0 versprochen)

Bleibt halt nur es manuell mit Downsampling zu kombinieren. Sei es ĂŒber den Treiber, oder eine spielinterne Skalierungsoption.

Bei FSR wĂŒrde ich mir so eine Funktion natĂŒrlich auch wĂŒnschen. ;)
 

ZeroZerp

Freizeitschrauber(in)
Das sieht doch schon besser aus - Anscheinend haben sie das Ghosting jetzt deutlich besser im Griff:

DLSS 2.1 (bei 1:22 ghosting deultich sichtbar - auf die RĂŒcklichter achten)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestĂ€tigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen ĂŒbermittelt. For more information go to the privacy policy.

DLSS 2.2
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestĂ€tigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen ĂŒbermittelt. For more information go to the privacy policy.

Recommented content - Reddit An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestĂ€tigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen ĂŒbermittelt. For more information go to the privacy policy.

Hier mit Videos (in diesem Falle Cyberpunk)
 
Zuletzt bearbeitet:

gerX7a

BIOS-Overclocker(in)
Das ist mir sehr wohl bewusst, und durchaus genehm. Daher schrieb ich ja auch, dass ich nicht verstehe, warum einem die SCHLECHTERE QualitÀt empfohlen wird.
Ist letzten Endes schlicht eine Marketing-Frage. Simple, plakative Zahlen, wie 109 Fps vs. 77 Fps versteht auch der dĂŒmmste Honk ad hoc, da muss man nicht viel zu schreiben. Dagegen etwas wie bspw. 89 Fps vs. 77 Fps ist ein deutlich kleinerer Zugewinn (obwohl durchaus ein signifikanter), denn man gleich unterstĂŒtzend mit einer Aussage wie "aber im Quality-Mode ist die Grafik dafĂŒr noch einmal besser und fast nicht unterscheidbar von einer nativen Darstellung" flankieren muss und dann geht die Diskussion dennoch weiter mit "wie nah ist den nun ein 'fast nicht unterscheidbar' am 'Original' dran?", usw. Die einschlĂ€gigen Diskussionen kennt man ja hier bereits aus dem Forum.
War ĂŒbrigens bei AMDs FSR-PrĂ€sentation auch nicht anders. Hier hat man bspw. die LauffĂ€higkeit auf der kleinen Geforce auch lieber mit hohen Fps-Zugewinnen ausgewiesen, dafĂŒr aber extrem "matschiges" Bildmaterial gezeigt.

Warum dann der Verweis auf die Latenz, siehe News?
Und wie geht das eigentlich, da es sich doch hier um eine zusÀtzliche Berechnung handelt?
Mir scheint du missverstehst hier die Definition von Latenz in diesem Kontext. Deinem gespiegeltem VerstÀndnis nach sollte man dann sÀmtliche Postprocessing-Effekte deaktivieren, man sollte möglichst unnötige Vegitation nicht mitrendern, ebenso am besten gleiche alle nichtessentielle Physik deaktivieren, vielleicht auch noch alle passiven NPCs, ... :-D

Das muß ne tolle "KI" sein, wenn da immer ne ganze Mannschaft von Nvidia an einem Spiel rumdoktert, bis das paßt, welches dann als AushĂ€ngeschild fungieren darf. :D :D :D
Jo, zweifellos, denn sonst wĂŒrde die Technik keine so guten Resultate abliefern und sich die Konkurrenz so viel Zeit lassen, mit was Vergleichbarem nachzuziehen.
DarĂŒber hinaus scheinst du aber auch nicht zu verstehen, warum da bei nVidia so viele daran rumwerkeln. Das ist eine universell einsetzbare Technik, die mit den natĂŒrlicherweise notwendigen Anpassungen in jede Engine integriert werden kann und dementsprechend ist da eine besondere Sorgfalt und Weitsicht bei der Entwickung angeraten. DarĂŒber hinaus wird die UnterstĂŒtzung fĂŒr das RSS-Studio vergleichsweise klein ausfallen, da da nicht viel nötig ist; schĂ€tzungsweise bestenfalls ein oder vielleicht zwei Grafik-Ingenieuere und die auch nur dann mit einer mĂ€ĂŸigen Arbeitsstundenzahl, sofern die ncht noch anderweitig zu optimieren helfen, jedoch vermute/weiß ich nicht, ob dieses RSS-Update noch nennenswert was an der Grafik tuned und von daher wĂŒrde ich annehmen, dass die direkte UnterstĂŒtzung seitens nVidia hier vergleichsweise gering ausfĂ€llt und möglicherweise nur deshalb gegeben ist, weil man den Titel als Vorzeigeobjekt heranziehen kann.
Btw., wenn irgendwas (auch nur entfernt) mit KI zu tun hat, bedeutet das nicht, dass man da keinen Finger rĂŒhren muss, dass sich alles von alleine implementiert, den Bestandscode Ă€ndert und wie von Geisterhand lĂ€uft auf einmal plötzlich alles und gleich auch noch viel, vieeel besser ... das liest sich dann doch eher nach zu vielen geschauten ScienceFiction-Filmen. ;-)

Abseits dessen: Es wÀre sicherlich mal interessant zu wissen wie vielen personellen und arbeitsstundentechnischen Aufwand nVidia in DLSS gesteckt hat um den heutigen Stand zu erreichen.
Und ja, selbstredend soll DLSS auch fĂŒr Gamer die Tensor Cores auf den GPUs in gewisser Weise rechtfertigen ... Ă€ndert dennoch nichts daran, dass die Technik tatsĂ€chlich einen handfesten Mehrwert schafft, d. h. die ist schon lange und weit ĂŒber eine Art AlibifunktionalitĂ€t hinausgewachsen. WĂ€re dem nicht so, wĂŒrden andere Mitbewerber nicht versuchen gleichwertige oder gar verbesserte alternative Techniken in den Markt zu bringen. ;-)

Das sieht doch schon besser aus - Anscheinend haben sie das Ghosting jetzt deutlich besser im Griff:
Sieht tatsÀchlich etwas stabiler aus bzgl. bspw. der Oberlandleitungen links, was den Inkrement in der Minor-Versionsnummer durchaus erklÀren könnte. Man darf gespannt sein bis zu den offiziellen Release-Notes zu v2.2, wenn sie denn mal welche veröffentlichen sollten, ob und was da noch so drin ist oder ob hier im Wesentlichen das zugrundeliegende NN weiteroptimiert wurde?
 
Zuletzt bearbeitet:

DKK007

PCGH-Community-Veteran(in)
Rainbow hÀtte jetzt nicht umbedingt DLSS gebraucht, allerdings ist schon beeindruckend wie gut das ganze lÀuft.
Hab mal paar Benchmarkruns gemacht
System: FullHD, 3700x, 2070Super, 32GB 3200Mhz, installiert auf Crucial MX500 SSD
Ich habe ohne DLSS rund 180FPS Durchschnitt, mit DLSS QualitÀt hatte ich knappe 310FPS. Das sind mal Zahlen. :D
QualitĂ€tsverlust konnte ich keinen Feststellen. Zumindest im bewegten Bild. Ich glaube das mĂŒsste man sehr genau hinschauen oder mit einer höheren Aufösung.

Schon krass was man mit KI alles hinbekommt... 130FPS geschenkt ist schon eine Ansage.

Vor allem sieht man auch wie gut Vulkan da lÀuft. Denn bei anderen Spielen bekommt man mit Verringerung der Auflösung kaum noch höheren FPS in FullHD, weil man dann ins CPU-Limit kommt.
 

KuroSamurai117

BIOS-Overclocker(in)
Der kleine Entwickler hat dafĂŒr vermutlich keine Ressourcen - oder einfach keine Prio; Teil 1 war recht schnell "ausgepatcht". Aber fĂŒr Teil 2 kannst du fest damit rechnen.

MfG
Raff
Welcher kleine Entwickler? Ninja Theory gehört jetzt zu Microsoft Game Studios. Wurden im Personal ordentlich aufgestockt und arbeiten an 2-3 Projekten.
Sooo...klein sind die jetzt nicht mehr. ;)

Da Hellblade 2 ja neben PC hauptsĂ€chlich fĂŒr Xbox Series X/S kommt wird man sehen ob da DLSS oder andere Methoden zum Einsatz kommen.
 

Pleasedontkillme

Software-Overclocker(in)
Na das ist ja mal ein "gĂŒnstiger" Zeitpunkt DLSS 2.2 zu zeigen, so kurz vor dem FSR Release. Hehe, die Nvidia Marketing Pros wieder am Start. :D

Wenn der Algorithmus "einfach" per copy-paste fĂŒr Spiele funktioniert die bereits 2.0 unterstĂŒtzen, dann sind hier ja die Entwickler gefragt dass per Patch auszurollen. Vermutlich war R6 jetzt halt gerade "ready to battle" FSR.
NVidias Marketing Guys sind die besten, sicher wie du sagst kein Zufall.

Das Video finde ich mal endlich eine gute Show. Man sieht dem Spiel schmeckt DLSS, gerade Linien und Beschriftung ist genau das Richtige fĂŒr KI zum ausbĂŒgeln. Unterschiede findet man wirklich nur mit der Lupe.

Auch hier wieder leider 4K, stark breiter gestreutes 1440p wÀre mir und sicher anderen lieber gewesen zur Begutachtung.
 

CD LABS: Radon Project

Volt-Modder(in)
Das tÀuscht gewaltig. Alles bis auf Crysis sah damals nicht so pralle aus, zumindest aus heutiger Sicht.
Und Crysis wiederum war auf Seiten der CPU nie gut optimiert. Und auch Crysis bot keine vernĂŒnftige (integrierte) AA-Lösung...
...die Punkte werden gerne vergessen, wenn sich Leute ein neues Spiel wie Crysis wĂŒnschen: Auch dort gab es signifikante technische Probleme, die (damals) nie angegangen wurden und aktuell auch nur mehr schlecht als recht angegangen werden.
→ es ist wichtig, dass das Spiel, was versucht das nĂ€chste Crysis zu werden (Squadron 42) nicht die gleichen Fehler macht, sondern bis zum Release noch ordentliche CPU-Performance und ein kompetent gemachtes AA erhĂ€lt. Am liebsten natĂŒrlich einen spielespezifisch ausgerichteten DLSS-Konter, der daher dann uneinholbar ist...
 

ZeroZerp

Freizeitschrauber(in)
Infos (wenn auch mager) zu DLSS 2.2

1623995738303.png


 

PureLuck

Software-Overclocker(in)
→ es ist wichtig, dass das Spiel, was versucht das nĂ€chste Crysis zu werden (Squadron 42) nicht die gleichen Fehler macht, sondern bis zum Release noch ordentliche CPU-Performance und ein kompetent gemachtes AA erhĂ€lt.

Da glaube ich eher an ein Crysis 4 Release von Crytek, als an einen Release von Sq42.
Ich denke auch nicht, dass Sq42 ansatzweise so gut wird, wie es ein Crysis 1 damals war.
Jedoch bin ich gern bereit, mich eines Besseren belehren zu lassen.
 

CD LABS: Radon Project

Volt-Modder(in)
Jedoch bin ich gern bereit, mich eines Besseren belehren zu lassen.
Möchtest du dich auch schon vor Release "belehren" lassen?
Falls ja, dann hĂ€tte ich da was fĂŒr dich:
Bald fĂŒnf Jahre alt, aber genĂŒgend aktuell bzw. problemlos von den Lesenden OnTheFly aktualisierbar. (natĂŒrlich wĂŒrde ich mittlerweile sehr anders schreiben, aber das tut ja erstmal nichts zur Sache)
Wieso Star Citizen: Squadron 42 | GameStar-Pinboard
Kernaussagen waren und bleiben: Es ist zu leicht, SQ42 zu einem Erfolg zu machen, um es nicht zu releasen. Dass es die Erwartungen gleichzeitig nicht erfĂŒllen kann, ist wahrscheinlich. Dass es dabei ein schlechtes Spiel herumkommen wird, ist aber gleichzeitig unwahrscheinlich.
Ich bin auf dein Feedback gespannt.
Falls nein finde ich das aber auch voll okay. :)
 
Oben Unten