• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Unity Engine unterstützt bald auch Nvidia DLSS

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Unity Engine unterstützt bald auch Nvidia DLSS

Die Unity-Engine in Version 2021.2 wird noch vor dem Ende des Jahres 2021 ein Update erhalten, durch das die Technologie auch Nvidia DLSS nativ unterstützt. Das gab Nvidia kürzlich im Rahmen einer Pressemitteilung bekannt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Unity Engine unterstützt bald auch Nvidia DLSS
 

gerX7a

BIOS-Overclocker(in)
"Voraussichtlich wird der native DLSS-Support für Unity also ebenfalls zu einer stärkeren Verbreitung von DLSS insgesamt beitragen, wenn Unity-Entwickler auch hier ohne umständliches Engine-Training die Rendering-Technologie nutzen können."

Der Hinweis macht keinen Sinn, da der Bedarf nur bei DLSS 1 bestand, das heute per se keiner mehr implementieren wird. Der wesentliche Vorteil hier ist, dass DLSS 2.x nun grundlegend in die Engine (konkret in die raytracingfähige High Definition Render Pipeline) integriert wird, d. h. Entwickler können die Funktionalität mit wenigen Klicks zu ihren Projekten hinzufügen (den restlichen, einmaligen Implementationsaufwand haben das Unity-Team und nVidia übernommen).
 

CD LABS: Radon Project

Volt-Modder(in)
In meinen Augen eigentlich der wichtigere Schritt für DLSS als die UE4-Implementierung. Diverse UE4-Titel nutzen ja bereits das interne TAA und ResScale, während bei Unity im Bereich des AAs oftmals überhaupt nichts ernstzunehmendes angeboten wird.

Wieso dann eigentlich? Weil DLSS 2x, der noch zu DLSS 1.0-Zeiten versprochene Modus mit nativer Res als Basis, bis heute nicht nachgeliefert wurde. Einen solchen Modus brauchen diverse Unity-Titel, die gute Performance liefern, am Meisten. (damit die vorhandene Performance auch für ordentliche Bildqualität genutzt werden kann)

Für die, die auch auf reddit diskutieren:
Recommented content - Reddit An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

raPid-81

Software-Overclocker(in)
Nice, dann sind es schon 2 häufig verwendete Engines die DLSS "ab Werk" unterstützen. Ich bin gespannt ob Intel's Pendant kompatibel zu DLSS wird. Bei AMD munkelt man ja dass es zwar open-source wird, aber eben ohne KI-Training funktioniert und die Ergebnisse ggf. nicht so überzeugend werden.
 

KasenShlogga

PC-Selbstbauer(in)
Ich frage mich gerade wie das gehen soll, wenn vorher jedes Spiel noch ein eigens dafür trainiertes KI-Modell gebraucht hat.
 

gerX7a

BIOS-Overclocker(in)
Ich frage mich gerade wie das gehen soll, wenn vorher jedes Spiel noch ein eigens dafür trainiertes KI-Modell gebraucht hat.
v2.x verwendet ein direkt von nVidia universell trainiertes neuronales Netz, das nVidia daher sogar mit Treiberupdates aktualisieren kann, solange es sich an das v2-API hält (und der Entwickler das zulässt).
Entwicklern steht natürlich weiterhin offen dieses Netz als Grundlage für ein erweitertes, spezifisches Training zu nutzen um die Ergebnisse für ihren Titel zu optimieren; meiner Einschätzung nach wird sich aber voraussichtlich kein Entwickler die Arbeit machen, sondern das out-of-the-box gelieferte NN von nVidia nutzen und man wartet einfach ab ob nVidia hier später noch was optimieren kann oder was bspw. DLSS 3.0 an Verbesserungen bieten wird.

[...] Wieso dann eigentlich? Weil DLSS 2x, der noch zu DLSS 1.0-Zeiten versprochene Modus mit nativer Res als Basis, bis heute nicht nachgeliefert wurde. [...]
Mach auch wenig Sinn, da man damit den größten Vorteil von DLSS verspielt, nämlich den Performancezugewinn und der wird in Verbindung mit den weiterhin steigenden Rechenanforderungen dringend benötigt.
Darüber hinaus besteht im DLSS 2.1 SDK die Möglichkeit die native Renderauflösung weitaus freizügiger zu konfigurieren und wenn Entwickler das unterstützen, kann die Auflösung sogar auf einer Frame-by-Frame-Basis angepasst werden, um bspw. in temporär renderkomplexen Bereichen die Performance hoch zu halten (Dynmaic Resolution Support).

[...] Bei AMD munkelt man ja [...]
Hier wird man voraussichtlich noch abwarten müssen. Der Versuch eines Verzichts auf ML wäre nicht abwegig, denn RDNA2 hat diesbezüglich nichts anzubieten. Die Frage wird halt sein, ob ihnen etwas qualitativ und performancetechnisch Vergleichbares oder vielleicht gar Besseres gelingen wird?
Schlussendlich braucht man sich bei nVidia auch keiner Illusion bzgl. den Ursprüngen hinzugeben. Die Tensor Cores sind auf den GPUs, weil nVidia die gleichermaßen für die professionellen Produkte verwendet und DLSS verstehe ich immer noch als den Versuch den Gamern (zu Turing-Zeiten) irgend etwas an die Hand zu geben, damit man ihnen erklären konnte, warum sie für die ansonsten unnütze Transistorfläche mitbezahlen müssen.
Heute ist der "Ursprung" jedoch auch nicht mehr wirklich relevant. Die Transistorfläche der ursprünglichen Tensor Cores v2 war deutlich kleiner als befürchtet, DLSS 2 hat einen deutlichen Sprung i. V. z. zum Erstling gemacht und die Performancezugewinne bei weitestgehend einem Erhalt der Bildqualität sind nun da.
Man darf gespannt sein wie es hier weitergeht, denn die Rechenleistung wird auch in den nächsten Jahren auf GPUs ein knappes Gut bleiben, sodass derartige Techniken dringend benötigt werden: DLSS 3, FidelityFX Super Resolution, XeSS
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Hm ... hört sich für mich wie ne bezahlte Nvidia-Werbung an(edit:also bei denen von Unity, um's genauer zu sagen).

Ich sage: Lasst Taten sprechen !
Zeigt mal her die ganzen Games.
Massig RT, ausgiebig inkl. GI und allem drum und dran, mit superscharfem Basis-16k DLSS, auf 1440p, oder 4k berechnet.
Alles supergut und problemlos lauffähig.

Dann wird es alle von selbst überzeugen.

Is ja schön, was laut "Werbung" zukünftig alles möglich sein wird.
Ich hoffe nur die vergessen vor lauter Effekten nicht das gute Spiel. :D

Falls es wirklich was wird, hab ich ja bereits auf's richtige Pferd gesetzt, mit der 3080.
Falls nich, es gibt auch gute Spiele, ohne RT/DLSS.

Mir ist jedenfalls ein Valheim, Wreckfest, RDR2 ohne RT/DLSS lieber, als ein CP mit RT/DLSS, was unfertig wirkt, was das Spiel angeht.
Lasse mich gern überzeugen, dass es alles nur supergut und toll wird, in Zukunft. Das wäre für alle ja schön.
Ein CP hat mich bisher noch nicht so vom Hocker gehauen.

Aber schaun wir mal ...
Hoffe es wird alles toll. :)
 
Zuletzt bearbeitet:

CD LABS: Radon Project

Volt-Modder(in)
Mach auch wenig Sinn, da man damit den größten Vorteil von DLSS verspielt, nämlich den Performancezugewinn und der wird in Verbindung mit den weiterhin steigenden Rechenanforderungen dringend benötigt.
Gerade im Kontext von Unity gibt es genügend Titel, in denen es massig Performance gibt, aber das vorhandene Antialiasing miserabel ist. Ich werfe (als bedeutenderen Titeln) nur mal PillE, T:TON und Gwent in den Raum.
Darüber hinaus besteht im DLSS 2.1 SDK die Möglichkeit die native Renderauflösung weitaus freizügiger zu konfigurieren und wenn Entwickler das unterstützen, kann die Auflösung sogar auf einer Frame-by-Frame-Basis angepasst werden, um bspw. in temporär renderkomplexen Bereichen die Performance hoch zu halten (Dynmaic Resolution Support).
Meine Prognose für DLSS 3 ist ja, dass dann FrameRateTarget und QualityTarget miteinander verknüpft werden, weil der Einfluss der temporalen Komponente so weit gewachsen sein wird, dass alles andere keinen Sinn mehr hätte.
Also dann würde der DLSS-Algorithmus sehr davon abhängig sein, sowohl von vielen Elementen Informationen zu der Bewegung zu erhalten, (hohe Renderres) als auch viele Aktualisierungen der Bewegung (hohe Framerate) zur Verfügung zu haben. Dazwischen ein Optimum zu finden wäre dann die ständige Herausforderung für die dynamische Anpassung der Renderres.
 

gerX7a

BIOS-Overclocker(in)
Eine irgendwie geartete Verknüfung "FrameRateTarget und QualityTarget" muss ja jetzt schon mit DLSS 2.1 gegeben sein, denn ansonsten würde Dynmaic Resolution Support wenig Sinn ergeben.
Möglicherweise ist das aber noch rudimentär implementiert? Der Idealfall wäre natürlich, wenn man einen verlässlichen QualityWert von dem DLSS-PostProcessor erhalten könnte (k. A. ob der so etwas liefern oder zumindest abschätzen kann oder einfach nach bestem Wissen rekonstruiert) und dann könnte man bspw. festlegen, dass man im Spiel die Qualität hochhalten will oder bspw. die Fps oder eine gewichtete Mischung aus beidem.
Beispielsweise für Shooter könnte DRS sehr interessant sein, dagegen bei einem RPG würde ich eher auf Qualität setzen und es präferieren, wenn ich für FullHD bspw. im Quality-Mode anstatt mit 720p native stattdessen mit vielleicht 860p native rendern lassen könnte.
Vorrangig sollte man aktuell aber die Artefakte bei einigen diffizilen Details angehen, weil die derzeit der Akzeptanz am ehesten im Wege stehen. Die Performancezugewinne sind schon gut.
Und man darf auf jeden Fall gespannt sein was AMD und Intel zu dem Thema beizutragen haben.
 
Zuletzt bearbeitet:

theGucky

PC-Selbstbauer(in)
Mir ist jedenfalls ein Valheim, Wreckfest, RDR2 ohne RT/DLSS lieber, als ein CP mit RT/DLSS, was unfertig wirkt, was das Spiel angeht.
Lasse mich gern überzeugen, dass es alles nur supergut und toll wird, in Zukunft. Das wäre für alle ja schön.
Ein CP hat mich bisher noch nicht so vom Hocker gehauen.

Aber schaun wir mal ...
Hoffe es wird alles toll. :)
Raytracing hat nichts mit der News zu tun... DLSS ist einfach ein Feature das man anschalten kann und mithilfe von einer RTX Karte mehr FPS bekommt, bzw das beste Antialiasing bisher. DLSS hat nichts mit der "Unfertigkeit" von CP2077 zu tun.

Exklusive Features gab es schon immer z.b. Fidality oder Hairworks damals auch Physix. Aber DLSS ist ein so starkes Argument, das AMD schnell nachziehen muss, bevor DLSS die breite Masse erreicht...und lange ist es nicht mehr hin.
 

gerX7a

BIOS-Overclocker(in)
[...] bevor DLSS die breite Masse erreicht [...]
Das hat es bereits. ;-) In Steam nehmen unter "All Video Cards" gelistete RTX-GPUs bereits 16,7 % Anteil ein. Sämtliche AMD-GPUs zusammen, d. h. inkl. der iGPUs, kommen auf gerade einmal 12,0 %. (Und die RDNA2-GPUs alleine kommen nicht einmal auf ein halbes Prozent.)
 

Nuallan

PCGH-Community-Veteran(in)
Das hat es bereits. ;-) In Steam nehmen unter "All Video Cards" gelistete RTX-GPUs bereits 16,7 % Anteil ein. Sämtliche AMD-GPUs zusammen, d. h. inkl. der iGPUs, kommen auf gerade einmal 12,0 %. (Und die RDNA2-GPUs alleine kommen nicht einmal auf ein halbes Prozent.)
Nein, die breite Masse hat es noch lange nicht erreicht. Was nutzt einem eine RTX-Karte wenn so wenig Spiele DLSS unterstützen?

Ich könnte ja mal alle nennenswerten Spiele der letzten zwei Jahre aufführen die kein DLSS unterstützen, und ältere aber viel gespielte Spiele die nie einen Patch erhalten haben, aber das würde wohl die maximalen Zeichen für einen Beitrag sprengen..

Auch haben leider einige Spiele nie DLSS erhalten, obwohl es angekündigt wurde, wie z.B. auf der Folie zu sehen von 2018: https://www.nvidia.com/content/dam/...dlss-new-games-september/1700x660-25games.jpg
 

RavionHD

PCGH-Community-Veteran(in)
Die Anzahl der Spiele ist nicht relevant, eher die Verbreitung der entsprechenden Spiele.
Und die höchsten Spielerzahlen haben eben Jene wie CoD, Fortnite, Cyberpunk 2077, War Thunder usw die allesamt DLSS supporten.
 

Blackout27

Volt-Modder(in)
Langsam scheint DLSS mehr und mehr an Bedeutung zu erhalten.
Gibt es schon Handfeste Infos zur Dritten Generation von DLSS (DLSS 3 liest man hier immer mal wieder)?

Hoffentlich zeigt auch AMD bald ihre Alternative :)
 

ChrisMK72

PCGH-Community-Veteran(in)
Raytracing hat nichts mit der News zu tun.

Hast du die gelesen, oder das Video zur News geschaut ?

Mikkel Fredborg zeigt in dem Vortrag das Rendering von LEGO-Bausteinen mithilfe von Raytracing in Unity

Im Video wird auch RT gezeigt.
Ganz nebenbei wird DLSS auch seitens Nvidia oft im Zusammenhang mit RT genannt, um entsprechend fps frei zu machen, damit man RT einigermaßen flüssig laufen lassen kann.

DLSS hat nichts mit der "Unfertigkeit" von CP2077 zu tun.

Habe nirgendwo geschrieben, dass CP wegen DLSS unfertig released wurde.


edit:

Gibt es schon Handfeste Infos zur Dritten Generation von DLSS (DLSS 3 liest man hier immer mal wieder)?

Wäre interessant.
Aber vor allem anhand echter, releaster und viel gezockter, guter Spiele.

Werbevideos und Demos was mal möglich sein könnte bringen mir weniger.
Da können sie viel erzählen.
Nutzt nur nix, wenn es nicht praktisch umgesetzt und auch allgemein(im mainstream) angenommen wird.


edit:

In Steam nehmen unter "All Video Cards" gelistete RTX-GPUs bereits 16,7 % Anteil ein.

Und die meist genutzte GPU is die GTX 1060.
Keine RTX Karte.

Nur die allein fast 10%.
Nur mal zur Steam Statistik. :D



Hoffentlich zeigt auch AMD bald ihre Alternative

Das wäre fein.

Ich hab aber den Eindruck, dass AMD es nicht so eilig hat, bei RT und einer DLSS Alternative Gas zu geben.

Da läuft's in der Richtung viel entspannter und vielleicht zeitlich passender/realistischer zu den Möglichkeiten des Mainstream.
Bis das echt in der Masse angekommen ist, vergeht sicher noch das ein, oder andere Jährchen.

AMD fängt gerade erst langsam an mit dem Thema, so wie Nvidia mit Turing.

Es bleibt vorerst Luxusspielerei.
Verzichtbar.

Vorerst noch.
 
Zuletzt bearbeitet:
Oben Unten