Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Das fällt dann sicher alles in Bereich "im Auge des Betrachters" Ich brauch eigentlich noch was um meinen Lappi in 4k Nativ zu befeuern am Thunderbolt. Aber das ist Zukunftsmusik, bis die Technik ne passende Marktdurchdringung erreicht das es für mich nützlich wäre und vor allem darf es die Bandbreite nicht belasten da ich via TB nur 4x habe.

Ja, das tue ich. Ich erkenne einen Unterschied zwischen 90% + RIS vs. 100% ziemlich deutlich. Zumindest bei ZA4 ist das so.
Ich erkenne auch den Unterschied zwischen DLSS on/off, stören würde es mich aber nicht geschweige denn das ich es aktiv wahrnehmen würde im laufendem Spiel.
Es bleibt am Ende aber ein Abstrich wie ich finde.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Mit DLSS hat man jetzt ein Rekonstruktions bzw. Anti Alias- Verfahren, welches nicht nur die Kanten im Normalfall besser glättet, nein- Es erhält dabei die Schärfe, rekonstruiert hochfrequente Details und beschleunigt nebenbei die Performance um einen erheblichen Teil
Böse,schlecht,pfui, Teufelszeug......kommt nicht von AMD.

Nachteil der ganzen Geschichte- Man braucht neue Hardware (ab 300,-€), die das ganze beherrscht.
Eben, bekommst Du nicht von AMD.

Der Stachel muß schon tief sitzen, wenn man in jeden Thread zu RT/DLSS einbrechen muß um ein Feature, daß man selber nicht nutzen kann, schlecht zu machen.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Das bildet bei keiner großen Engine die Basis
Es ist Teil von PhysX und damit enthalten.

ist nicht komplett OpenSource
Egal wie sehr ihr euch der Realität verweigert - warum müsst ihr Lügen?

Was ist eigentlich mit Mafia II los?
Mafia läuft noch mit dem ganz alten PhysX - CPU-Physik ist single-threaded, x87 und höllisch ineffizient.... Dazu kommt das es sehr oft falsch erkannt wird und dann nicht auf der GPU läuft - bekanntest Problem auch bei borderlands 2/TPS.

Man könnte auch eine ganz andere Frage stellen: Hat GPU-PhysX je gelebt? ;) Proprietäre Dinge, die mit Aufwand verbunden sind, erfreuen sich selten großer Verbreitung - wenn man mal den Apple-Kosmos ausklammert.
Wurde damals auch AMD angeboten, gab es sogar den versuch eines openSource-layers unterstützt von Nvidia - AMD hat aber abgelehnt.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Ich missachte einfach mal Khabaraks Empfehlung in #72 und reagiere:
(...)Egal wie sehr ihr euch der Realität verweigert - warum müsst ihr Lügen?(...)
Lügen setzt nach wie vor eigenes Wissen voraus, dass das, was man sagt, falsch ist. Ich weiß nicht, was an dem Posting falsch sein sollte.
Bitte leg es da.
(...)Mafia läuft noch mit dem ganz alten PhysX - CPU-Physik ist single-threaded, x87 und höllisch ineffizient.... Dazu kommt das es sehr oft falsch erkannt wird und dann nicht auf der GPU läuft - bekanntest Problem auch bei borderlands 2/TPS.(...)
Also auch, wenn das Treiber-Bit bereits gesetzt ist? Hast du Mafia II selber und könntest ein fertiges, getestetes Inspector-Profil hochladen?

Edit:
Es ist Teil von PhysX und damit enthalten.(...)
Es ging anfangs um den Begriff Basis und den verwendest du einfach inkorrekt.
Bildlich gesprochen: Wenn du einen Ziegelstein hast, der zwei Hälften hat und eine Hälfte (GPU-PhysX) liegt abseits und die andere Hälfte (CPU-PhysX) unterhalb von einem Turm (einer Engine), dann gilt folgendes:
Der Ziegelstein bildet die Basis des Turmes, die erste Hälfte bildet nicht die Basis des Turmes, die zweite Hälfte bildet die Basis des Turmes.
(PhysX bildet die Basis, GPU-PhysX bildet nicht die Basis, CPU-PhysX bildet die Basis)
 
Zuletzt bearbeitet:
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Lügen setzt nach wie vor eigenes Wissen voraus, dass das, was man sagt, falsch ist. Ich weiß nicht, was an dem Posting falsch sein sollte.
Behauptungen über angebliche Fakten aufzustellen ohne diese zu Wissen ist genauso eine Lüge.

Also auch, wenn das Treiber-Bit bereits gesetzt ist? Hast du Mafia II selber und könntest ein fertiges, getestetes Inspector-Profil hochladen?
Ja, auch wenn es im Treiber eingestellt ist. Da die Entscheidung dazu bei der Anwendung liegt. Wie gsagt - altbekanntes Problem.

Es ging anfangs um den Begriff Basis und den verwendest du einfach inkorrekt.
Nein. PhysX IST die Basis vieler großer Engines - warum stellst du dich absichtlich dumm?

Bildlich gesprochen: Wenn du einen Ziegelstein hast, der zwei Hälften hat und eine Hälfte (GPU-PhysX) liegt abseits und die andere Hälfte (CPU-PhysX) unterhalb von einem Turm (einer Engine), dann gilt folgendes:
Nein. Da kann ich dann genauso sagen "wenn AMDs karten nicht funktionieren weil der Entwickler sich weigert das gerenderte Bild auch anzuzeigen".
CPU-PhysX und GPU-PhysX sind die 2 Teile von PhysX - es kommt nur darauf an ob im Programm GPU-PhysX erlaubt sind oder nicht.
Wenn ein Entwickler-Studio es will könnten sie es auch einstellbar machen den PhysX hat dafür genau eine Einstellung mit 3 Werten: Automatisch, GPU-Preferred (CPU-Fallback wenn hardwareseitig nicht Unterstützt), CPU-Only.
Und ja - JEDES Spiel das derzeit auf Unreal oder Unity setzt PhysX und könnte damit quasi sofort (wenn nicht wie derzeit Absichtlich durch die Engine verhindert) GPU-PhysX nutzen.
Geht sogar noch besser - gibt genügend Fälle wo sich leute gewundert haben warum die Performance von GPU-PhysX nicht gut war, nur um festellen zu müssen das es auf ihrem System nicht unterstützt wird und auf CPU-PhysX zurück fällt.
GPU acceleration support for PhysX 3.3.4 under OS X - Physics Modeling - NVIDIA Developer Forums

Also - deine Aussagen sind, Demonstriert, 100% Falsch.

Und noch was kleines oben drauf:
Selbst wenn man deine vorherigen Lügen als ignoranz und Unwissen abtut - die Ausrede kannst du kein 2tes mal bringen nachdem dir bereits gezeigt wurde das deine Aussagen Falsch sind.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Behauptungen über angebliche Fakten aufzustellen ohne diese zu Wissen ist genauso eine Lüge.
Hmmm.... Manchmal ist es aber auch reine Nachlässigkeit bzw. einfach lockerer Sprachgebrauch, wenn man eine Vermutung oder Behauptung nicht ausreichend als solche kennzeichnet.
Das passiert schon mal im Eifer des Gefechts und muss nicht unbedingt "böswillig" passieren.

Nein. PhysX IST die Basis vieler großer Engines - warum stellst du dich absichtlich dumm?
Das kann man auch "feiner" ausdrücken. PhysX war eine Zeit lang die default- Physik- Engine/Bibliothek bei den großen Engines und ist auch allgemein die meistgenutzte Physik Bibliothek bis jetzt.

Wird aber in letzter Zeit Stück für Stück durch eigene Module verdrängt:
YouTube
YouTube

Ansonsten wäre es mir lieb, wenn man den scharfen Ton ein wenig runterfährt und ein wenig "netter" zueinander wäre.
Dann diskutiert sichs auch besser...

LG
Zero
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Behauptungen über angebliche Fakten aufzustellen ohne diese zu Wissen ist genauso eine Lüge.


Ja, auch wenn es im Treiber eingestellt ist. Da die Entscheidung dazu bei der Anwendung liegt. Wie gsagt - altbekanntes Problem.


Nein. PhysX IST die Basis vieler großer Engines - warum stellst du dich absichtlich dumm?


Nein. Da kann ich dann genauso sagen "wenn AMDs karten nicht funktionieren weil der Entwickler sich weigert das gerenderte Bild auch anzuzeigen".
CPU-PhysX und GPU-PhysX sind die 2 Teile von PhysX - es kommt nur darauf an ob im Programm GPU-PhysX erlaubt sind oder nicht.
Wenn ein Entwickler-Studio es will könnten sie es auch einstellbar machen den PhysX hat dafür genau eine Einstellung mit 3 Werten: Automatisch, GPU-Preferred (CPU-Fallback wenn hardwareseitig nicht Unterstützt), CPU-Only.
Und ja - JEDES Spiel das derzeit auf Unreal oder Unity setzt PhysX und könnte damit quasi sofort (wenn nicht wie derzeit Absichtlich durch die Engine verhindert) GPU-PhysX nutzen.
Geht sogar noch besser - gibt genügend Fälle wo sich leute gewundert haben warum die Performance von GPU-PhysX nicht gut war, nur um festellen zu müssen das es auf ihrem System nicht unterstützt wird und auf CPU-PhysX zurück fällt.
GPU acceleration support for PhysX 3.3.4 under OS X - Physics Modeling - NVIDIA Developer Forums

Also - deine Aussagen sind, Demonstriert, 100% Falsch.

Und noch was kleines oben drauf:
Selbst wenn man deine vorherigen Lügen als ignoranz und Unwissen abtut - die Ausrede kannst du kein 2tes mal bringen nachdem dir bereits gezeigt wurde das deine Aussagen Falsch sind.
Deine Verwendung der Worte Lügen und Basis bleiben problematisch und ich finde es sehr schade, dass der zweigeteilte Ziegelstein an letzterem Problem nichts ändern konnte.
Aber nachdem ich mich etwas mehr informiert habe, bin ich auf diese ältere News gestoßen:
https://www.pcgameshardware.de/PhysX-Software-229957/News/Nvidia-GPU-Open-Source-Quellcode-1270556/
Zu der habe ich damals auch kommentiert, entsprechend muss ich es auch einmal mitbekommen haben. Aber ich habe es anscheinend wieder vergessen und mir war nur der ältere Stand mit einem Pseudo-OpenSourcePhysX im Hinterkopf geblieben. Sorry, kommt vor.
(sollte ich jetzt wiederum etwas in andere Richtung übersehen habe und es ist doch nicht OpenSource, dann bitte ich das durch andere User aufzudecken)
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Du hast jetzt sogar gezeigt das eine Ursprüngliche Aussage - die Behauptung es seie nicht OpenSource - Falsch ist.
Korrekt. Naja, teilweise. Ich erinnere mal kurz:
(...) Denn Khabarak hat von GPU PhysX gesprochen. Das bildet bei keiner großen Engine die Basis, ist nicht komplett OpenSource und ja, kann man gerne als gestorben betrachten.
Die ursprüngliche Aussage bestand also aus vier Teilen.

  1. Khabarak hat von GPU PhysX gesprochen: Zweifellos korrekt
  2. Das bildet bei keiner großen Engine die Basis: Zweifelst du an, seit dem Posting habe ich mich allerdings damit nicht mehr beschäftigt. Ich habe auch das Gefühl, dass ich dich nicht überzeugen könnte, falls ich richtig liegen sollte. Und zwar wegen deiner sehr individuellen Verwendung des Wortes Basis.
  3. ist nicht komplett OpenSource: Anscheinend doch. Es sei denn, ich habe jetzt wiederum etwas übersehen, weshalb es nicht komplett OpenSource ist. Mein aktueller Stand, um es noch einmal zuzugeben, ist aber, dass es komplett OpenSource ist.
  4. kann man gerne als gestorben betrachten: Also lebendig wirkt GPU PhysX im Gamingbereich nicht. Im Gamingbereich habe ich übrigens vergessen, dazu zu schreiben. Nvidia wirbt ja, wenn ich das richtig gesehen habe, neuerdings viel mit professionellen Anwendungen und PhysX. Da habe ich mich aber noch nicht eingelesen, ob dort GPU PhysX genutzt wird.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Ich habe auch das Gefühl, dass ich dich nicht überzeugen könnte, falls ich richtig liegen sollte.
Dafür müsstest du erstmal versuchen ein Argument zu formulieren, und 2tens müsstest du die Sachlage wie sie herrscht ändern.

Nvidia wirbt ja, wenn ich das richtig gesehen habe, neuerdings viel mit professionellen Anwendungen und PhysX. Da habe ich mich aber noch nicht eingelesen, ob dort GPU PhysX genutzt wird.
Nvidia wirbt seit jeher mit den Features für den Profi-bereich - nur eben ist das an den Profi gerichtet. Hier haben die meisten nicht mal ne Ahnung das es sowas wie "OptiX" gibt, geschweige denn wie alt es ist oder was es ist.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Dafür müsstest du erstmal versuchen ein Argument zu formulieren, und 2tens müsstest du die Sachlage wie sie herrscht ändern.(...)
Ist es für dich in Ordnung, wenn ich bis morgen Abend warte, um erst einmal reinzuschnuppern und herauszufinden, ob ich mir die angemessene Recherche zeitlich leisten kann?
(...)
Nvidia wirbt seit jeher mit den Features für den Profi-bereich - nur eben ist das an den Profi gerichtet. Hier haben die meisten nicht mal ne Ahnung das es sowas wie "OptiX" gibt, geschweige denn wie alt es ist oder was es ist.
Naja, es kann schon sein, dass dank der DesignGarageDemo aus Fermi-Zeiten manche den Namen noch kennen.
Übrigens schade, dass Nvidia in letzter Zeit so mit Demos knausert und den CoolStuff-Bereich verkümmern lässt---auch, um einmal den Bogen zu DLSS zu schlagen.

Und um den Bogen zurück zu PhysX zu schlagen und beides in Verbindung zu bringen: Eine Neuausgabe von SupersonicSledge, als vollwertiges Spiel und mit DLSS 2x insbesondere für die Trümmer würde ich viel Potenial zutrauen...
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Naja, es kann schon sein, dass dank der DesignGarageDemo aus Fermi-Zeiten manche den Namen noch kennen.
Leider funktioniert die Demo nicht mit aktueller Hardware - wollte ich erst kürzlich mal testen was man da heute so erreicht - mit dem alten, nicht mal ansatzweise optimierten, GPU-Software-Raytracing.

Übrigens schade, dass Nvidia in letzter Zeit so mit Demos knausert und den CoolStuff-Bereich verkümmern lässt---auch, um einmal den Bogen zu DLSS zu schlagen.
Die alten Demos waren klasse. Schade drum.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

@Raff
Dein Artikel hat mehrere grundlegende Kinken. Wahrscheinlich wolltest du es verständlich schreiben, ich würde behaupten das geht nach hinten los.

In einem Pixelraster verschwindet nichts und native, wird immer die feiner (mit mehr Details) dargestellte Auflösung, als irgendeine Upscalingvariante bleiben, auch Upscaling kann maximal mit nativer Auflösung dargestelt werden. 4K und 5K sind nunmal 4 und 5k nativ, nicht 1080p auf 4K hochskaliert.

Das neue DLSS wird wohl schneller, aber dafür wird das Upscaling deutlicher heruntergefahren, letztlich liegt es am Monitor Asic wie der mit geringeren Ausgabeformaten als nativ umgehen kann. Nv sucht sich für die Dastellung in eigenen Benchmarks sicher die optimalste Variante für eine Präsi heraus (Auflösung und Asic).

Performance - 25% was dann unter 4K nur noch unter 1080p+DLSS darstellt.
High - max 50% der nativen Renderauflösung.

Ehrlich, Nv hat sie nicht mehr alle. Was soll dieser Quark? DLSS kann auch in einer 16K Vorlage nichts besser, solange man nicht x2 Anwendung (also von mehr Bildpunkten als nativ ausgeht und auffüllt), was wegen der Bewegungsvektoren wohl zu viel Leistung kostet und deutlicher Unschärfe ins Bild bringt, desto mehr Pixel um so mehr.

Ein Pixelraster ist immer das gleiche, nämlich das was der angeschlossene Monitor mitbringt. Es kann auch unter Upscalingvarianten (ob AI/KI oder nicht) nur dieses Raster letztlich genutzt werden, egal was Nv behauptet. Es geht vor allem um Beschleunigung von RTRT Effekten und diese gehen nochmals zu Lasten der Auflösungsqualität.

DLSS x2 soll nur für Profibereiche vorbehalten bleiben (Bildbearbeitung nicht bewegter Inhalte), warum man es bei Einführung von RTX als Superfeature für Spiele bewarb ist unklar, aber typisch für Huang.

Jetzt wissen wir auch warum Ampere schneller wird!
 
Zuletzt bearbeitet von einem Moderator:
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

@Raff
Dein Artikel hat mehrere grundlegende Kinken. Wahrscheinlich wolltest du es verständlich schreiben, ich würde behaupten das geht nach hinten los.

In einem Pixelraster verschwindet nichts und native, wird immer die feiner (mit mehr Details) dargestellte Auflösung, als irgendeine Upscalingvariante bleiben, auch Upscaling kann maximal mit nativer Auflösung dargestelt werden. 4K und 5K sind nunmal 4 und 5k nativ, nicht 1080p auf 4K hochskaliert.

Das neue DLSS wird wohl schneller, aber dafür wird das Upscaling deutlicher heruntergefahren, letztlich liegt es am Monitor Asic wie der mit geringeren Ausgabeformaten als nativ umgehen kann. Nv sucht sich für die Dastellung in eigenen Benchmarks sicher die optimalste Variante für eine Präsi heraus (Auflösung und Asic).

Performance - 25% was dann unter 4K nur noch unter 1080p+DLSS darstellt.
High - max 50% der nativen Renderauflösung.

Ehrlich, Nv hat sie nicht mehr alle. Was soll dieser Quark? DLSS kann auch in einer 16K Vorlage nichts besser, solange man nicht x2 Anwendung (also von mehr Bildpunkten als nativ ausgeht und auffüllt), was wegen der Bewegungsvektoren wohl zu viel Leistung kostet und deutlicher Unschärfe ins Bild bringt, desto mehr Pixel um so mehr.

Ein Pixelraster ist immer das gleiche, nämlich das was der angeschlossene Monitor mitbringt. Es kann auch unter Upscalingvarianten (ob AI/KI oder nicht) nur dieses Raster letztlich genutzt werden, egal was Nv behauptet. Es geht vor allem um Beschleunigung von RTRT Effekten und diese gehen nochmals zu Lasten der Auflösungsqualität.

DLSS x2 soll nur für Profibereiche vorbehalten bleiben (Bildbearbeitung nicht bewegter Inhalte), warum man es bei Einführung von RTX als Superfeature für Spiele bewarb ist unklar, aber typisch für Huang.

Jetzt wissen wir auch warum Ampere schneller wird!

Irgendwas passt nicht zusammen.

Der Artikel und die Vergleichsbilder zeigen etwas anderes, als das was du sagst.

Kurzes Zitat aus dem Artikel:

Im Vergleich mit dem Material, das Nvidias Netzwerk zum Trainieren bekommt, ist das allgemein als "hochauflösend" bezeichnete Ultra HD (4K) nur ein bröseliger Aliasing-Haufen, von gängigen Auflösungen wie WQHD und Full HD nicht zu sprechen. Die Ground Truth, also das Offline-Trainingsmaterial der Nvidia-Rechner, besteht aus 16K-Bildern, ergo einer viermal höheren Achsenauflösung. Daher gelingt es DLSS in besonders ausgedehnt trainierten Spielen, Details darzustellen, die in gängigen Echtzeitauflösungen im Pixelraster verschwinden

Herausgekommen ist DLSS 2.0. Dieses zeichnet sich laut Nvidia durch seine gesteigerte Qualität und Flexibilität aus. Man verwendet nun ein universell trainiertes Netz, das Pro-Spiel-Training ist nicht mehr notwendig und vereinfacht damit auch die Integration von DLSS in Spiele - Zutun durch deren Entwickler ist jedoch nach wie vor nötig, da DLSS Zugriff auf diverse Buffer benötigt. Durch weitere Software-Errungenschaften ist DLSS 2.0 mit allen RTX-20-Grafikkarten in allen Auflösungen nutzbar und zeichnet vor allem in Bewegung sauberere Bilder. Gerade pixelfeine Strukturen, der "Endgegner" aller Anti-Aliasing-Modi, sollen durch das verbesserte Motion-Vector-Training beinahe fehlerfrei dargestellt werden. Dafür opfert Nvidia ein paar Prozent Leistung gegenüber dem früheren Verfahren, die es wert sind:


Und ich würde nochmal empfehlen die Vergleichsbilder näher zu betrachten ;)
 
Zuletzt bearbeitet:
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Bezüglich PhysX:
Glaub das letzte Game, wo ich auf PhysX geachtet hatte, war Hatred. :D :devil:

Meist weiß ich gar nicht, ob's aktiv ist, oder nicht.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Bezüglich PhysX:
Glaub das letzte Game, wo ich auf PhysX geachtet hatte, war Hatred. :D :devil:

Meist weiß ich gar nicht, ob's aktiv ist, oder nicht.

Ist wie Havok eigentlich nur noch CPU based in spielen integriert.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Ist es für dich in Ordnung, wenn ich bis morgen Abend warte, um erst einmal reinzuschnuppern und herauszufinden, ob ich mir die angemessene Recherche zeitlich leisten kann?
(...)
Also aktuell wird das nichts. Vielleicht am Wochenende. Wenn jemand anderes schon vorher die Zeit findet, um sich einzuarbeiten, dann wäre das natürlich klasse.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Im Übrigen ist AA immer ein Kompromiss von Flimmerneigung zu Schärfe/Details.

Jein... uneingeschränkt würde ich dem nicht zustimmen.
Richtiges SSAA bietet insgesamt MEHR Details und die Texturen werden (bei angepasstem LOD) ebenfalls schärfer.

Eine gewisse - minimale - Interpolationsbedingte Unschärfe bei feinsten Pixelstrukturen und an Polygonkanten ist natürlich prinizpbedingt; macht das Bild IMO aber eher natürlicher.
 
Zurück