Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Einfach 2 Grafikkarten in den Rechner bauen und in 8k nativ zocken. :D Ist wirklich sehr einfach und sieht sehr gut aus. :nicken:
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Die Qualität von DLSS wird in den Spielen wahrscheinlich nicht besser, da die KI auf dem heimischen Rechner nicht weiter lernt. Die KI wird bei Nvidia angelernt und wenn die entsprechende Qualität erreicht wurde wird das ganze an den Entwickler weitergegeben und das war es. Ich bezweifle das Nvidia die KI weiter auf deren Servern laufen lässt um weiter zu lernen und auf dem heimischen Rechner wird die GPU zum einen zu langsam sein und zum anderen benötigt die KI hochauflösende Referenzbilder. Man müsste das Spiel quasi in einer Art Lernmodus spielen wo das Spiel in 4k und einer geringeren Auflösung gleichzeitig läuft damit die KI einen Ausgangsframe und einen Zielframe hat zwischen denen verglichen werden kann. Die Performance würde dann komplett in den Keller gehen und die eigene GPU ist sicherlich langsamer als die Nvidia Server.

Mal gucken wann DLSS2x kommt. Kann mir vorstellen das man das nicht nur für 4k (8k Ziel) implementieren könnte sondern auch für 1080p (4k Ziel) für z.B. die 2060 oder 2070.

Die allgemein bekannte Information ist, dass der DLSS Algorithmus mit dem Treiber kommt. Die eingebaute Grafikkarte wendet den nur an. Also kann über neue Treiber eben dieser Algorithmus ausgetauscht werden um die DLSS Performance zu verbessern. Die AI sitzt nicht in deinem Rechner, Ihre Ergebnisse werden dort nur angewendet. So habe ich es jedenfalls verstanden. Und es funktioniert auch offline, da der Teiber ja auf dem Rechner ist.
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Die Qualität von DLSS wird in den Spielen wahrscheinlich nicht besser, da die KI auf dem heimischen Rechner nicht weiter lernt.

Die KI aka das Neurale Netzwerk wirst stetig im Rechenzentrum von Nvidia als auch auf der Entwicklerseite verbessert. Teilweise fließen die Ergebnisse aus anderen Spielen sogar mit ein. Das ist ein fortwährender Prozess, keine Einbahnstraße.

Ihr solltest euch vielleicht besser mit dem Prinzip vertraut machen. Updates gibt es über die üblichen Treiberupdates und Patches vom Spielemacher selbst.

Die KI wird bei Nvidia angelernt und wenn die entsprechende Qualität erreicht wurde wird das ganze an den Entwickler weitergegeben und das war es.

Nein, das ist ein gegenseitiger Austausch. Je nachdem welchen Detailgrad die Entwickler letztendlich haben wollen, wählt man das entsprechende NN aus und nimmt das dann als Basis.

Besonders die Spielestudios können selbst aktiv werden. In Battlefield 5 wurden z.B. Bugs gefixt und neue Funktionen für zuknüftige Frostbite-Titel entwickelt.

Manche Effekte können sogar besonders hervorgehoben werden. Das ist ja das tolle an freier Programmierung. Als Beispiel hat der Entwickler die Möglichkeit die Reflektionsgrade in Raytracing zu bestimmen oder in DLSS ganze Szenen neu zu berechnen. Das ist wie eine große Schatzkiste für die Designer. Gleichzeitig ist es ein Mittel die FPS zu erhöhen. Daher fahren die Studios ja so darauf ab.

Ich bezweifle das Nvidia die KI weiter auf deren Servern laufen lässt um weiter zu lernen und auf dem heimischen Rechner wird die GPU zum einen zu langsam sein und zum anderen benötigt die KI hochauflösende Referenzbilder.

Die Grafikkarten beim Spieler haben sicher grenzen, dennoch sind die dedizierten Einheiten für Raytracing und die Tensorkerne mächtiger als alles was wir bisher in PC hatten.

Du kannst Gift darauf nehmen, dass Nvidia die Server fortwährend benutzt. Nicht unbedingt für dasselbe Spiel, aber irgendein Titel wird immer optimiert. Damals hat man auch über ihre CUDA-Idee gelacht. Später waren alle plötzlich ganz kleinlaut. Dasselbe im Automotive-Bereich.

Man müsste das Spiel quasi in einer Art Lernmodus spielen wo das Spiel in 4k und einer geringeren Auflösung gleichzeitig läuft damit die KI einen Ausgangsframe und einen Zielframe hat zwischen denen verglichen werden kann. Die Performance würde dann komplett in den Keller gehen und die eigene GPU ist sicherlich langsamer als die Nvidia Server.

Du kannst das bereits. Nvidia bietet soweit ich weiß die Option sogar ein eigenes Neurales Netzwerk zu benutzen. Fällt wahrscheinlich unter das NGX SDK für visuelle Anwendungen.

Als Entwickler bist du voll eingebunden und kannst selbstständig agieren. Sicherlich ist es langsamer als auf den Nvidia Servern selbst. Jedoch hat man bereits die Möglichkeit für den Einstieg ab einer RTX Titan oder RTX Quadro. Diese Hardware haben die Studios mittlerweile sowieso für ihre CAD-Systeme.

Das ist keine Voodoo Magie, sondern echte Entwicklung.

Mal gucken wann DLSS2x kommt. Kann mir vorstellen das man das nicht nur für 4k (8k Ziel) implementieren könnte sondern auch für 1080p (4k Ziel) für z.B. die 2060 oder 2070.

Die 2060 und 2070 werden sogar viel mehr von DLSS profitieren. Gerade wenn sie in den schwammigen bereichen unter 30-50 FPS liegen. Legt DLSS da z.B. nur 5-15 FPS drauf, ist es bereits in einer anderen Leistungsliga.

DLSS 2x ist eher was für die Enthusiastenkarten ab RTX 2080 Ti. Im Prinzip handelt es sich dabei um ein 70-80 prozentiiges SSAA mit KI-Dreingaben wie man in Reddit hört (ohne Gewähr!). Ohne genug Rohleistung kannst du das knicken.

Mal sehen was die Zukunft hier mitbringt! Neue Algorythmen könnten alles über Nacht verändern.
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

DLSS 2x ist quasi super-sampling. Dafür fehlt bei momentanen 12nm-GPUs einfach die Rohleistung. Vielleicht können wir in 7nm der Nachfolger darüber reden.
Das wird aber nicht beim Endanwender angewandt. Nicht vergessen das man sich bei NVidia einmieten muss, um Netzwerk Ressourcen zu erhalten. Das lassen wir gleich unter den Tisch fallen.

Das 64fach Sampling wird nur auf die "eingescannte Kopie" angewandt und es ist IMMER eine Bildkopie in niedriger Auflösung als nativ. Das Inferecing beim Anwender ist kein 64-fach Sampling.

Das heisst das nVidia selbst bei x2 nicht in jedem Fall die native Auflösung erreicht. Stell 2160p einfach mal auf 1800p oder 1620p, dann weisst was ich meine. Selbst wenn du dann sichtbare Kanten zusätzlich mit Pixel auffüllst, kommt man nicht auf native Auflösungen. Der Matsch kommt dann auch zu Stande, weil die ursprünglichen Texturen in höherer Auflösung vorliegen und heruntergerendert werden müssen, was die Geometrie negativ beeinflussen kann (winkelabhängig).

Der Algorithmus stiehlt dem Bild die Brillianz (Tonemapping), weil das bei jedem "gescannten" Bild so ist. Das ist wie ein Kopiervorgang von einer Kopie und natürlich ist die zweite Kopie schneller zu verarbeiten, weil bei jedem Kopiervorgang ein Teil des ursprünglichen Bildinhaltes verloren geht. Das füllt nVidia je nach Hardwareressource künstlich auf.

Das sieht man auch ganz genau in dem Bild das ich eingestellt habe. NVidia gehen damit Teile des ursprünglichen Bildes verloren, was zu dem matschigen, matten Bild führen kann - inklusive leichtem Grauschleier wegen nachträglicher Kompensantion des Schärfegrades mit schwarzen und weißen Pixeln. Man übertüncht sozusagen das Bild nochmal, über das sie dann einen Filter stülpen. Das wollen Entwickler bestimmt nicht, weil es den ursprünglichen Content zweckentfremdet und abändert. Wie kommst du darauf, dass die Entwickler darauf scharf sind? Quelle?

Ich glaube es ist eher anders herum, nicht wie du mitteilst und kaum ein Verfahren von dem alle gleichmäßig profitieren. Denn zu aller erst profitiert nVidia - weil man schon frühzeitig Zugriff auf Entwicklerinhalte bekommt, mit entscheidet was gut oder nicht gut ist und anhand derer auch die Hardwareentwicklung bestimmen kann. Das Monopol lässt grüßen. Man macht sich absolut abhängig von den Verfahren und damit von nVidia. Das wollen Entwickler nicht. NVidia pusht das Ganze wohl erstmal mit Rabatten oder Freistellungen für die notwendigen Ressourcen, ob das bei hoher Frequentierung so bleibt ist fraglich. Dann wird man sich ganz sicher einkaufen müssen und nVidias Supercomputer bekommen mehr zu tun.
 
Zuletzt bearbeitet:
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Das wird aber nicht beim Endanwender angewandt. Nicht vergessen dazu zu schrieben und das man sich bei NVidia einmieten muss um Netzwerk Ressourcen zu erhalten lassen wir gleich unter den Tischen fallen.

Was glaubst du, wofür die Entwickler Programme und Kooperationen da sind? Teilweise bekommt man sogar als IT-Student Zugriff. Tun wir nicht so als müsste man für jeden Zugriff direkt bezahlen.

Das 64fach Sampling wird nur auf der "eingescannten Kopie" angewandt und es ist IMMER eine Bildkopie mit niedriger Auflösung als nativ.

DAs sind keine Kopien, sondern Methoden wie man möglichst dieselbe Qualität erreicht wie die 64 Bildquellen. Es ist eher dynamisch und flexibel. Je öfter die Wiederholung durchlaufen wird, desto besser werden die Ergebnisse. Ja, das Ding lernt wirklich - ist kein pures Marketing.

Ob die Auflösung nativ ist oder nicht, spielt nur für die Leistung eine Rolle. Das Endziel ist die Bildqualität möglichst nahe an die bestmögliche Darstellung zu bekommen. Ab einem gewissen Punkt merkst du als Anwender den Unterschied kaum noch ohne direkten 1:1 Bild-zu-Bild vergleich.

Das heißt das nVidia selbst bei x2 nicht in jedem Fall die native Auflösung erreicht. Stell 2160p einfach mal auf 1800p oder 1620p, dann weißt was ich meine. Selbst wenn du dann Kanten zusätzlich mit Pixel auffüllst, kommt man nicht auf native Auflösung.

Natürlich handelt es sich schlicht gesagt um intelligentes Upscaling. Das Ergebnis wird trotzdem besser aussehen als 4k ohne AA. Ein Programmierer würde für dieselben Resultate ewig brauchen. Vorausgesetzt er hat überhaupt die Kenntnisse dafür.

DLSS ist auf jeden Fall wesentlich besser als der übliche "dynamische Auflösungs"-Quark, der sich seit Jahren wie eine Seuche verbreitet!

Der Algorithmus stillt dem Bild wegen Filtering die Brillianz, weil das bei jedem "gescannten" Bild so ist. Das ist wie ein Kopiervorgang von einer Kopie und natürlich ist die zweite Kopie schneller zu verabreiten weil bei jedem Kopiervorgang ein Teil des ursprünglichen Bildes verloren geht.

Nochmal, das ist keine KOPIE!
Der Algorithmus bzw. die Ansammlung davon ist eine Art künstliche Intelligenz Computernetzwerk, das aufgebaut ist wie das menschliche Gehirn. Schicht für Schicht! Es wird diesem digitalen Gehirn beigebracht wie es sich zu verhalten, wie es mit Situationen umzugehen hat.

Es ist wie einem Kind das malen beizubringen. Striche, Kreise, Quadrate, Füllfarben, Tiefe & Texturen usw.! Das Neurales Netzwerk lernt wann es eine Fläche zu glätten hat und wann fehlende Pixel aufgefüllt gehören.

Um die Unterschiede zu kennen, wird einer der modernsten Indexer aller Zeiten benutzt. Du weiß schon ... Hund, Katze, Maus, Rakete, Monster usw. Die Technik kommt bereits in Nvidias autonomen Autosystemen vor, wird hier halt für Grafikgenerierung bzw. Optimierung eingesetzt. Ohne die Tensorcores wäre das in dieser Geschwindigkeit garnicht möglich. Bitte lies dich selbst in die Thematik ein!

Das sieht man auch ganz genau in dem Bild das ich eingestellt habe, NVidia gehen einen Teil verloren, was zu dem teils matscigem matten Bild führt über das sie nochmal einn Filter stülpen.

Du verwechselst hier etwas.Wir sprechen hier von DLSS, nicht Raytracing.

Das ist die Nvidia Variante über Denoising. Dafür sind die Raytracingkerne zuständig. DLSS kann unabhängig von Raytracing verwendet werden. Letzteres profitiert aber stark davon, wenn beide gleichzeitig zur Anwendung kommen.

Wie kommst du darauf das die Entwickler darauf scharf sind? Quelle?

Hast du die Bereichte der letzten gut 4-5 Monate verfolgt? Es gab dutzende Entwickler, die über das Thema technisch im Interview befragen ließen.

Spontan fallen mir da Darksiders 3, Battlefield 5, Metro:Exodus, Atomic Heart ein. Dazu gabs ellenlange Artikel auch bei PCGH. Müsste man halt nur gelesen haben :devil:


Für viele Entwickler ist das eine schnellere und günstigere Methode. Nicht jedes Studio hat unhählige Spezialisten für Optmierung. Besonders bei Konsolenports sollte das unheimlich Zeit und Geld sparen. Daher -> scharf drauf!

Ich glaube es ist eher anders herum weil und nicht wie du behauptest ein verfahren von dem alle gleichmaäßig profitieren, zu aller erst profitiert nVidia weil man Zugriff auf die Entwicklerinhalte hat und anhand derer auch die Hardwareentwicklung bestimmen kann.

Sicher ist das so. Nennen wir es doch eher eine Win-Win-Situation. Die Entwickler optimieren mit der Technik ihre Spiele und Nvidia bekommt die Daten um ihre Computer und Zukunftsvisionen zu füttern. Danach bieten sie diese erneut an. Ein ewiger Kreislauf im Hamsterrad. Es ist kein Geheimnis, dass Nvidia näher an der Entwicklerszene ist als alle anderen.

Und ja, andere Entwickler profitieren ebenfalls. Beispielsweise wenn deren Spiel dieselbe Engine oder ähnlichen Grafikstil verwendet.

Man macht sich absolut abhängig von den Verfahren und damit nVidia. Das wollen Entwickler nicht und nVidia pusht das ganze wohl erstmal mit Rabatten oder Freistellungen für die notwendigen Ressourcen.

Klar doch :nene:
Nvidia hat halt 80% Markanteil im GPU-Markt für dedizierte Grafikkarten. Die meisten Entwickler nutzen bereits CUDA und diverse Nvidia-Technologien. Die stört es nicht sonderlich, also komm bitte nicht mit der üblichen Monopol-Panikmache der üblichen Forenhelden.

Die Konkurrenz hat nach wie vor die Möglichkeit selbst Lösungen zu entwickeln. Wird halt nur schwierig, wenn man jeden Trend verschläft oder so weit in die Zukunft blickt, dass selbst die Entwickler abwinken. Irgendwer muss ja die Pionierarbeit machen. Für gewöhnlich nehmen die Early-Adopter die Mehrkosten auch in Kauf um das neuste Spielzeug zu haben.

Das ist bei Spielern nicht anders wie bei den eigentlichen Entwicklern.
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Ich bin sehr anfällig was "flimmern" betrifft, da macht TAA einen wirklich guten Job.
Allerdings ist die Unschärfe dadurch mMn leider zu krass.

Was ich mir von DLSS erhoffe ist nichts weniger als ein flimmer-armes, schärferes Bild.
Ich beurteile sowas immer nur wenn ich es Live an meinem eigenen Rechner gesehen habe und das einzige was ich bisher sehen konnte ist Port Royal (3D Mark).
Und das stimmt mich jedenfalls schon mal sehr positiv.

Raytracing kenne ich nur aus BF5 und ich finde es optisch einfach nur grandios.
Klar, die Frames könnten höher sein aber es geht mit meinem System auch so ganz gut, selbst auf -DXR Ultra-.
Da ich die Unterschiede zu -DXR low- allerdings nur auf Standbildern/Screenshots ausmachen konnte, kann man zwecks FPS aber auch locker mit -DXR low- spielen und es sieht immer noch fantastisch aus. (Spiele trotzdem auf -Ultra- ^^)
BF5 sieht auch ohne RT wunderschön aus, aber mit RT hat man einfach nochmal dieses gewisse Extra.
Die Meinung, man sieht es bei einem schnellen Shooter eh nicht, kann ich nicht teilen. Jedenfalls ich bemerke es ziemlich oft, vielleicht auch weil ich beide Varianten kenne.

Diese beiden Erfahrungen lassen mich natürlich nach mehr RTX lechzen, aktuell ist es einfach viel zu wenig.
Aber diese News klingt ja schon mal gar nicht schlecht, vor allem sind Spiele dabei die ich so oder so zocken wollte.
Und vielleicht kann ich ja dann endlich mal mit Tomb Raider anfangen... ;)
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

hofft dann mal das NV seine rechen-server möglichst lange laufen lässt.
wenn das so schnell wieder zurückgefahren wird wie bei g-sync oder physik-x, kann man sich jetztschon ausrechnen, wann diese ganze DLSS-kram schonwieder obsolent wird.
was macht man dann?

ich weiss, das war jetzt böse, aber nach der g-sync verarsche kann man NV leider ehr mehr als weniger zutrauen, heisst wenn man mehr gewinne einfahren muss(weil die aktionäre meutern), könnte es zb sein das man die serverfarmen drosselt. mit etwas glück kriegt man das nicht gleich so dolle mit, aber irgendwann fällt das denn doch auf, und den dazu als vorrausetzung nötigen gewinn-verlust haben wir ja schon.

mir gefällt übrigens die lösung: spiel 'höher auflösend berechnen' 'niedriger auflösend anzeigen' besser, auch wenn das ne menge rechenpower fordert. dafür bleibt man von dritten unabhängiger.
teils dürfte bei so manchem spiel schon reichen hochauflösendere texturen zu verwenden, will garnicht wissen was da teils geschlunzt wird, auch mit dynamischen texturen und so... ;-)

achja, thema 'offline spielen':
wie sollen denn die berechneten DLSS-texturen her kommen, ohne netzwerk(internet)? wenn man nicht das glück hat das die texturen schonmal geladen wurden, kann es gut sein das man keine überarbeiteten texturen bekommet, wenn man in 'neue bereiche' wo man im spiel noch nicht war vordringt.
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

hofft dann mal das NV seine rechen-server möglichst lange laufen lässt.
wenn das so schnell wieder zurückgefahren wird wie bei g-sync oder physik-x, kann man sich jetztschon ausrechnen, wann diese ganze DLSS-kram schonwieder obsolent wird.
was macht man dann?

ich weiss, das war jetzt böse, aber nach der g-sync verarsche kann man NV leider ehr mehr als weniger zutrauen, heisst wenn man mehr gewinne einfahren muss(weil die aktionäre meutern), könnte es zb sein das man die serverfarmen drosselt. mit etwas glück kriegt man das nicht gleich so dolle mit, aber irgendwann fällt das denn doch auf, und den dazu als vorrausetzung nötigen gewinn-verlust haben wir ja schon.

mir gefällt übrigens die lösung: spiel 'höher auflösend berechnen' 'niedriger auflösend anzeigen' besser, auch wenn das ne menge rechenpower fordert. dafür bleibt man von dritten unabhängiger.
teils dürfte bei so manchem spiel schon reichen hochauflösendere texturen zu verwenden, will garnicht wissen was da teils geschlunzt wird, auch mit dynamischen texturen und so... ;-)

achja, thema 'offline spielen':
wie sollen denn die berechneten DLSS-texturen her kommen, ohne netzwerk(internet)? wenn man nicht das glück hat das die texturen schonmal geladen wurden, kann es gut sein das man keine überarbeiteten texturen bekommet, wenn man in 'neue bereiche' wo man im spiel noch nicht war vordringt.
Nochmal, mit dem Treiber kommt das was Nvidia berechnet hat auf deinen Rechner. Auch mit Game Patches kommt was, nämlich das was der Game Entwickler am Spiel geändert hat. Da du ja hier postest, scheinst du ja über Internet zu verfügen. Meine Komplette Spielesammlung wird von den jeweiligen Launchern regelmäßig geupdated. Also wo ist das Problem?
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

In BF V läuft es z.B. sehr gut. ;)

DICE arbeitet hart an der Implementierung von DLSS, weil EA die Ergebnisse zukünftig bei allen Frostbite-Titeln verwenden möchte. Alle Vorteile von BF V sollten 1:1 in z.B. Anthem verwendbar sein. Sollte zumindest ein wenig Entwicklungszeit für Bioware gespart haben :nicken:

Final Fantasy XV hingegen wurde in Rekordzeit mit DLSS gefüttert und das ganze Projekt dann komplett eingestellt - inklusive DLCs. Für das Spiele findet überhaupt keine Weiterentwicklung mehr statt, DLSS hin oder her.

Nochmal, mit dem Treiber kommt das was Nvidia berechnet hat auf deinen Rechner. Auch mit Game Patches kommt was, nämlich das was der Game Entwickler am Spiel geändert hat.
...
Also wo ist das Problem?

Das Problem ist, dass gerade die AMD-Fans bzw. Nvidia-Skeptiker sich nahezu Null mit der Technik beschäftigen und wie die Papageien bestenfalls Halbwissen herunterpredigen. Da wird viel zu viel aus dem Kontext gerissen! :motz:

Fast jeder zweite hat die Idee, DLSS wäre eine Art "online-service" oder das die KI auf der heimischen Karte läuft. Diesen Leuten klar zu machen, es handle sich lediglich um Blueprints, also quasi das Gedächtnis der KI innerhalb des Neuronalen Netzwerks, das man als fertiges Paket bekommt, ist unmöglich. :wall:

Ich hoffe die neuen Spiele kommen bald. Dann haben die Redakteure nämlich wieder ein Spielzeug zum Testen. In den nächsten Wochen werden so viele Artikel erscheinen, dass manche das Thema nicht mehr werden sehen können :daumen:
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

DICE arbeitet hart an der Implementierung von DLSS, weil EA die Ergebnisse zukünftig bei allen Frostbite-Titeln verwenden möchte. Alle Vorteile von BF V sollten 1:1 in z.B. Anthem verwendbar sein. Sollte zumindest ein wenig Entwicklungszeit für Bioware gespart haben :nicken:

Final Fantasy XV hingegen wurde in Rekordzeit mit DLSS gefüttert und das ganze Projekt dann komplett eingestellt - inklusive DLCs. Für das Spiele findet überhaupt keine Weiterentwicklung mehr statt, DLSS hin oder her.



Das Problem ist, dass gerade die AMD-Fans bzw. Nvidia-Skeptiker sich nahezu Null mit der Technik beschäftigen und wie die Papageien bestenfalls Halbwissen herunterpredigen. Da wird viel zu viel aus dem Kontext gerissen! :motz:

Fast jeder zweite hat die Idee, DLSS wäre eine Art "online-service" oder das die KI auf der heimischen Karte läuft. Diesen Leuten klar zu machen, es handle sich lediglich um Blueprints, also quasi das Gedächtnis der KI innerhalb des Neuronalen Netzwerks, das man als fertiges Paket bekommt, ist unmöglich. :wall:

Ich hoffe die neuen Spiele kommen bald. Dann haben die Redakteure nämlich wieder ein Spielzeug zum Testen. In den nächsten Wochen werden so viele Artikel erscheinen, dass manche das Thema nicht mehr werden sehen können :daumen:

Wenn alle RTX/Games, die ich habe demnächst kommen, hab ich richtig Stress und weiss nicht wo ich anfangen soll. Das wird hart.
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Wenn alle RTX/Games, die ich habe demnächst kommen, hab ich richtig Stress und weiss nicht wo ich anfangen soll. Das wird hart.

Ich weiß nicht, welche Games du genau besitzt. Die nächsten Wochen werden auf jeden Fall spannend. Mich interssieren vor allem die technischen Aspekte der drei großen:

-Shadow of the Tomb Raider
-Anthem
-Metro:Exodus

Jeder 3rd-Person Shooter Gamer hat in 2019 höchstwahrscheinlich einen oder mehrere dieser Titel. Anthem wird sogar mit der RTX 2060 und 2070 als Bundle ausgeliefert. In einem Sci-Fi Szenairo sollten auch wesentlich mehr reflektierende Oberflächen für die Kombination mit Raytracing zu sehen sein :hail:
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Was glaubst du, wofür die Entwickler Programme und Kooperationen da sind? Teilweise bekommt man sogar als IT-Student Zugriff. Tun wir nicht so als müsste man für jeden Zugriff direkt bezahlen....
Brauchst mir nicht erklären was, wie, wo, warum und wozu.

Du verwechselst hier etwas.Wir sprechen hier von DLSS, nicht Raytracing. Das ist die Nvidia Variante über Denoising. Dafür sind die Raytracingkerne zuständig. DLSS kann unabhängig von Raytracing verwendet werden. Letzteres profitiert aber stark davon, wenn beide gleichzeitig zur Anwendung kommen.
Nein, AI Super Res schon mal gehört? Vermutlich nicht.

Der NGX AI Algorithmus entfernt gezielt Bildinhalte und ersetzt sie durch nVidia interne KI berechnete. Bitte daran denken, dass nVidia immer von einer ähnlichen Bildqualität wie TAA ausgeht und jedes Filterverfahren die Bildqualität des Ausgangsmaterial beeinflusst (egal welches - Unschärfe, Disokklusion und Transparenz). Pixel kaschieren/schattieren einfach nur sichtbare Kanten, sie sind trotzdem noch da. Du kannst sie nur nicht mehr sehen.

NVidia verglich dabei lediglich ein 64-Super Sampling Frame mit dem von DLSS2x, sie rendern aber bisher kein einziges Bild so. Sondern mit einfachem DLSS, weil es VRAM spart und die Bildrate erhöht. Das geht mit einem niedriger aufgelösten Bild genauso. Ist nichts anderes als Downscaling und dies Bild dann als Vorlage für ein Upscaling zu nutzen. Man zoomt das Bild also größer, ohne das die störenden Kanten auf dem kleineren Bild zu sehen wären (einfach dargestellt).

Ich verwechsel hier auch nichts. Du schreibst zwar viel, nur aussagen tust du damit nichts, als das was schon auf Marketingfolien abgebildet ist. Es geht um rein synthetisierte Bilder - nichts weiter. Gehirn, sicher nicht.

Mal lesen und verstehen:
In addition to the DLSS capability described above, which is the standard DLSS mode, we providea second mode, called DLSS 2X.

Um DLLS2x zu erfüllen, muss ein bereits DLSS AI berechnetes Frame nochmal durch das Netzwerk gejagt werden. Es ist damit in keinem Fall ein 64fach Sampling, wie gesagt vergleicht nVidia dies damit lediglich und behauptet es sei ähnlich, ohne jeden nachvollziehbaren Beweis für Spiele bisher! Ob es dafür überhaupt gedacht war oder zur Rekonstruktion von Bilder (Bildbearbeitungsprogramme) ist unklar. Es ist möglich, so sagt man.

Hast du die Bereichte der letzten gut 4-5 Monate verfolgt?
Ich bin einfach in der Lage einen 200 Seiten langen Anhang zu lesen, mehr nicht.

Für viele Entwickler ist das eine schnellere und günstigere Methode. Nicht jedes Studio hat unhählige Spezialisten für Optmierung. Besonders bei Konsolenports sollte das unheimlich Zeit und Geld sparen. Daher -> scharf drauf!
Ähm Denksportaufgabe - Konsolen unterstützen das derzeit nicht und werde es auch nie, jedenfalls nicht nVidias Variante solange AMD Hardware dort rechnet, dann müssten sie nämlich Tensorcores ausgestattet daher kommen, vielleicht ja von Nintendo. Daher interessiert sich im Konsolenbereich derzeit kein Mensch dafür (außer womöglich Nintendo).

RT und DLSS auf Basis von RTX und NGX kann nur auf nVidia Hardware laufen, damit hängt deren Erfolg oder Misserfolg von der Vermarktung entsprechender Hardware ab - die diese optionalen Feature unterstützt (hardwarebeschleunigt). Ehrlich? Sieht zur Zeit mau aus, selbst Pascal/Maxwell kauften nur 30% der nVidiauser, also wenn dann reines Zukunftsgeblubber - ähnlich wie du es bei AMD/RTG beschreibst. Neben mir gähnt gerade einer.

Anthem wird sogar mit der RTX 2060 und 2070 als Bundle ausgeliefert. In einem Sci-Fi Szenairo sollten auch wesentlich mehr reflektierende Oberflächen für die Kombination mit Raytracing zu sehen sein :hail:
Anthem bekommt keine RayTracing-Unterstützung, es ist derzeit nicht mal geplant.

Ist doch schön zu lesen wie in Foren Realitäten verzerrt werden.:D
 
Zuletzt bearbeitet:
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Nein, AI Super Res schon mal gehört? Vermutlich nicht.

Ein einziges Bild hochskalieren ist definitiv etwas anders als eine Bildfolge mit 60+ FPS. AI Super Res dürfte außerdem Google Eigentum sein. Nicht sicher wie sich das mit den Rechten der Spieleentwickler verträgt.

Der NGX AI Algorithmus entfernt gezielt Bildinhalte und ersetzt sie durch nVidia interne KI berechnete. Bitte daran denken, dass nVidia immer von einer ähnlichen Bildqualität wie TAA ausgeht und jedes Filterverfahren die Bildqualität des Ausgangsmaterial beeinflusst (egal welches - Unschärfe, Disokklusion und Transparenz). Pixel kaschieren/schattieren einfach nur sichtbare Kanten, sie sind trotzdem noch da. Du kannst sie nur nicht mehr sehen.

Tja, oben hast du noch von "KOPIE" gesprochen. Im Gegensatz zu TAA ist DLSS nicht unscharf bzw. blurt nicht wie verrückt.


NVidia verglich dabei lediglich ein 64-Super Sampling Frame mit dem von DLSS2x, sie rendern aber bisher kein einziges Bild so. Sondern mit einfachem DLSS, weil es VRAM spart und die Bildrate erhöht. Das geht mit einem niedriger aufgelösten Bild genauso. Ist nichts anderes als Downscaling und dies Bild dann als Vorlage für ein Upscaling zu nutzen. Man zoomt das Bild also größer, ohne das die störenden Kanten auf dem kleineren Bild zu sehen wären (einfach dargestellt).

Die interne KI berechnet den Unterschied und ergänzt die fehlenden Informationen aus seinem "Erinnerungsschatz". Das ist mehr als nur reines Zoomen.

Ich verwechsel hier auch nichts. Du schreibst zwar viel, nur aussagen tust du damit nichts, als das was schon auf Marketingfolien abgebildet ist. Es geht um rein synthetisierte Bilder - nichts weiter. Gehirn, sicher nicht.

Soso, synthetisierte Bilder sagst du. Wo kommen den diese her? Wenn dir Gehirn nicht gefällt, auch egal! Das Neurale Netzwerk hat komplexe Muster und Wege für die Entscheidungsfindung.

Klar, die Tensor- und Raytracingkerne sind keine selbständig denkenden Gehirne in dem Sinn, sondern nur Ausführungseinheiten. Die verwendete Logik stammt aber von den Ergebnissen des Neuralen Netzwerks. Du kannst es gerne so lange umschreiben wie du möchtest, aber du vereinfachst das meiner Meinung nach zu viel.

Mal lesen und verstehen:

Um DLLS2x zu erfüllen, muss ein bereits DLSS AI berechnetes Frame nochmal durch das Netzwerk gejagt werden. Es ist damit in keinem Fall ein 64fach Sampling, wie gesagt vergleicht nVidia dies damit lediglich und behauptet es sei ähnlich, ohne jeden nachvollziehbaren Beweis für Spiele bisher! Ob es dafür überhaupt gedacht war oder zur Rekonstruktion von Bilder (Bildbearbeitungsprogramme) ist unklar. Es ist möglich, so sagt man.

DLSS 2x ist auch noch kein Thema. Das hast du hier eingebracht. Es ist nichts anders als über das Neurale Netzwerk erlernte SSAA. Laut Schätzungen etwa 70-80% aus echten SSAA-Material und der Rest wird von der KI interpretiert und ergänzt.

Man verliert damit zwar weiterhin Leistung, aber weniger als mich "echtem SSAA". Um diesen Modus geht es bei den kommenden Spielen auch nicht. Außer ein paar Grafikfetischisten in den Foren spricht noch kein Mensch über DLSS 2x.

Wenn dieser Modi kommt, wird er nur eine Nische ausfüllen. Genau wie MFAA und FXAA zuvor. Gewöhnliches DLSS macht aktuell den meisten Sinn, da es ein guter Kompromiss darstellt, ohne die Entwickler zu überlasten.

Von Februar bis Mai 2019 kommt übrigens ein Titel nach dem anderen mit DLSS heraus. Vielleicht hören wir ja von DLSS 2x im Laufe des Jahres. Vorerst interessiert der extra Modi noch nicht. Lass erst einmal die Grundversion für die Masse am Markt ankommen.:motz:

Ich bin einfach in der Lage einen 200 Seiten langen Anhang zu lesen, mehr nicht.

Lesen und verstehen sind zwei verschieden Dinge :ugly:

Ähm Denksportaufgabe - Konsolen unterstützen das derzeit nicht und werde es auch nie, jedenfalls nicht nVidias Variante solange AMD Hardware dort rechnet, dann müssten sie nämlich Tensorcores ausgestattet daher kommen, vielleicht ja von Nintendo. Daher interessiert sich im Konsolenbereich derzeit kein Mensch dafür (außer womöglich Nintendo).

Konsolen sind überbewertet. Die Publsher untersützten die Plattform nur, weil die Konsoleros überaus zahlungswillig sind und jeden Mist freiwillig kaufen.

Diese Konsolengeneration war die schlechteste aller Zeiten. Einfach eine 0815-APU einzubauen und groß TAM-TAM machen ... lächerlich! Sony verliert immer mehr Support weil sie auf Zensur machen und nach Kalifornen gezogen sind.

In Asien interessiert sich kein Mensch für die PS4 oder irgendeine XBOX. Das sind die Wachstumsmärkte! Ich habe zwar auch Hoffnungen auf eine Nintendo Switch Pro mit einer Version von DLSS, das könnte jedoch dauern. Konzentrier dich eher auf den PC, denn das ist die einzig wahre technische Leadplattform.

RT und DLSS auf Basis von RTX und NGX kann nur auf nVidia Hardware laufen, damit hängt deren Erfolg oder Misserfolg von der Vermarktung entsprechender Hardware ab - die diese optionalen Feature unterstützt (hardwarebeschleunigt).

Das ist das übliche Henne <-> Ei Problem. Ohne Bedarf keine Hardware. Ohne Hardware keine Software. Nvidia hat es halt umgekehrt gemacht.

1.) Hardware -> 2.) Software -> 3.) Bedarf

Wir sind gerade bei Schritt zwei. Gemeckert wird so oder so. Wenn Nvidia halt Tatsachen schafft, passt sich der Rest an.

Ehrlich? Sieht zur Zeit mau aus, selbst Pascal/Maxwell kauften nur 30% der nVidiauser, also wenn dann reines Zukunftsgeblubber - ähnlich wie du es bei AMD/RTG beschreibst. Neben mir gähnt gerade einer.

AMD unterstützt nicht einmal die Microsoft DXR-Version, weil sie innerhalb der RTG wegen Ryzen auf Sparflamme gehalten wurden und jetzt nach 2 Jahren gerade einmal eine Karte von Anfang 2017 aufgeschlossen haben (Stichwort GTX1080 Ti).

Dagegen sieht man mehr FPS und neue Effekte direkt. Pascal ist demnächst nicht mehr verfügbar und geht EOL. Jeder Neukauf wird dann wohl eher in Richtung Turing oder halt die 7nm Nachfolger gehen.

Die Hard- und Softwarebasis aufzubauen ist zumindest zukunftsorientierter als nur die VRAM-Kapazität teuer aufzublasen wie immer alten Wein in neuen Schläuchen zu verkaufen.

Anthem bekommt keine RayTracing-Unterstützung, es ist derzeit nicht mal geplant.

Es ist nur noch nicht offiziell angekündigt. Du kannst dich darauf verlassen, dass EA alle zukünftigen Titel mit Frostbite mit DLSS und Raytracing ausstatten wird. Die Engine rühmt sich ja besonders gut auszusehen.

Die Technik wird garantiert auch für Anthem kommen. Immerhin ist es die neuestes EA-Franchise. Entweder es kommt nachgreicht per Pach oder in einem der üblichen DLCs.

Zurzeit hängt alles an den Jungs bei DICE, die Tag und Nacht an der Implementierung und Verbesserung beider Modi für Battlefield 5 arbeiten. Bioware hingegen ist vorerst bemüht den Launch irgendwie über die Runden zu bekommen. Alles andere kommt wohl später! Immerhin hat der Titel bei Start bereits DLSS.

Das ist der spannende Punkt, nicht irgendwelche Gespinste in den Foren! :wall:
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Final Fantasy XV hingegen wurde in Rekordzeit mit DLSS gefüttert und das ganze Projekt dann komplett eingestellt - inklusive DLCs. Für das Spiele findet überhaupt keine Weiterentwicklung mehr statt, DLSS hin oder her.

Der Ardyn DLC kommt noch. Also ist nicht alles eingestellt. Nur die 2. DLC Season wurde gestrichen. Wo eh fraglich war warum man das Spiel so lange erweitert.
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Der Ardyn DLC kommt noch. Also ist nicht alles eingestellt. Nur die 2. DLC Season wurde gestrichen. Wo eh fraglich war warum man das Spiel so lange erweitert.

Ah, danke für die Erinnerung. Bei dem Verwirrspiel rundum die Episodenaufteilung kann ja kein Mensch durchblicken. Man hat nicht umsonst 3/4 DLCs gestrichen. DLSS hatte aber nichts damit zu tun.

Ich glaube der alte Artikel fasst es gut zusammen:
http://www.buffed.de/Final-Fantasy-15-Spiel-118/News/Ardyn-Garuda-Gefaehrten-Tabata-1268861/

Den Weggang von Hajime Tabata interpretiere ich als internen Streit bei Square Enix. Man wollte den Titel wohl finanziell abkassieren und hat dafür FF15 erst in Episoden zerstückelt um damit die Franchise ewig zu melken. Der Inhalt und die Story litten entsprechend darunter. Das kam garnicht gut bei den Fans und Spielern an.

Man will ja schließlich einen Titel Fertig am Stück spielen und kein halbes Spiel erhalten.

Trotz all dem Chaos muss man trotzdem loben wie die Entwickler innerhalb von wenigen Wochen nach Ankündigung DLSS in das Spiel eingebaut haben. Die Implementierung scheint also auf Entwicklerseite releativ leicht und schnell zu funktionieren.

Ich denke vor allem bei künftigen Konsolenports wird das eine Option auf dem PC mehr Grafik bei der Portierung einzubauen. Wollen wir einmal sehen wie viele Studios die Option in 2019 hierfür nutzen.
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Nochmal, mit dem Treiber kommt das was Nvidia berechnet hat auf deinen Rechner. Auch mit Game Patches kommt was, nämlich das was der Game Entwickler am Spiel geändert hat. Da du ja hier postest, scheinst du ja über Internet zu verfügen. Meine Komplette Spielesammlung wird von den jeweiligen Launchern regelmäßig geupdated. Also wo ist das Problem?

da bin ich mir nicht sicher, das die berechneten ergebnisse nur mit dem treiber kommen.
dann müsste ja jedes kleinste update und fortwährenden rechenergebnisse jedesmal einen neuen treiber erfordern -unlogisch und umständlich wäre das.
das problem ist nicht das hochladen an sich, sondern wenn man mal ohne netz ist, dann kommt auch kein update an, schon garnicht neueste texturen wenn man im spiel zb in den nächaten level kommt (dies ist nur als vereinfacht darstellendes beispiel genannt).
richtig übel wird es dann, wenn NV die technik, ähnlich g-sync oder physik-x, wieder beiseite legt oder nurnoch rudimentär unterstützt, dann sitz man da mit teuren kernen die kaum mehr nutzbar sind, und am beispiel g-sync kann man ja sehn wie schnell das bei NV gehn kann....
 
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

da bin ich mir nicht sicher, das die berechneten ergebnisse nur mit dem treiber kommen.
dann müsste ja jedes kleinste update und fortwährenden rechenergebnisse jedesmal einen neuen treiber erfordern -unlogisch und umständlich wäre das.

Die berechneten Ergebnisse verhalten sich auf deinem PC ähnlich wie du früher SLI-Profile bekommen hast. Du lädst die Daten für das entsprechende Spiel 1x und sie bleiben darauf. Updates mit Verbesserungen erfolgen dann alle paar Wochen oder Monate bzw. per Patch bei größeren DLCs / Bugfixes. Letzteres kann zum Beispiel auch über den Spieleentwickler passieren. Alternativ könnte es auch über die Distribution-Plattform selbst kommen - siehe Uplay / Origin / Steam / beliebiger Launcher.

das problem ist nicht das hochladen an sich, sondern wenn man mal ohne netz ist, dann kommt auch kein update an, schon garnicht neueste texturen wenn man im spiel zb in den nächaten level kommt (dies ist nur als vereinfacht darstellendes beispiel genannt).

Das ist kein "Always-on DRM". Die Texturen bekommt man wie gesagt wahrscheinlich über die Entwickler des Spiels selbst. Laut bisherigen Information wird bereits in der Beta-Phase das gesamte Spiel an Nvidia geschickt um durch deren Server mit Neuralem Netzwerk gejagt zu werden. Dann hast du bereits das geamte Spiel per DLSS verfügbar.

Einzige Ausnahme ist, wenn DLCs das Spiel erweitern. Falls die Grafik dort verbessert wurde und neue Modelle benutzt werden, muss der Durchlauf im Nvidia Server eventuell nochmals mit den neuen Datenset passieren. Das ist ab diesem Zeitpunkt aber reine Routine, weil das Basisspiel dem NN bereits bekannt ist und im Spielecode eingearbeitet wurde.

Ich weiß auch überhaupt nicht, wie ihr euch das alle so falsch vorstellt. Das Prinzip ist keine Cloudlösung, sondern erlernen der Methodik über Künstliche Intelligenz (Machine Learning) und die fertigen Daten werden der Grafikkarte in die Treiber übertragen (einmal = dauerhaft). Fortan handeln die verbauten Extrakerne nach der Logik, die die großen Server für sie entwickelt hat. :nicken:

richtig übel wird es dann, wenn NV die technik, ähnlich g-sync oder physik-x, wieder beiseite legt oder nurnoch rudimentär unterstützt, dann sitz man da mit teuren kernen die kaum mehr nutzbar sind, und am beispiel g-sync kann man ja sehn wie schnell das bei NV gehn kann....

Phys-X wird nach wie vor unterstützt. Nvidia ist lediglich vom Hardware-Support abgewichen, weil sich EPIC dazu enschlossen hat die PhysX-SDK kostenlos in Unreal Engine 4 anzubieten und man bei NVidia ungerne bisher gehütete Firmengeheimnisse offen teilt.

G-Sync ist ebenfalls nicht tot. Diese Jahr kommen auf jeden Fall die großen Bildschirme BFGD bis 65" und weitere Spielemonitore mit G-Sync-Logo sind bereits angekündigt. Alles was Nvidia gemacht hat, ist sich Monitoren mit 100% Vesa Standard zu öffnen. G-Sync ist weiterhin die überlegene Technologie der beiden.

Dein Szenario ist reiner FUD. Genau so könnte man sagen AMD untersützt Technologien wie Mantle, TrueAudio oder Primitive Shader nicht und lässt diese Fallen. Wäre auch nur die Teilwahrheit! :hmm:

Solange die Spieleentwickler interesse an der Technik haben, wird es auch weiter unterstützt. Die Kerne werden außerdem nie still liegen, weil Nvidia garantiert immer mehr Features und Grafikmodi auf diese auslagern wird. Ist übrigens die einzige Möglichkeit die Leistung zu steigern, das linearer Anstieg der CUDA-Cores (Shader) allmählich nicht mehr funktionieren wie früher.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?

Naja mit reduzierter Auflösung geht einem wenigstens nicht so flott der Vram aus, dürfte der 2060 sicher gefallen.
 
Zurück