AW: Nvidia DLSS für RTX 2080 und Co.: Support in Metro Exodus, Battlefield 5 ab kommender Woche mit DLSS?
Das wird aber nicht beim Endanwender angewandt. Nicht vergessen dazu zu schrieben und das man sich bei NVidia einmieten muss um Netzwerk Ressourcen zu erhalten lassen wir gleich unter den Tischen fallen.
Was glaubst du, wofür die
Entwickler Programme und
Kooperationen da sind? Teilweise bekommt man sogar als IT-Student Zugriff. Tun wir nicht so als müsste man für jeden Zugriff direkt bezahlen.
Das 64fach Sampling wird nur auf der "eingescannten Kopie" angewandt und es ist IMMER eine Bildkopie mit niedriger Auflösung als nativ.
DAs sind keine Kopien, sondern Methoden wie man möglichst dieselbe Qualität erreicht wie die 64 Bildquellen. Es ist eher dynamisch und flexibel. Je öfter die Wiederholung durchlaufen wird, desto besser werden die Ergebnisse. Ja, das Ding lernt wirklich - ist kein pures Marketing.
Ob die Auflösung nativ ist oder nicht, spielt nur für die Leistung eine Rolle. Das Endziel ist die Bildqualität möglichst nahe an die bestmögliche Darstellung zu bekommen. Ab einem gewissen Punkt merkst du als Anwender den Unterschied kaum noch ohne direkten 1:1 Bild-zu-Bild vergleich.
Das heißt das nVidia selbst bei x2 nicht in jedem Fall die native Auflösung erreicht. Stell 2160p einfach mal auf 1800p oder 1620p, dann weißt was ich meine. Selbst wenn du dann Kanten zusätzlich mit Pixel auffüllst, kommt man nicht auf native Auflösung.
Natürlich handelt es sich schlicht gesagt um
intelligentes Upscaling. Das Ergebnis wird trotzdem besser aussehen als 4k ohne AA. Ein Programmierer würde für dieselben Resultate ewig brauchen. Vorausgesetzt er hat überhaupt die Kenntnisse dafür.
DLSS ist auf jeden Fall wesentlich besser als der übliche "dynamische Auflösungs"-Quark, der sich seit Jahren wie eine Seuche verbreitet!
Der Algorithmus stillt dem Bild wegen Filtering die Brillianz, weil das bei jedem "gescannten" Bild so ist. Das ist wie ein Kopiervorgang von einer Kopie und natürlich ist die zweite Kopie schneller zu verabreiten weil bei jedem Kopiervorgang ein Teil des ursprünglichen Bildes verloren geht.
Nochmal, das ist keine KOPIE!
Der Algorithmus bzw. die Ansammlung davon ist eine Art künstliche Intelligenz Computernetzwerk, das aufgebaut ist wie das menschliche Gehirn. Schicht für Schicht! Es wird diesem digitalen Gehirn beigebracht wie es sich zu verhalten, wie es mit Situationen umzugehen hat.
Es ist wie einem Kind das malen beizubringen. Striche, Kreise, Quadrate, Füllfarben, Tiefe & Texturen usw.! Das Neurales Netzwerk lernt wann es eine Fläche zu glätten hat und wann fehlende Pixel aufgefüllt gehören.
Um die Unterschiede zu kennen, wird einer der modernsten Indexer aller Zeiten benutzt. Du weiß schon ... Hund, Katze, Maus, Rakete, Monster usw. Die Technik kommt bereits in Nvidias autonomen Autosystemen vor, wird hier halt für Grafikgenerierung bzw. Optimierung eingesetzt. Ohne die Tensorcores wäre das in dieser Geschwindigkeit garnicht möglich. Bitte lies dich selbst in die Thematik ein!
Das sieht man auch ganz genau in dem Bild das ich eingestellt habe, NVidia gehen einen Teil verloren, was zu dem teils matscigem matten Bild führt über das sie nochmal einn Filter stülpen.
Du verwechselst hier etwas.Wir sprechen hier von DLSS, nicht Raytracing.
Das ist die Nvidia Variante über Denoising. Dafür sind die Raytracingkerne zuständig. DLSS kann unabhängig von Raytracing verwendet werden. Letzteres profitiert aber stark davon, wenn beide gleichzeitig zur Anwendung kommen.
Wie kommst du darauf das die Entwickler darauf scharf sind? Quelle?
Hast du die Bereichte der letzten gut 4-5 Monate verfolgt? Es gab dutzende Entwickler, die über das Thema technisch im Interview befragen ließen.
Spontan fallen mir da Darksiders 3, Battlefield 5, Metro:Exodus, Atomic Heart ein. Dazu gabs ellenlange Artikel auch bei PCGH. Müsste man halt nur gelesen haben
Für viele Entwickler ist das eine schnellere und günstigere Methode. Nicht jedes Studio hat unhählige Spezialisten für Optmierung. Besonders bei Konsolenports sollte das unheimlich Zeit und Geld sparen. Daher -> scharf drauf!
Ich glaube es ist eher anders herum weil und nicht wie du behauptest ein verfahren von dem alle gleichmaäßig profitieren, zu aller erst profitiert nVidia weil man Zugriff auf die Entwicklerinhalte hat und anhand derer auch die Hardwareentwicklung bestimmen kann.
Sicher ist das so. Nennen wir es doch eher eine Win-Win-Situation. Die Entwickler optimieren mit der Technik ihre Spiele und Nvidia bekommt die Daten um ihre Computer und Zukunftsvisionen zu füttern. Danach bieten sie diese erneut an. Ein ewiger Kreislauf im Hamsterrad. Es ist kein Geheimnis, dass Nvidia näher an der Entwicklerszene ist als alle anderen.
Und ja, andere Entwickler profitieren ebenfalls. Beispielsweise wenn deren Spiel dieselbe Engine oder ähnlichen Grafikstil verwendet.
Man macht sich absolut abhängig von den Verfahren und damit nVidia. Das wollen Entwickler nicht und nVidia pusht das ganze wohl erstmal mit Rabatten oder Freistellungen für die notwendigen Ressourcen.
Klar doch
Nvidia hat halt 80% Markanteil im GPU-Markt für dedizierte Grafikkarten. Die meisten Entwickler nutzen bereits CUDA und diverse Nvidia-Technologien. Die stört es nicht sonderlich, also komm bitte nicht mit der üblichen Monopol-Panikmache der üblichen Forenhelden.
Die Konkurrenz hat nach wie vor die Möglichkeit selbst Lösungen zu entwickeln. Wird halt nur schwierig, wenn man jeden Trend verschläft oder so weit in die Zukunft blickt, dass selbst die Entwickler abwinken. Irgendwer muss ja die Pionierarbeit machen. Für gewöhnlich nehmen die Early-Adopter die Mehrkosten auch in Kauf um das neuste Spielzeug zu haben.
Das ist bei Spielern nicht anders wie bei den eigentlichen Entwicklern.