Jebaited!
Nun, wenn man Tweakdown glaubt, und die sind in der Regel ganz gut informiert, soll DLSS 3.0 tatsächlich mit allen Spiele die TAA können kompatibel sein und der Aufwand für Entwickler wäre gering:
NVIDIA's next-gen Ampere DLSS 3.0 could work on ANY game that uses TAA
NVIDIA DLSS 3.0 could work with any game, and would be a huge silver bullet for AMD's Big Navi 'NVIDIA Killer' when it launches.www.tweaktown.com
Dass das nicht jedes Indiespiel anbieten wird ist klar, aber vermutlich fast jedes AAA Spiel, und da hätte man einen Riesenvorteil.
Die Aussage ist falsch, die beiden Vor-Poster (RavionHD / formyself) haben das weitestgehend korrekt dargestellt.
DLSS 2.x verwendet ein universelles neuronales Netz, das lokal auf der GPU läuft. Das NN hat keine Abhängigkeit mehr zum konkreten Spiel, was aber nichts damit zu tun hat, dass DLSS natürlich dennoch immer noch explizit für ein Spiel implementiert werden muss, d. h. es sind kleinere Anpassungen an der Engine notwendig.
Darüber hinaus ist ein wesentlicher Vorteil dieses universellen NNs, dass nVidia dieses sowie die Treiberbestandteile unabhängig von den Titeln optimieren und verbessern kann und daher auch mit einem Treiberupdate eine Aktualisierung ausrollen kann, die sich unmittelbar nutzen lässt, solange man sich innerhalb der gleichen DLSS-API-Version bewegt. Beispielsweise die dynamische Native-Resolution von DLSS 2.1 erfordert selbstredend eine neue Implementaiton in einem Spiel, da hier zusätzliche Funktionalität bereitgestellt wird, die von der Engine unterstützt werden muss, d. h. hier muss ein Entwickler noch einmal Hand anlegen und die ggf. zuvor implementierte Version auf den Stand von v2.1 aktualisieren.
Also waren die Produkte vorher alle Müll?Hier wird die neue Richtung von AMDs Marketing vorgestellt, und stellt mit einer der wichtigsten Instrumente im Portfolio dar. Gutes Marketing gute Produkte!
Poor Gehörgänge wäre das nurPoor Ampere wäre durchaus angebracht, wenn es AMD gelänge BN auf zb 420 Watt aufzubohren, dann hustet man auch eine 3090 einfach weg, da geht noch was!
Ja. AMD von NVIDIA nur leiderJebaited!
Wie einfach man dich triggern kann!
Das ist Unfug. Ihr solltet doch inzwischen langsam gelernt haben, das größte Marketinggeblubber abzukönnen. "Neuronales Netzwerk" , "KI" ... ein paar Buzzwords, mehr nicht.
Auf Deinen lokalen Tensorcores läuft erst mal überhaupt kein "Netzwerk". Das sind lediglich spezialisierte Einheiten, die Matrizenoperationen etwas beschleunigen. Gebraucht werden die theoretisch zunächst auch erst mal gar nicht zwingend. DLSS lief anfangs (SotTR imho) auch nicht mal über die TCs. Erst wenn der KI-optimierte Treiber die temporalen AA-Routinen liefert, rechnen die TCs (inzwischen) lokal die Frames. Nicht mehr und nicht weniger.
Die Verarbeitung der temporalen Elemente von dem AA-Verfahren im sog. " Training" der Treiberroutinen laufen schon immer und auch in alle Zukunft ausschließlich in NVs Serverfarmen. Etwas anderes behauptet selbst NVs Marketingleutchen nirgends. Die Behauptung, dass das "Training", d.h. die Validierung und Verbesserung des Algorithmus, der die temporalen Infos aus den Szenenanalysen auswertet und in AA-Treiberroutinen gießt, nun " szenenabhängig" und nicht mehr Gameabhängig erfolgen soll, ist imho in erster Linie ebenfalls Marketinggewäsch. Nachvollziehbare konkrete Aussagen gibt's dazu weder von nV, noch gibt es Praxisbeispiele, in denen mal auch nur ein einziges Spiel ohne jahrelanges Spezialtraining durch nV DLSS gekonnt hätte. Im 3DC-Faden hat der dortige NV-Forenbetreuer auf Nachfrage auch kürzlich nochmal klar bestätigt, dass Einzelanpassungen für einzelne Games aktuell weiterhin notwendig sind. Auf Nachfragen, ob DLSS zukünftig in "jedem" Spiel läuft, lässt sich nV auf keine Aussage ein. Das sagt einiges aus. Vielleicht ist das das Entwcklungsziel von nV, mehr aber bis jetzt auch nicht.
Ich bin auch absolut skeptisch, was die Erreichbarkeit dieses Ziels angeht. Macht eine Engine auch nur ein kleines bisschen etwas anders als das bisherige Trainingsmaterial von nV, werden etwa andere, bislang so nicht trainierte Assets verwendet, unterscheiden sich Kontrast-, Farbwert- oder sonstwie die Verhältnisse, ist DLSS schnell wieder am Ende und liefert wieder die gewohnten Artefakte. Nur weil nV Control und Death Stranding nach jahrelangem Training irgendwann gebacken bekommen haben und das Ganze jetzt als DLSS 2.0 verkaufen, heißt das doch noch lange nicht, dass DLSS in absehbarer Zeit dorthin kommt, wo man es haben will. Imho wird das mindestens noch für eine GraKa-Generation bestenfalls Technikdemo für spezielle Gameworks-Titel bleiben.
Komisch ,das schreibst du und dennoch bestätigst du alles, was gerX7a schriebDas ist Unfug.
gerX7a auch nichtDie Verarbeitung der temporalen Elemente von dem AA-Verfahren im sog. " Training" der Treiberroutinen laufen schon immer und auch in alle Zukunft ausschließlich in NVs Serverfarmen. Etwas anderes behauptet selbst NVs Marketingleutchen nirgends.
Das gleiche neurale Netzwerk funktioniert mit jedem Spiel, allerdings muss das Spiel angepasst werden, um dem Netzwerk die notwendigen Bild- und temporalen Informationen übergeben zu können. Das entspricht ungefähr dem Umfang, der auch für andere temporale AA Verfahren wie TLAA notwendig sind.Auf Nachfragen, ob DLSS zukünftig in "jedem" Spiel läuft, lässt sich nV auf keine Aussage ein. Das sagt einiges aus. Vielleicht ist das das Entwcklungsziel von nV, mehr aber bis jetzt auch nicht.
Es ergäbe auch garkeinen Sinn wenn jeder das "Training" lokal machen würde. Man will ja mit DLSS Aufwand beim Endkunden vermeiden - deswegen verlagert man das ja in die Serverfarm. Ausserdem wird, wenn ich mich recht erinnere, 16k Material fürs Training eingesetzt. Da möchte ich mal Endkunden-Karten sehen die das berechnen.
Komisch ,das schreibst du und dennoch bestätigst du alles, was gerX7a schrieb
gerX7a auch nicht
Das gleiche neurale Netzwerk funktioniert mit jedem Spiel, allerdings muss das Spiel angepasst werden, um dem Netzwerk die notwendigen Bild- und temporalen Informationen übergeben zu können. Das entspricht ungefähr dem Umfang, der auch für andere temporale AA Verfahren wie TLAA notwendig sind.
Dem ist ja auch der Fall:Trotzdem scheint auch er dem Glauben anzuhängen, dass Entwickler jetzt nur noch eine Mini-Api an ihre Games hängen müssen, solang die irgendeine Form von temporalem AA können, die die temporalen Werte an den Treiber und die TCs weiterreicht.
Du hast genau wie viel 3DEngines programmiert und wie häufig TLAA und/oder DLSS implementiert, als dass das relevant wäre?Ich halte das für wenig glaubwürdig.
Wahrscheinlich hast du einen Denkfehler. Training ist in dem Falle die Erzeugung des Neuronalen Netzwerkes. Im Grunde die Programmierung. Natürlich muss die immer erfolgen, sonst hast du kein Neuronales Netzwerk.nVidia sagt selbst, dass unter DLSS 2.0 "nur noch" szenenabhängig" trainiert werden müsste, nicht mehr für jedes Game einzeln. Ich frage: Wo ist da der Unterschied? Ich trainiere jetzt immer noch, vielleicht mit generischem Material, aber ich trainiere.
Es ist imho dabei logisch, das die Trainingsergebnisse zwangsläufig immer besser sein werden, wenn ich speziell das Bildmaterial trainiere, was tatsächlich in meinem Game auch vorkommt. Was soll das praktisch bringen, mit "Fremd"-Material zu trainieren? Was soll das vorwärtsbringen? Imho soll hier der Eindruck erweckt werden, DLSS2.0 bräuchte eigentlich gar nicht mehr trainiert werden.