Teaser auf Big Navi: AMD selbstkritisch zum Hypetrain

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Bis zu Ende gucken! :lol:
Ich hoffe für AMD nicht, dass es wirklich so kommt...
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Hatten wir hier die Fortnite-Bilder schon?
 
Nun, wenn man Tweakdown glaubt, und die sind in der Regel ganz gut informiert, soll DLSS 3.0 tatsächlich mit allen Spiele die TAA können kompatibel sein und der Aufwand für Entwickler wäre gering:

Dass das nicht jedes Indiespiel anbieten wird ist klar, aber vermutlich fast jedes AAA Spiel, und da hätte man einen Riesenvorteil.

...die Fehlmeldung über ein DLSS3.0 hält sich wohl auch ewig bei manchen. :rolleyes:
Wenn nV überhaupt erst mal was brauchbares in diese Richtung auf die Schiene bringen würde, wär's schon toll.

"Jedes AAA-Spiel" ? Solche Hypes haben genau welche Grundlage? Die gleiche wie DLSS3.0 vermutlich. ...
 
Zuletzt bearbeitet:
Die Aussage ist falsch, die beiden Vor-Poster (RavionHD / formyself) haben das weitestgehend korrekt dargestellt.
DLSS 2.x verwendet ein universelles neuronales Netz, das lokal auf der GPU läuft. Das NN hat keine Abhängigkeit mehr zum konkreten Spiel, was aber nichts damit zu tun hat, dass DLSS natürlich dennoch immer noch explizit für ein Spiel implementiert werden muss, d. h. es sind kleinere Anpassungen an der Engine notwendig.
Darüber hinaus ist ein wesentlicher Vorteil dieses universellen NNs, dass nVidia dieses sowie die Treiberbestandteile unabhängig von den Titeln optimieren und verbessern kann und daher auch mit einem Treiberupdate eine Aktualisierung ausrollen kann, die sich unmittelbar nutzen lässt, solange man sich innerhalb der gleichen DLSS-API-Version bewegt. Beispielsweise die dynamische Native-Resolution von DLSS 2.1 erfordert selbstredend eine neue Implementaiton in einem Spiel, da hier zusätzliche Funktionalität bereitgestellt wird, die von der Engine unterstützt werden muss, d. h. hier muss ein Entwickler noch einmal Hand anlegen und die ggf. zuvor implementierte Version auf den Stand von v2.1 aktualisieren.

Das ist Unfug. Ihr solltet doch inzwischen langsam gelernt haben, das größte Marketinggeblubber abzukönnen. "Neuronales Netzwerk" , "KI" ... ein paar Buzzwords, mehr nicht.

Auf Deinen lokalen Tensorcores läuft erst mal überhaupt kein "Netzwerk". Das sind lediglich spezialisierte Einheiten, die Matrizenoperationen etwas beschleunigen. Gebraucht werden die theoretisch zunächst auch erst mal gar nicht zwingend. DLSS lief anfangs (SotTR imho) auch nicht mal über die TCs. Erst wenn der KI-optimierte Treiber die temporalen AA-Routinen liefert, rechnen die TCs (inzwischen) lokal die Frames. Nicht mehr und nicht weniger.

Die Verarbeitung der temporalen Elemente von dem AA-Verfahren im sog. " Training" der Treiberroutinen laufen schon immer und auch in alle Zukunft ausschließlich in NVs Serverfarmen. Etwas anderes behauptet selbst NVs Marketingleutchen nirgends. Die Behauptung, dass das "Training", d.h. die Validierung und Verbesserung des Algorithmus, der die temporalen Infos aus den Szenenanalysen auswertet und in AA-Treiberroutinen gießt, nun " szenenabhängig" und nicht mehr Gameabhängig erfolgen soll, ist imho in erster Linie ebenfalls Marketinggewäsch. Nachvollziehbare konkrete Aussagen gibt's dazu weder von nV, noch gibt es Praxisbeispiele, in denen mal auch nur ein einziges Spiel ohne jahrelanges Spezialtraining durch nV DLSS gekonnt hätte. Im 3DC-Faden hat der dortige NV-Forenbetreuer auf Nachfrage auch kürzlich nochmal klar bestätigt, dass Einzelanpassungen für einzelne Games aktuell weiterhin notwendig sind. Auf Nachfragen, ob DLSS zukünftig in "jedem" Spiel läuft, lässt sich nV auf keine Aussage ein. Das sagt einiges aus. Vielleicht ist das das Entwcklungsziel von nV, mehr aber bis jetzt auch nicht.
Ich bin auch absolut skeptisch, was die Erreichbarkeit dieses Ziels angeht. Macht eine Engine auch nur ein kleines bisschen etwas anders als das bisherige Trainingsmaterial von nV, werden etwa andere, bislang so nicht trainierte Assets verwendet, unterscheiden sich Kontrast-, Farbwert- oder sonstwie die Verhältnisse, ist DLSS schnell wieder am Ende und liefert wieder die gewohnten Artefakte. Nur weil nV Control und Death Stranding nach jahrelangem Training irgendwann gebacken bekommen haben und das Ganze jetzt als DLSS 2.0 verkaufen, heißt das doch noch lange nicht, dass DLSS in absehbarer Zeit dorthin kommt, wo man es haben will. Imho wird das mindestens noch für eine GraKa-Generation bestenfalls Technikdemo für spezielle Gameworks-Titel bleiben.
 
Zuletzt bearbeitet:
Hier wird die neue Richtung von AMDs Marketing vorgestellt, und stellt mit einer der wichtigsten Instrumente im Portfolio dar. Gutes Marketing gute Produkte!
Also waren die Produkte vorher alle Müll? :what:

Gut zu wissen :haha:

Poor Ampere wäre durchaus angebracht, wenn es AMD gelänge BN auf zb 420 Watt aufzubohren, dann hustet man auch eine 3090 einfach weg, da geht noch was!
Poor Gehörgänge wäre das nur :ugly:

Ja. AMD von NVIDIA nur leider :lol:


Ob BigNavi endlich den Umschwung bringt, den Navi nicht bringen konnte?
 
Hey Jungs! AMD hat eines der Designs von der RX 6000 Serie vorgestellt!

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 

Anhänge

  • Eh53l3-XsAADDTj.jpg
    Eh53l3-XsAADDTj.jpg
    927,3 KB · Aufrufe: 81
Das ist Unfug. Ihr solltet doch inzwischen langsam gelernt haben, das größte Marketinggeblubber abzukönnen. "Neuronales Netzwerk" , "KI" ... ein paar Buzzwords, mehr nicht.

Auf Deinen lokalen Tensorcores läuft erst mal überhaupt kein "Netzwerk". Das sind lediglich spezialisierte Einheiten, die Matrizenoperationen etwas beschleunigen. Gebraucht werden die theoretisch zunächst auch erst mal gar nicht zwingend. DLSS lief anfangs (SotTR imho) auch nicht mal über die TCs. Erst wenn der KI-optimierte Treiber die temporalen AA-Routinen liefert, rechnen die TCs (inzwischen) lokal die Frames. Nicht mehr und nicht weniger.

Die Verarbeitung der temporalen Elemente von dem AA-Verfahren im sog. " Training" der Treiberroutinen laufen schon immer und auch in alle Zukunft ausschließlich in NVs Serverfarmen. Etwas anderes behauptet selbst NVs Marketingleutchen nirgends. Die Behauptung, dass das "Training", d.h. die Validierung und Verbesserung des Algorithmus, der die temporalen Infos aus den Szenenanalysen auswertet und in AA-Treiberroutinen gießt, nun " szenenabhängig" und nicht mehr Gameabhängig erfolgen soll, ist imho in erster Linie ebenfalls Marketinggewäsch. Nachvollziehbare konkrete Aussagen gibt's dazu weder von nV, noch gibt es Praxisbeispiele, in denen mal auch nur ein einziges Spiel ohne jahrelanges Spezialtraining durch nV DLSS gekonnt hätte. Im 3DC-Faden hat der dortige NV-Forenbetreuer auf Nachfrage auch kürzlich nochmal klar bestätigt, dass Einzelanpassungen für einzelne Games aktuell weiterhin notwendig sind. Auf Nachfragen, ob DLSS zukünftig in "jedem" Spiel läuft, lässt sich nV auf keine Aussage ein. Das sagt einiges aus. Vielleicht ist das das Entwcklungsziel von nV, mehr aber bis jetzt auch nicht.
Ich bin auch absolut skeptisch, was die Erreichbarkeit dieses Ziels angeht. Macht eine Engine auch nur ein kleines bisschen etwas anders als das bisherige Trainingsmaterial von nV, werden etwa andere, bislang so nicht trainierte Assets verwendet, unterscheiden sich Kontrast-, Farbwert- oder sonstwie die Verhältnisse, ist DLSS schnell wieder am Ende und liefert wieder die gewohnten Artefakte. Nur weil nV Control und Death Stranding nach jahrelangem Training irgendwann gebacken bekommen haben und das Ganze jetzt als DLSS 2.0 verkaufen, heißt das doch noch lange nicht, dass DLSS in absehbarer Zeit dorthin kommt, wo man es haben will. Imho wird das mindestens noch für eine GraKa-Generation bestenfalls Technikdemo für spezielle Gameworks-Titel bleiben.

Es ergäbe auch garkeinen Sinn wenn jeder das "Training" lokal machen würde. Man will ja mit DLSS Aufwand beim Endkunden vermeiden - deswegen verlagert man das ja in die Serverfarm. Ausserdem wird, wenn ich mich recht erinnere, 16k Material fürs Training eingesetzt. Da möchte ich mal Endkunden-Karten sehen die das berechnen.
 
Ich bin sehr gespannt auf Big Navi, vor allem im Bezug zum Preis, Lautstärke und Wärmeentwicklung. Wenn AMD eine Karte raus bringen der im bereich eines 3080 ist, mit 16gb Speicher, und vor allem leise ist, muss ich mit meine Frau reden :D
 
Komisch ,das schreibst du und dennoch bestätigst du alles, was gerX7a schrieb :ugly:

Die Verarbeitung der temporalen Elemente von dem AA-Verfahren im sog. " Training" der Treiberroutinen laufen schon immer und auch in alle Zukunft ausschließlich in NVs Serverfarmen. Etwas anderes behauptet selbst NVs Marketingleutchen nirgends.
gerX7a auch nicht :ka:

Auf Nachfragen, ob DLSS zukünftig in "jedem" Spiel läuft, lässt sich nV auf keine Aussage ein. Das sagt einiges aus. Vielleicht ist das das Entwcklungsziel von nV, mehr aber bis jetzt auch nicht.
Das gleiche neurale Netzwerk funktioniert mit jedem Spiel, allerdings muss das Spiel angepasst werden, um dem Netzwerk die notwendigen Bild- und temporalen Informationen übergeben zu können. Das entspricht ungefähr dem Umfang, der auch für andere temporale AA Verfahren wie TLAA notwendig sind.
 
Es ergäbe auch garkeinen Sinn wenn jeder das "Training" lokal machen würde. Man will ja mit DLSS Aufwand beim Endkunden vermeiden - deswegen verlagert man das ja in die Serverfarm. Ausserdem wird, wenn ich mich recht erinnere, 16k Material fürs Training eingesetzt. Da möchte ich mal Endkunden-Karten sehen die das berechnen.

Genau. HiRes-Material mal eben parallel zum Daddeln lokal auswerten und die gewonnenen Daten auch noch parallel zum Daddeln an nV streamen. Am besten während 'ner kompetitiven MP-Shooter-Runde. Aber das ist ja das, was offenbar eine Mengen Leute zu glauben scheinen.

Das Gerede von KI-Netzwerk macht die Leute einfach wirr. :hmm:
 
Komisch ,das schreibst du und dennoch bestätigst du alles, was gerX7a schrieb :ugly:


gerX7a auch nicht :ka:


Das gleiche neurale Netzwerk funktioniert mit jedem Spiel, allerdings muss das Spiel angepasst werden, um dem Netzwerk die notwendigen Bild- und temporalen Informationen übergeben zu können. Das entspricht ungefähr dem Umfang, der auch für andere temporale AA Verfahren wie TLAA notwendig sind.

gerX7a scheint sich etwas vertiefter reingefuchst zu haben, ja. Zumindest die Aussage, das Training fände in den TCs statt, kam von ihm so nicht.

Trotzdem scheint auch er dem Glauben anzuhängen, dass Entwickler jetzt nur noch eine Mini-Api an ihre Games hängen müssen, solang die irgendeine Form von temporalem AA können, die die temporalen Werte an den Treiber und die TCs weiterreicht. Das ist ja auch das, was nVidia uns mehr oder weiniger versucht zu suggerieren. Ich halte das für wenig glaubwürdig. nVidia sagt selbst, dass unter DLSS 2.0 "nur noch" szenenabhängig" trainiert werden müsste, nicht mehr für jedes Game einzeln. Ich frage: Wo ist da der Unterschied? Ich trainiere jetzt immer noch, vielleicht mit generischem Material, aber ich trainiere. Es ist imho dabei logisch, das die Trainingsergebnisse zwangsläufig immer besser sein werden, wenn ich speziell das Bildmaterial trainiere, was tatsächlich in meinem Game auch vorkommt. Was soll das praktisch bringen, mit "Fremd"-Material zu trainieren? Was soll das vorwärtsbringen? Imho soll hier der Eindruck erweckt werden, DLSS2.0 bräuchte eigentlich gar nicht mehr trainiert werden. Wenn nVidia aber tatsächlich schon ausreichend Material trainiert hätte, um auch in bislang untrainierten Games DLSS mit brauchbaren Ergebnissen einsetzen zu können, wäre das ja toll und genau das, was wir uns wünschen. Genau das verneint nV dann aber wieder. Und ich bräuchte dann auch nicht mehr "szenenabhängig trainieren", sondern eben gar nicht mehr.
Ich halte das "jetzt nur noch szenenabhängig" deshalb solang für eine Nebelkerze und einen Marketingmove zum Verkaufsstart von Ampere, bis ich wenigstens ein Game gesehen habe, in dem DLSS auch ohne Gameworksprogramm und monate- oder jahrelanges Training out of the Box ohne Grusel-Artefakte funktioniert. Ein einziges würde mir ja reichen...
 
Zuletzt bearbeitet:
Sieht aus wie ne Radeon 7.

Bonus:

Hatte echt damit gerechnet, dass Ampere richtig sparsam und schnell wird, iwas ist da doch faul.
 

Anhänge

  • Screenshot_1.png
    Screenshot_1.png
    209,2 KB · Aufrufe: 86
Trotzdem scheint auch er dem Glauben anzuhängen, dass Entwickler jetzt nur noch eine Mini-Api an ihre Games hängen müssen, solang die irgendeine Form von temporalem AA können, die die temporalen Werte an den Treiber und die TCs weiterreicht.
Dem ist ja auch der Fall:

Ab Minute 40 wird erklärt, wie die Integration passiert.

Ich halte das für wenig glaubwürdig.
Du hast genau wie viel 3DEngines programmiert und wie häufig TLAA und/oder DLSS implementiert, als dass das relevant wäre?

nVidia sagt selbst, dass unter DLSS 2.0 "nur noch" szenenabhängig" trainiert werden müsste, nicht mehr für jedes Game einzeln. Ich frage: Wo ist da der Unterschied? Ich trainiere jetzt immer noch, vielleicht mit generischem Material, aber ich trainiere.
Wahrscheinlich hast du einen Denkfehler. Training ist in dem Falle die Erzeugung des Neuronalen Netzwerkes. Im Grunde die Programmierung. Natürlich muss die immer erfolgen, sonst hast du kein Neuronales Netzwerk.

Laut NVIDIA werden dafür generischen Szene verwendet, die dem Netzwerk das Lernen lassen, was ein es für AA braucht.

Das ist aber komplett unabhängig von der konkreten Engine. Zumindest finde ich nirgendswo Hinweise darauf, dass das Neuronale Netzwerk in den verschiedenen Spielen unterschiedlich sein soll bzw. gezielt auf das Spiel trainiert worden sein soll.
 
Es ist imho dabei logisch, das die Trainingsergebnisse zwangsläufig immer besser sein werden, wenn ich speziell das Bildmaterial trainiere, was tatsächlich in meinem Game auch vorkommt. Was soll das praktisch bringen, mit "Fremd"-Material zu trainieren? Was soll das vorwärtsbringen? Imho soll hier der Eindruck erweckt werden, DLSS2.0 bräuchte eigentlich gar nicht mehr trainiert werden.

Das neuronale Netz wird weiterhin trainiert, damit die zusätzlichen Informationen, die aus mehreren gerenderten Frames (verschobene Samplepositionen, Bewegungsvektoren) korrekt zusammengesetzt werden und somit mehr Details (eine höhere spatiale Auflösung) konstruiert werden kann.

Mit Fremdmaterial zu trainieren bringt schon etwas.
 
Zurück