Teaser auf Big Navi: AMD selbstkritisch zum Hypetrain

Das ist Unfug. Ihr solltet doch inzwischen langsam gelernt haben, das größte Marketinggeblubber abzukönnen. "Neuronales Netzwerk" , "KI" ... ein paar Buzzwords, mehr nicht. [...]

gerX7a scheint sich etwas vertiefter reingefuchst zu haben, ja. Zumindest die Aussage, das Training fände in den TCs statt, kam von ihm so nicht.
Trotzdem scheint auch er dem Glauben anzuhängen, [...]

Mir scheint du verstehst nicht wirklich, was mit dem Oberbegriff Neuronales Netz(werk) gemeint ist und wie es angewendet wird, siehe bspw. deine Tensor Cores vs. Shaderprocessors-Verwirrung, dem Unverständnis wofür die MMA-Operationen benötigt werden und dass das "SPs vs. Tensor Cores" lediglich eine Performanceoptimierung darstellt.
Und dass hier eine individuelle Implementation notwendig ist, ist unvermeidlich, da es sich bei DLSS 2.0 um eine weitaus komplexere Implementation handelt, die nun mehrere Frames in die Auswertung mit einbezieht, Zugriff auf diverse Grafik-Buffer sowie Vektorinformationen von der Engine zu jedem Frame benötigt.
Vielleicht hilft dir ja eine andere Quelle:

"[...] So for their second stab at AI upscaling, NVIDIA is taking a different tack. Instead of relying on individual, per-game neural networks, NVIDIA has built a single generic neural network that they are optimizing the hell out of. And to make up for the lack of information that comes from per-game networks, the company is making up for it by integrating real-time motion vector information from the game itself, a fundamental aspect of temporal anti-aliasing (TAA) and similar techniques. The net result is that DLSS 2.0 behaves a lot more like a temporal upscaling solution, which makes it dumber in some ways, but also smarter in others.
The single biggest change here is of course the new generic neural network. Looking to remove the expensive per-game training and the many (many) problems that non-deterministic games presented in training, NVIDIA has moved to a single generic network for all games. This newer neural network is based on a fully synthetic training set rather than individual games, which in turn is fully deterministic, allowing NVIDIA to extensively train the new network in exactly fashion they need for it to iterate and improve over generations. According to NVIDIA, this new network is also faster to execute on the GPU as well, reducing the overhead from using DLSS to begin with.
[...]"


Oder sind auch die dem "Marketinggewäsch" aufgesessen? Und dann ebenso all die Entwickler, die sich diese Technik im Detail angesehen haben, weil sie eine Implementation erwogen oder gar vollzogen haben und die haben dennoch alle nichts gesagt, sodass bisher nicht ein einziger Leak durchgesickert ist, der hier nVidia der handfesten Irreführung oder gar Lüge bezichtigt?
Wenn deine einzige Argumentation deine "Skepsis" und dein "Unglaube" ist, wobei man sich fragen muss, was der "Glaube" überhaupt damit zu tun haben soll, dann ist das eine sehr schwache Argumentation.
Fakt ist, dass nVidia am Ende in seinen Aussagen zu DLSS 2.x konsitent ist und sie bisher noch niemand in der Art, wie du es suggerierst, angegriffen oder widerlegt hat, insbesondere nicht die, die sich mit dem Thema hauptberuflich beschäftigen.
 
Zuletzt bearbeitet:
Ach, die möchten wohl kein Geld verdienen?
Dann kann man natürlich so vorgehen, nach dem Launch der Konkurrenz gibts weder Daten noch Infos, da muss ein unkommentiertes 3D Modell eines absolut durchschnittlichen Kühlers alles aus dem Dreck ziehen. Ähnliche Kühler existieren seit Jahrzehnten, wie der Arctic Accelero xtreme III. Da ist wirklich gar nichts spannend dran, höchstens ob das Logo mit RGB beleuchtet ist.
Du hast also nicht verstanden was ich geschrieben habe...
 
Mir scheint du verstehst nicht wirklich, was mit dem Oberbegriff Neuronales Netz(werk) gemeint ist und wie es angewendet wird, siehe bspw. deine Tensor Cores vs. Shaderprocessors-Verwirrung, dem Unverständnis wofür die MMA-Operationen benötigt werden und dass das "SPs vs. Tensor Cores" lediglich eine Performanceoptimierung darstellt.
Und dass hier eine individuelle Implementation notwendig ist, ist unvermeidlich, da es sich bei DLSS 2.0 um eine weitaus komplexere Implementation handelt, die nun mehrere Frames in die Auswertung mit einbezieht, Zugriff auf diverse Grafik-Buffer sowie Vektorinformationen von der Engine zu jedem Frame benötigt.
Vielleicht hilft dir ja eine andere Quelle:

"[...] So for their second stab at AI upscaling, NVIDIA is taking a different tack. Instead of relying on individual, per-game neural networks, NVIDIA has built a single generic neural network that they are optimizing the hell out of. And to make up for the lack of information that comes from per-game networks, the company is making up for it by integrating real-time motion vector information from the game itself, a fundamental aspect of temporal anti-aliasing (TAA) and similar techniques. The net result is that DLSS 2.0 behaves a lot more like a temporal upscaling solution, which makes it dumber in some ways, but also smarter in others.
The single biggest change here is of course the new generic neural network. Looking to remove the expensive per-game training and the many (many) problems that non-deterministic games presented in training, NVIDIA has moved to a single generic network for all games. This newer neural network is based on a fully synthetic training set rather than individual games, which in turn is fully deterministic, allowing NVIDIA to extensively train the new network in exactly fashion they need for it to iterate and improve over generations. According to NVIDIA, this new network is also faster to execute on the GPU as well, reducing the overhead from using DLSS to begin with.
[...]"


Oder sind auch die dem "Marketinggewäsch" aufgesessen? Und dann ebenso all die Entwickler, die sich diese Technik im Detail angesehen haben, weil sie eine Implementation erwogen oder gar vollzogen haben und die haben dennoch alle nichts gesagt, sodass bisher nicht ein einziger Leak durchgesickert ist, der hier nVidia der handfesten Irreführung oder gar Lüge bezichtigt?
Wenn deine einzige Argumentation deine "Skepsis" und dein "Unglaube" ist, wobei man sich fragen muss, was der "Glaube" überhaupt damit zu tun haben soll, dann ist das eine sehr schwache Argumentation.
Fakt ist, dass nVidia am Ende in seinen Aussagen zu DLSS 2.x konsitent ist und sie bisher noch niemand in der Art, wie du es suggerierst, angegriffen oder widerlegt hat, insbesondere nicht die, die sich mit dem Thema hauptberuflich beschäftigen.

Das meiste, was Du schreibst, ist leider etwas zu wirr, um sinnvoll darauf einzugehen zu können. Von welchen Entwicklern sprichst Du? Von welchen MMA-Operationen und SPs vs. TensorCore-Diskussionen? Das hat hier bislang niemand erwähnt. Bringst Du vielleicht Deine Aktivitäten in verschiedenen Foren durcheinander? Oder bist Du von dem ganzen aus dem Netz aufgesaugten Technikgedöns inzwischen so erschlagen? Wer sagt, dass nV nicht konsistent wäre? Meister im hart am Wind segelnden Marketing ja, aber inkonsistent? Wo nimmst Du das her?
Bislang setzt die Presse imho allein auf nVidias Vorstellung von DLSS 2.0 im März auf und -ja, das ist in erster Linie Marketing vor Ampere-Launch. Hast Du da andere Quellen? Du klingst, als wärst Du oft mit vielen Entwicklern und nVidia zusammen... :schief:

Ich versuche den Diskussionsfaden jetzt trotzdem nochmal zu ordnen: Seit Post #60 ff. geht es hier darum

1. wo die Heuristik für DLSS erstellt, d.h. wo anhand von hochauflösendem Bildausgangsmaterial das anschließende Aufpimpen von LowRes-Material in der GraKa trainiert wird und
2. ob, das Trainieren aktuell weiter nötig bleibt,

also letztlich darum, ob DLSS demnächst nochmal was wird oder erstmal eine Baustelle bleibt.

Da_Obst und BxBender hatten das schon gut auf den Punkt gebracht.
Das seitenlange Zitieren von Zitaten der einzigen Quelle zu dem Thema, bringt da niemanden weiter und keine neuen tiefschürfenden Erkenntnis. Anandtec bringt da genausowenig Neues wie etwa Raffs Beitrag zu dem gleichen nV-Event. Wie auch: alle hängen an dem Wenigen, was nVidia ihnen dazu vorgesetzt hat. Wenn Du andere, bessere Quellen hast, dann nur heraus damit. Hier sind ja doch Einige am Thema interessiert.

Was bislang real erkennbar ist, bleibt imho also:
1. Das was nVidia werbewirksam "neuronales Netzwerk" oder "KI" nennt, sind nVs Serverfarmen, die die Treiber für Turing+Ampere automatisiert aufbessern helfen.
2. Die waren bislang notwendig und bleiben es auch bis auf absehbare Zeit (laut nVidia).
3. Das was sich geändert hat oder demnächst ändern soll, ist, dass nV wahrscheinlich jetzt eine mehr oder weniger standardisierte Schnittstelle für Entwickler zur Verfügung stellt oder demnächst stellen möchte (Implementierungsaufwand unbekannt) um für das aktuelle DLSS funktionsnotwendige Daten im Spiel abgreifen zu können. Im Zweifel müssen also künftig nur noch 5 statt 20 nV-Ingenieure zum Entwickler und es gibt vielleicht 8 statt bisher 3 DLSS-Titel pro Jahr. Außerdem könnte der Trainingsaufwand pro neuem Game ggf. etwas kürzer ausfallen, wenn künftig auf "synthetisches" Training umgestellt und dabei auf die bisherigen Trainingsergebnisse aufgesetzt werden kann. Im Zweifel dauert so ein Training also keine 1 bis 1,5 Jahre mehr, sondern es geht etwas schneller.

Wenn alles blendend läuft, braucht es vielleicht eines Tages auch gar kein Training mehr und DLSS funktioniert in Spielen mit der richtigen Schnittstellenimplementierung out of the box vom ersten Tag an, was es imho von ANfang an hätte machen müssen. Dieser Tag ist aber nicht heute und auch nicht morgen und es werden noch viele nVidia-Ingenieure viele Monate oder sogar Jahre damit ihre Brötchen verdienen, DLSS zum ordentlichen Funktionieren zu bringen.
 
Zuletzt bearbeitet:
Ich verstehe diese NV Jünger nicht ... wollen sich Graka kaufen die es noch nicht gibt und pralen damit .. es gibt noch keine eindeutigen Benchmarks oder sonstiges aber es wird gepralt wie gut sie sind ...

Ich kauf mir nur neue Graka wenn die Leistung nahezu verdoppelt wird .

Thema Radeon 7 ... ihr lacht über die 100°C .. das ist die Hotspottemperatur .. wenn ich hier schau habe ich unter Wasser eine chiptemperatur bei Furmark ~85°C und eine Chiptemperatur ~54°C

Ich glaube eh das Nvidia bescheisst bei dem Temperaturmessungen .. ansonsten kann ich mir nicht erklären wie es sein kann das beim Kumpel die Temperatur der 1080Ti OC unter Wasser im Ruhestand .. unter der des Wassers liegt und bei Furmark ca 300W verbrät aber die Temperatur gerade mal die 40°C erreicht und das Wasser gerade mal 7°C darunter liegt.
 
Ich verstehe diese NV Jünger nicht ... wollen sich Graka kaufen die es noch nicht gibt und pralen damit .. es gibt noch keine eindeutigen Benchmarks oder sonstiges aber es wird gepralt wie gut sie sind ...

Ich kauf mir nur neue Graka wenn die Leistung nahezu verdoppelt wird .

Thema Radeon 7 ... ihr lacht über die 100°C .. das ist die Hotspottemperatur .. wenn ich hier schau habe ich unter Wasser eine chiptemperatur bei Furmark ~85°C und eine Chiptemperatur ~54°C

Ich glaube eh das Nvidia bescheisst bei dem Temperaturmessungen .. ansonsten kann ich mir nicht erklären wie es sein kann das beim Kumpel die Temperatur der 1080Ti OC unter Wasser im Ruhestand .. unter der des Wassers liegt und bei Furmark ca 300W verbrät aber die Temperatur gerade mal die 40°C erreicht und das Wasser gerade mal 7°C darunter liegt.
Was soll man da nicht verstehen? Man kauft eben was da ist, nicht was man wünscht, dass es da wäre.
 
Das befürchte ich auch. Es kann auch kommen, dass BigNavi nur mit der RTX 3070 konkurriert. Nichts über die Leistung wird angedeutet. Gerade jetzt wäre es Zeit, potentielle RTX 3080-Interessenten vom Kauf abzuhalten.
Aber der Preisbereich der 3080 deutet darauf hin, dass AMD schon bis zur 3080 was bringt.. Wie schon gesagt wurde, tausendfach: Eine 5700XT liegt auf dem Niveau einer 2070 bis Super und da soll ein 80CU Modell "nur" 20180Ti Leistung schaffen? Sorry, aber der Fisch stinkt doch gewaltig. Selbst nen 80CU Modell RDNA1 schafft die 2080Ti..

Und ja, es ist schon merkwürdig, dass AMD solange die Kanäle der Leaker dicht halten konnte. Wir werden im Oktober sehen, was da kommt. Ich kaufe eh erst 2021, wie die intelligenten Leute ^^. Da isses mir dann Wurst
Derzeit sorge ich mich eher um eine 3060 mit 6GB und eine 6600XT mit ebenso 6 und vllt 12 GB

Und Angesichts von 12Pin (2x8) und 2x8 Pin bin ich nicht amused.. klingt so als holen beide die Brechstange raus
 
Guckst du hier.

Vielleicht nicht handfest genug, reicht aber um einen Eindruck der Leistung zu bekommen.
Nice try.
Guckt er hier:

Oder er guckt heute ab 15:00 Uhr auf PCGH oder sonstwo....
 
Wie kommst du darauf? Unter 4K ist die 3080 50% schneller als die 2080S. Nicht ideal aber ein CPU Limit ist das vermutlich nicht.

Ich zitiere hier nur aus den Forenkriegen der letzten Tage. 50% ist halt immer noch weit genug weg von "up to 2x" , die Jensen präsentiert hatte und war einigen nicht ausreichend genug, um erstmal stehen gelassen zu werden...
 
Zurück