AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?

Interessant wird es, ob AMD auch das Upscaling hinbekommt. 720p, das auf 4K aufgeblasen wurde, ist ja noch recht ansehnlich, während es bei AMD weiterhin grottiges 720p bleibt. Das ist einfach, in Verbindung mit der deutlich besseren Raytracingleistung, ein klarer Vorteil für Nvidia.

AMD macht gerne Ankündigungen, um dafür zu sorgen, dass sich die Leute eine AMD Karte kaufen. Am Ende erweisen sie diese jedoch oft als falsche Versprechungen. Ich habe das Gefühl, das könnte hier auch so sein.
 
nun kommt ja langsam an

Als erstes DLSS ist im Prinzip upscaling anhand von Vergleich Bilder die in eine Rechenzentrum als Algorhytmuss festgelegt wird.
Dabei wird auf downsampling vergleiche angestrebt und entsprechend die daten also vram komprimiert.
Was DLSS machen soll ist die pixel menge reduzieren und den vram bedarf senken.
Das past perfekt zu nvidia Strategie weniger vram zu verbauen.

Amd ansatz ist ein anderer dieser wird direkt an den tmu berechnet und lässt vermutlich per shader die pixel lediglich 1,78 bis vervierfachen anstatt diese zu berechnen
Es ist quasi ein upscaler der vergleich zu den Konsolen passt hier sehr gut
Nativ ist das nicht gleiche gilt für dlss.
Sauberer ist es wenn die game engine intern kleinere Auflösung berechnet und nativ größeres Bild ausgibt.
Nachteil dieser Methode man sieht der Grafik die geringere Textur/polygon-dichte an
Amd ansatz ist ähnlich nur mit dem Vorteil das man sogar variable Auflösungen so darstellen kann.
Das geht mit dlss nicht zudem muss für jedes Spiel tausende stunden an training material berechnet werden und das macht nvidia garantiert nicht kostenlos.

ich Feier dass feature nicht da es quasi Pflicht bei dxr ist und ohne keine Daseinsberechtigung hat.
amd ansatz kommt mir da schlauer vor.

Das jetzt die UE4 dlss im Paket hat bedeutet aber auch das man bei nvidia endlich vom training eines Programmes weggeht. Und auch auf pixel multiplizieren Wechselt.

Nebenbei die tensor core tun derzeit bei gamergpu gar nix
DLSS läuft auf den shadern
Die tensor cores sind zu träge für eine live Berechnung.
Film video kein problem selbst audio und Filterung kein problem.
Siehe die neuen features von nvidia broadcast
Das überhaupt die tensor cores auf den gamer chip kommen liegt an den quadro lineup da die chips identisch sind.
Und für gpgpu machen tensor cores durchaus Sinn besonders wenn mit neural network an Bildbearbeitung oder videos gearbeitet wird.
Es gab nen Grund warum es keine volta gamer chips gab.
 
Shader sind Recheneinheiten aber nicht alle Recheneinheiten sind Shader.
Der Begriff AI Shader oder AI Recheneinheiten ist trotzdem korrekt.
Ich wollte letztlich ja auch nur darauf hinaus, dass die Rolle der TCs für DLSS (also generell die der Hardwareeinheiten für DLSS) imho nach wie vor weitestgehend unklar und eine Blackbox ist. M.E. wurden sie unter DLSS 1.0 z.Bsp. gar nicht genutzt, d.h. da lief wohl alles -und läuft ggf. auch heute bei DLSS2.0 noch oder jedenfalls größtenteils- über die allgemeine Shader. Fakt ist doch, dass diese Matrizenrechenkerne in erster Linie für den HPC-Bereich entwickelt wurden und für DLSS bestenfalls dual use oder eben vielleicht auch Ballast sind. Gerne Korrektur, wenn es jemand (begründbar) besser weiß.
Das stimmt nicht, Nvidia schreibt selber:
DLSS is a deep learning neural network that uses the power of the NVIDIA RTX TensorCores to boost frame rates and generate sharp frames that approach or exceed native rendering.

Ohne Tensor Cores ist KI Bildberechnung auch möglich, nur offenbar eben nicht in der Qualität.
 
Edit
Du siehst es doch auch auf den Bildern die dahell63 oben gepostet hat. Die 2070 hat höhere fps, aber das Bild ist qualitativ deutlich schlechter. Schau dir feine Konturen wie Zäune an und die Dächer der Hütten, oder aucht mal auf Licht und Farben. Fällt dir auf, dass die Farben von Lichtquellen blasser sind mit DLSS? Danke an dahell für dieses Beispiel. Hier sieht man gut dass DLSS einfach noch nicht wie nativ ausschaut, aber immerhin schon mal ganz okay mMn. War ja schon immer so. Mehr fps gehen auf Kosten der Qualität, da braucht man sich nichts vormachen.

Das schlimme bei den Bildern ist eher (zumindest mMn), dass das Bild der 2070 mehr Himmel zeigt als das der 6800er... wenn ich bei CP2077 in den Himmel glotze gehen bei mir die FPS auch sofort hoch....

Das gerade bei CP2077 in Verbindung mit DLSS auch einige negative Beispiele von DLSS durch die Foren geistern kommt nochmal dazu.....

Wie ich schon im RDNA2 Thread dazu schrieb, würde ich diue Erwartungshaltung für AMD's FSRXYZ-was-auch-immer mal im Keller ansetzen! Jeder der davon träumt, das eine im Vergleich zu nVidia, kleine Bude, im ersten Schuß das toppt, was nVidia mit recht großer Truppe seit 3..4Jahren in Entwicklung hat... naja...

Ich träume diesen Traum nicht... aber, dass AMD überraschen kann haben sie ja in 2020 mehrfach gezeigt! Aber ich denke auch in dem Bereich braucht AMD noch eine Generation um da aufzuschließen.

Ich lebe, trotz einiger Vermutungen, dennoch ganz gut bisher ohne RT und DLSS.. hab glaube in meinen Bibliotheken bei Steam & Epic nur CP2077 was überhaupt RT unterstützt.. Aber was ist schon meine Bibliothek....

Sagt bitte Bescheid, wenn RT, DLSS, FSRXYZ-oder-so auch Gameplay & Story verbessert....
 
Ich wollte letztlich ja auch nur darauf hinaus, dass die Rolle der TCs für DLSS (also generell die der Hardwareeinheiten für DLSS) imho nach wie vor weitestgehend unklar und eine Blackbox ist. M.E. wurden sie unter DLSS 1.0 z.Bsp. gar nicht genutzt, d.h. da lief wohl alles -und läuft ggf. auch heute bei DLSS2.0 noch oder jedenfalls größtenteils- über die allgemeine Shader. Fakt ist doch, dass diese Matrizenrechenkerne in erster Linie für den HPC-Bereich entwickelt wurden und für DLSS bestenfalls dual use oder eben vielleicht auch Ballast sind. Gerne Korrektur, wenn es jemand (begründbar) besser weiß.
Das ist nicht richtig. Der Einsatz der Tensor Cores ist ziemlich klar und wird von Nvidia offen kommuniziert.

Hier, Seite 21.

"Tensor Cores accelerate the matrix-matrix multiplication at the heart of neural network training and inferencing functions. Inference computations are at the core of most AI-based graphics applications, in which useful and relevant information can be inferred and delivered by a trained deep neural network (DNN) based on a given input. Examples of inference include enhancing graphics qualities through DLSS (Deep Learning Super Sampling), AI-based denoising, removing background noise of in-game voice chats through RTX Voice, AI-based green-screen ef f ects in NVIDIA RTX Broadcast engine, and many more."
 
Der Begriff AI Shader oder AI Recheneinheiten ist trotzdem korrekt.

Das stimmt nicht, Nvidia schreibt selber:


Ohne Tensor Cores ist KI Bildberechnung auch möglich, nur offenbar eben nicht in der Qualität.
nur ein Bsp. Imho ist Konsens, dass die TCs jedenfalls bei DLSS1.0 (noch?) brachlagen. Vielleicht kann ja einer der Redakteure aufklären?
 
nur ein Bsp. Imho ist Konsens, dass die TCs jedenfalls bei DLSS1.0 (noch?) brachlagen. Vielleicht kann ja einer der Redakteure aufklären?
DLSS 1.0 nutzte noch keine Tensor Cores.
Entsprechend war auch das Ergebnis.

Wikipedia:
In 2019, the videogame Control shipped with ray tracing and an improved version of DLSS, which didn't use the Tensor Cores.[6][7]

In April 2020, Nvidia advertised and shipped with driver version 445.75 an improved version of DLSS named DLSS 2.0, which was available for a few existing games including Control and Wolfenstein: Youngblood, and would be available later for upcoming games. This time Nvidia said that it used the Tensor Cores again, and that the AI did not need to be trained specifically on each game
 
Das ist nicht richtig. Der Einsatz der Tensor Cores ist ziemlich klar und wird von Nvidia offen kommuniziert.

Hier, Seite 21.

"Tensor Cores accelerate the matrix-matrix multiplication at the heart of neural network training and inferencing functions. Inference computations are at the core of most AI-based graphics applications, in which useful and relevant information can be inferred and delivered by a trained deep neural network (DNN) based on a given input. Examples of inference include enhancing graphics qualities through DLSS (Deep Learning Super Sampling), AI-based denoising, removing background noise of in-game voice chats through RTX Voice, AI-based green-screen ef f ects in NVIDIA RTX Broadcast engine, and many more."
Ist das der Foliensatz von dem Presseevent von nV in 03/2020? Sorry, aber:

"...at the heart of neural network training..."

ist doch erkennbar genau der Bullshit, der Viele hat glauben lassen, ihre Kärtchen wären Teil eines "neuronalen Netzwerks", auf dem die DLSS-Heuristik berechnet und optimiert würde, was natürlich Quatsch ist. Das nV nicht herausposaunt, dass die Rolle des TCs teilweise etwas fragwürdig war/ist, sollte wohl auch klar sein. Noch eine "neutrale" Quelle?
Nein, das ist kein Konsens. Was du meinst, ist das Denoising des geraytracten Rohbildes.
Was ist mit der Quelle von RavionHD? :hmm: Zwar auch keine Primärquelle, aber haut auch in die Kerbe.
 
Zuletzt bearbeitet:
Ist das der Foliensatz von dem Presseevent von nV in 03/2020? Sorry, aber:

"...at the heart of neural network training..."

ist doch erkennbar genau der Bullshit, der Viele hat glauben lassen, ihre Kärtchen wären Teil eines neuronalen Netzwerks, auf dem die DLSS-Heuristik berechnet und optimiert würde, was natürlich Quatsch ist. Das nV nicht herausposaunt, dass die Rolle des TCs teilweise etwas fragwürdig war/ist, sollte wohl auch klar sein. Noch eine "neutrale" Quelle?
Wo sind eigentlich die Quellen für deine Behauptungen? ?
 
ist doch erkennbar genau der Bullshit, der Viele hat glauben lassen, ihre Kärtchen wären Teil eines "neuronalen Netzwerks", auf dem die DLSS-Heuristik berechnet und optimiert würde, was natürlich Quatsch ist. Das nV nicht herausposaunt, dass die Rolle des TCs teilweise etwas fragwürdig war/ist, sollte wohl auch klar sein. Noch eine "neutrale" Quelle?
Mit jedem Nvidia Treiber wird ein neuronales Netzwerk ausgerollt. Man muss auch keine Firmengeheimnisse ergründen. Das Inferencing eines NN besteht im Grunde aus Matrixoperationen, eben genau was die Tensor Cores können. Es widerspricht jeder Logik, dass diese dedizierten Einheiten dafür nicht genutzt werden.
Was ist mit der Quelle von RavionHD? :hmm: Zwar auch keine Primärquelle, aber haut auch in die Kerbe.
Control (mit der DLSS 1.0 Implementierung) scheint überhaupt kein AI zu nutzen, dann sind auch die Tensor Cores logischerweise egal.
 
Gibt es Messwerte/Benchmarks/... wie sehr die Tensor-Cores durch DLSS-Upscaling beansprucht werden, oder ist dies ein völlige Blackbox?

Reichen im allgemeinen z.B. die 272 TensorCores der RTX 2060 um 720p --> 4k bei 60fps zu ermöglichen, oder braucht es mehr TensorCores, oder weniger?
 
Mit jedem Nvidia Treiber wird ein neuronales Netzwerk ausgerollt. ...
Imho wird mit dem Treiber lediglich das Ergebnis der TAA+upscaling-Optimierung, die bei nV intern läuft, ausgerollt. TCs tragen zu diesem Schritt gar nichts bei und sind von gar keinem Netzwerk Bestandteil sondern rein lokal. Das meinte ich mit "Bullshit". Der Foliensatz ist imho ja auch nicht für Devs sondern eine reine Pressegeschichte.
 
Wenn die Steam-Statistik auch nur ansatzweise Hand- und Fuß hat, sind bereits jetzt über 10 Millionen Spielerechner im Umlauf, die von DLSS profitieren.

RTX 2060 bis RTX 3080 sind immerhin, 13,2% der erfassten Steam-Hardwarebasis, bei 120 Mio. monatlichen Nutzern wären das ca. 16 Millionen PC-Systeme.

DLSS ist zugegeben eine Lösung für das RTX Problem mit den fps die jetzt in diesem Moment auf dem Markt ist. In wie weit DLSS und artverwandte Lösungen der Ansatz sind der zum Standard wird, ist sicherlich noch nicht abzuschätzen.

KI basiertes fuzzy Upscaling hat immense Vorteile bei der Rechenzeit pro Frame. Nicht nur bei 3D, sondern auch bei Physik, Weltsimulation und weiteren Aspekten des Spiels die nicht 100% deterministisch sein müssen. DLSS war sehr schnell am Start, aber man sollte es sehen wie die Glide API von 3dfx. Damit erschien 3dfx zunächst unschlagbar, aber in erster Linie hat das einen Boom bei den 3D APIs ausgelöst, der 5-10 Jahre gedauert hat, bis sich der Staub gelegt hatte, die besten Praktiken zertifiziert waren und der Befehlssatz und der Funktionsumfang eines 3D Chips wirklich definiert war (Stichwort T&L). Genau das steht mit DLSS von Nvidia und der Konkurrenz von Microsoft, Apple und Facebook noch aus.

Microsoft hat nicht vor DLSS zu kopieren damit man einen +10 fps Sticker auf die Xbox kleben kann. Physikmodelle von Autos und Objekten in der Welt. Verhalten von rauhen Mengen von NPCs. Bots gegen die der Spieler antritt. Simulation ganzer Ökosysteme, Bildverbesserung von Videostreams. Das sind Aufgaben für die Technologie die hinter DLSS steckt. DLSS ist nur die Spitze eines Eisberges genannt DeepLearning und MachineLearning.

Nvidia war sehr gut darin schnell ein einziges überzeugendes Feature zur Marktreife zu bringen und für die Grafikkarten zu pushen. Dann schau ich mein Nvidia Shield Pro an und frag mich warum meine 2080 kein AI Upscaling von Videocontent macht, auf der Shield funktioniert das hervorragend. Der grüne SkyGo Brei könnte ein upgrade vertragen. Aber so ist Nvidia halt oft. Die wollen immer die ersten sein, die müssen die ersten sein, denn außer Spiele Grafikkarten hatten die lange Zeit keine echten Gewinnbringer.

Wenn Sony und Microsoft Machine Learning und oder Deep Learning in den Konsolen haben wollen, dann sicherlich mit breiten Auswirkungen auf alle Aspekte des Spiels, nicht nur die fps unter Raytracing. So war AMD auch schon immer. Seit der ersten Radeon die ich im Jahr 2000 gekauft hab. Die warten bis Microsoft sagt so ist es Standard in DirectX und dann hat AMD dafür die Referenzkarte. Genau so wird es mit der Bildverbesserung sein. Bis dahin wird AMD kein DLSS Äquivalent haben. Traditionell ist es dann auch immer so, dass Nvidia nachziehen muss, damit deren Karten wiederum alle Features unterstützen die Microsoft gerade definiert hat.

13% DLSS kompatible Computer schön und gut. Lass es 18% sein im Herbst, ist alles für Microsoft kein Drama und für AMD auch nicht. Die wollen nicht weniger als den ganzen Rest. Nvidia wird dann sicherlich auch DirectML Feature Kompatibilität im Treiber haben.
 
Control (mit der DLSS 1.0 Implementierung) scheint überhaupt kein AI zu nutzen, dann sind auch die Tensor Cores logischerweise egal.
Der einzige Titel der ohne Tensor Core Unterstützung verfügbar war, war Control mit DLSS 1.9.
Alle vorherigen, sowie später erschienenen Titel, inkl. Control Update zu DLSS 2.0 nutzten die Tensor Cores.
 
DLSS ist die wahrscheinlich wichtigste GPU-Technologie, die in den lezten 5 Jahren eingeführt wurde. Dass AMD immer noch kein Pendant rausgebracht hat ist schon bitter, wenn man bedenkt, dass sie es zum Launch der 6900XT angeteasert hatten. Offenbar läuft es noch nicht so gut. Wie denn auch ohne KI-Ansatz...

Die Framerate wird dank DLSS2.0 nahezu verdoppelt und die Optik bleibt gleich im Quality-Preset bzw man muss im Balanced-Preset schon zoomen und ganz genau hinsehen. Das ist einfach ein Gamechanger. 4K/60Hz in Cyberpunk2077 mit Raytracing-Psycho sind damit möglich, während Karten ohne DLSS und teils überhaupt ohne Raytracing bei gleichen Einstellungen bei 20-30FPS rumkrebsen. Wenn man dieses Spiel spielt ist man froh eine DLSS2.0-fähige Grafikkarte gekauft zu haben.

Ich sage, das hat in 3-5 Jahren jede Karte und auch jede Konsole. Diese Technologie zu ignorieren ist absolut sinnlos. Gratis Verdopplung der Framerate. Das wird sich in Zukunft wohl für jedes AAA-Spiel durchsetzen, sofern es mit der Lizenzierung keine Probleme gibt.
 
Imho wird mit dem Treiber lediglich das Ergebnis der TAA+upscaling-Optimierung, die bei nV intern läuft, ausgerollt. TCs tragen zu diesem Schritt gar nichts bei und sind von gar keinem Netzwerk Bestandteil sondern rein lokal. Das meinte ich mit "Bullshit". Der Foliensatz ist imho ja auch nicht für Devs sondern eine reine Pressegeschichte.
Nee, wie kommst du auf so was? Mit jedem Treiber werden die Weights des Convolutional Auto-Encoder Netzwerks ausgerollt. Der Begriff "Netzwerk" bezieht sich doch auf Neuronales Netzwerk und natürlich ist das lokal.

Die Tensor Cores werden zweifellos für das Inferencing des NN eingesetzt, alles andere entbehrt jeder Logik. Allerdings hat RDNA 2 gar nicht mal so wenig Int8 Power. Mehr Genauigkeit braucht's gar nicht für die Weights. Mal schauen, dann wird's vielleicht gar nicht mal sooo langsam. Aber die Bildqualität ist immer noch ein kritischer Punkt.

Update:

"The trained deep neural networks (DNNs) are included in the driver download. These neural networks are updatable as they get more accurate and powerful allowing the performance and capabilities of these features to evolve over time. "


Danke an @ZeroZerp für den Link.
 
Zuletzt bearbeitet von einem Moderator:
Zurück