News AMD FSR: CTO stellt KI-Einsatz in Aussicht

Wenn FSR noch besser wird passt es auch. Vieles ist aber jetzt schon nur im "Standbildvergleich" oder bei direkter Gegenüberstellung sichtbar.
Hab gestern meinen ersten CP2077 Playthrough gestartet und natürlich mit Pathtracing in UHD (Upsampling auf Performance, also 1080p).

Auf Screenshots sehe ich einen Unterschied zwischen DLSS und FSR2, aber der ist so marginal, der würde mir beim spielen garnicht aufgallen.
Allerdings gibts bei DLSS eben seit einigen wochen/monaten Ray Reconstruction (supporten glaube ich eh nur CP2077 und AW2) und das macht das Bild deutlich besser und damit gewinnt DLSS klar.

Allerdings wie gesagt, soweit ich weiß nur in 2 Spielen verfügbar. Insofern in 99,5% aller DLSS/FSR spielen wäre es mir egal was ich nutze, das Bild muss passen.

Im Immortals of Aveum habe ich sogar FSR3 benutzt, da mir das Upscaling besser gefallen hat (deutlich schärfer) und AMDs FMF bei FSR3 wenigstens funktioniert hat. DLSS FG war komplett broken und ging alle 1-2 std einfach "kaputt". Aber ist ja nix neues bei UE5 Titeln, einigen wurden per Patch die DLSS FG nachträglich entfernt, weil Buggy

Zum Topic selbst:
Bin gespannt was AMD in dem Bereich liefert und vor allem ob es zwingend spezielle Recheneinheiten wie bei Intel oder NV braucht oder ob AMD alle vorführt, dass es auch ohne geht.
 
Sind doch am Ball ...


Und dann ? DLSS 3 wird doch auch "abgefeiert" und "ALLE" sind genau so zufrieden damit ... :ka:

1709622851642.png


Schon komisch, wie kann es "ebenbürtig" sein wenn darunter dann steht dass DLSS optisch klar vorne liegt? Warum Du nur den Teil markierst der Dir gefällt ist klar.


Zum Topic selbst:
Bin gespannt was AMD in dem Bereich liefert und vor allem ob es zwingend spezielle Recheneinheiten wie bei Intel oder NV braucht oder ob AMD alle vorführt, dass es auch ohne geht.

https://www.pcgamer.com/nvidias-dls...those-ai-accelerating-tensor-cores-after-all/

Bluedot55 ran both DLSS and third party scalers on an Nvidia RTX 4090 and measured Tensor core utilisation. Looking at average Tensor core usage, the figures under DLSS were extremely low, less than 1%.

Initial investigations suggested even the peak utilisation registered in the 4-9% range, implying that while the Tensor cores were being used, they probably weren't actually essential. However, increasing the polling rate revealed that peak utilisation is in fact in excess of 90%, but only for brief periods measured in microseconds.

Die Tensor Cores ermöglichen einen komplexeren Algorithmus (bessere Ausgangsqualität) bei gleichzeitig höherer Geschwindigkeit. Das kann man ja an Intel's XeSS sehen, mit XMX Einheiten ist die Qualität besser.

Generell kann man jede Berechnung "woanders" durchführen, also auch auf den Shadern. Die Frage ist: wie viele Shader muss man dafür bereitstellen und wie lange benötigen diese dann für die Berechnung? Wenn man für gleichbleibende Qualität zu viel Performance opfern muss, dann nutzt das Feature am Ende keiner.
 
KI Einheiten sind bei den 7000er Karten ja da, ob die was in der Richtung können ist halt die Frage :D
AMD müsste ja nur die Berechnungen innerhalb von FSR so umstellen, dass Matrix-Einheiten von RDNA 3, genannt AI-Beschleuniger, diese schneller ausführen können als die Shader. Gleichzeitig sollte eine Ausführung auf den Shadern für RDNA 2 noch möglich sein oder habe ich einen Denkfehler?
Grüße
:kaffee:
Die sind, wie die Ray Accelerators, in den Compute Units verbaut, und keine eigenständigen, separaten Cores.
Im Prinzip hat Nvidia mit den Tensor Cores dedizierte Einheiten verbaut die ganz spezielle Berechnungen (Matrix Multiplikationen) besonders schnell bearbeiten können. Darüber läuft das Upscaling und die Frame Generation. AMD lässt es über die Shader laufen.
Für mich wäre es interessant, ob AMD die eigenen Matrix-Einheiten parallel nutzen kann oder ob es Vorteile bei der Ausführung geben wird, nicht wo sie sich direkt befinden.
 
Zuletzt bearbeitet:
Bei dem ebenbürtig gehts um die jeweilige Frame Generation, da wo DLSS optisch vorne liegt ist das Upscaling gemeint.
Wer nutzt FG seperat? Wenn ich zu wenig FPS habe nutze ich zuerst FSR/DLSS und dann erst (wenns imer noch nicht reicht) FG.
Wenn ich mit FSR/DLSS genügend FPS habe möchte ich eigentlich kein FG nutzen. Wenn...dann gehört FSR/DLSS + FG schon irgenwie zusammen.
Diese Einzelbetrachtung suggeriert einen Gleichstand der beim spielen real nicht gegeben ist.

In Avatar liefert die AMD Lösung allerdings schon gut ab.
 
Zuletzt bearbeitet:
AMD müsste ja nur die Berechnungen innerhalb von FSR so umstellen, dass Matrix-Einheiten von RDNA 3, genannt AI-Beschleuniger, diese schneller ausführen können als die Shader. Gleichzeitig sollte eine Ausführung auf den Shadern für RDNA 2 noch möglich sein oder habe ich einen Denkfehler?
Grüße
:kaffee:

Für mich wäre es interessant, ob AMD die eigenen Matrix-Einheiten parallel nutzen kann oder ob es Vorteile bei der Ausführung geben wird, nicht wo sie sich direkt befinden.

Da die AI-Accelerators 2x pro Compute Unit verbaut sind ist eine parallele Nutzung nicht möglich. Heißt man kann die Matrix-Multiplikation nicht auslagern sondern sie "blockieren" die Compute Units. Das ist bei den Ray-Accelerators (1x pro Compute Unit) auch so, daher kommt ja der Performance Unterschied.

Eine 4080 hat z.B. 76 RT-Cores, eine 7900XTX dagegen 96 Ray-Accelerators (gleiche Anzahl Compute Units).

https://www.techpowerup.com/gpu-specs/geforce-rtx-4080.c3888
https://www.techpowerup.com/gpu-specs/radeon-rx-7900-xtx.c3941

Und wie wir wissen dreht die 4080 beim RT Kreise um die XTX.

Bei den Tensor Cores / AI-Accelerators steht es 304 (4080) gegen 192 (XTX).
 
Stellt euch mal vor Nvidia, AMD und Intel würden zusammen an einer gemeinsamen Technologie arbeiten und die wäre bis auf einen technologischen Einschnitt auf alles Karten verfügbar. Oh boy, bei der Menge an Kohle die jeder von denen für den eigenen Gulasch ausgibt wären wir alle schon im Grafikwunderland...
Ich bevorzuge OpenSource von AMD da es für alle ist und jeder was davon hat. Ja DLSS mag aktuell besser sein und Intels Lösung passt wohl auch aber würden die Ihre Ressourcen zusammenlegen würde uns der Kopf platzen vor Freude und alle 3 würden genauso gut Geld verdienen. Deswegen und weil Raytracing für mich aktuell nur ein technisches Beiwerk ohne signifikanten Mehrwert ist ging meine Kohle an AMD. Ich hoffe die bleiben bei Ihrem offenen Ansatz und finden die passenden Lösungen dafür.
 
Stellt euch mal vor Nvidia, AMD und Intel würden zusammen an einer gemeinsamen Technologie arbeiten und die wäre bis auf einen technologischen Einschnitt auf alles Karten verfügbar. Oh boy, bei der Menge an Kohle die jeder von denen für den eigenen Gulasch ausgibt wären wir alle schon im Grafikwunderland...
Nö, wenn die sich zusammen schliessen dann hat keiner Not irgendwas zu entwickeln.

Ich bevorzuge OpenSource von AMD da es für alle ist und jeder was davon hat.
"Open Source" hat nichts mit "jeder hat etwas davon" zu tun. Siehe z.B. Intel XeSS, das ist "Closed Source" und läuft ohne Beschleunigung auf allen Karten.

Ja DLSS mag aktuell besser sein und Intels Lösung passt wohl auch aber würden die Ihre Ressourcen zusammenlegen würde uns der Kopf platzen vor Freude und alle 3 würden genauso gut Geld verdienen. Deswegen und weil Raytracing für mich aktuell nur ein technisches Beiwerk ohne signifikanten Mehrwert ist ging meine Kohle an AMD. Ich hoffe die bleiben bei Ihrem offenen Ansatz und finden die passenden Lösungen dafür.
Wenn man neue Grafikfeatures nicht mag und lieber bei den alten Techniken bleibt, dann hast Du alles richtig gemacht. Denn fast jedes neue Feature im Verlauf der Grafik-Entwicklung hat neue Designs erfordert.
 
Wenn man neue Grafikfeatures nicht mag und lieber bei den alten Techniken bleibt, dann hast Du alles richtig gemacht. Denn fast jedes neue Feature im Verlauf der Grafik-Entwicklung hat neue Designs erfordert.
Ich will die neue Technik mögen und einsetzen aber nicht zu dem Preis den ich bei UHD und Frames <80 FPS zahlen muss. Zudem haben die wenigsten meiner aktuellen Spiele Raytracing implementiert. CP2077 mit Addon steht auf dem Zettel aber max. mit einer mittleren Prio.

Nö, wenn die sich zusammen schliessen dann hat keiner Not irgendwas zu entwickeln.
Das glaube ich weniger da Engine Hersteller wie Epic dann einfach Techniken vorstellen um die herum die HW entwickelt werden könnten. Schließlich treiben die auf der anderen Seite die Technik auch voran. Aber ja die HW-Firmen haben hier den größeren Hebel.
Ja ich bin da etwas blauäugig und naiv, das aber ganz bewusst da mir die aktuelle Situation rund um Fanboys, HW die an der max. Schmerzgrenze betrieben wird um 0,5% schneller zu sein als die anderen und die Gängelung das diese Features nur mit dieser Karte nutzbar sind tierisch auf den Sack geht. Ich weiß genauso das ich die Situation nicht ändern kann, Die einzige Macht die ich kleiner Wurm besitze ist die Kohle die ich ausgeben kann und will. Das versuche ich bestmöglich zu nutzen. :D
 
Ich will die neue Technik mögen und einsetzen aber nicht zu dem Preis den ich bei UHD und Frames <80 FPS zahlen muss. Zudem haben die wenigsten meiner aktuellen Spiele Raytracing implementiert. CP2077 mit Addon steht auf dem Zettel aber max. mit einer mittleren Prio.

Das war "damals als ich noch jung war" noch viel schlimmer. Da musste man quasi jedes Jahr aufrüsten um die State-of-the-Art Spiele in voller Pracht zocken zu können. Und im Crysis-Fall ging selbst das erst einige GPU Gens später.

Das glaube ich weniger da Engine Hersteller wie Epic dann einfach Techniken vorstellen um die herum die HW entwickelt werden könnten. Schließlich treiben die auf der anderen Seite die Technik auch voran. Aber ja die HW-Firmen haben hier den größeren Hebel.
Ja ich bin da etwas blauäugig und naiv, das aber ganz bewusst da mir die aktuelle Situation rund um Fanboys, HW die an der max. Schmerzgrenze betrieben wird um 0,5% schneller zu sein als die anderen und die Gängelung das diese Features nur mit dieser Karte nutzbar sind tierisch auf den Sack geht. Ich weiß genauso das ich die Situation nicht ändern kann, Die einzige Macht die ich kleiner Wurm besitze ist die Kohle die ich ausgeben kann und will. Das versuche ich bestmöglich zu nutzen. :D

Fanboys, Hardware an der Schmerzgrenze, Exklusiv-Features, nix Neues. Gibt es alles seit der 3dfx Voodoo. :D
 
Das war "damals als ich noch jung war" noch viel schlimmer. Da musste man quasi jedes Jahr aufrüsten um die State-of-the-Art Spiele in voller Pracht zocken zu können. Und im Crysis-Fall ging selbst das erst einige GPU Gens später.



Fanboys, Hardware an der Schmerzgrenze, Exklusiv-Features, nix Neues. Gibt es alles seit der 3dfx Voodoo. :D
Stimmt alles macht es nur nicht besser. :( Ab und an muss man sich ja mal Luft machen.
 
Das Problem bei AMD ist, die versuchen immer an alle zudenken und dort fängt der Fehler an, setzt auf KI beschleunigte Kerne und verkauft dadurch neue GPUs, die auch imstande sind, konkurrenzfähig zu sein.

Mit der aktuellen Verkaufsstrategie wird man nicht genug Karten verkaufen, ich lese hier im Form sehr oft brauche keine neue GPU, meine Karte reicht noch locker für ein paar Jahre.

Meistens sind das die Hardcorefanboys, die noch nicht in den Geschmack von KI-beschleunigtes Upscaling gekommen sind, die geben sich einfach zufrieden mit FSR. Ich konnte beides schon testen und FSR braucht definitiv eine KI- Beschleunigung, das aktuelle ist wirklich schlecht.

FSR 3 Nativ sieht aus wie DLSS auf ausgeglichen und das finde ich einfach nicht zeitgemäß, AMD muss jetzt nach vorne sehen und erst mal die ganzen RDNA 2 Karten links liegen lassen ich hoffe, das ist ihnen bewusst.

Ansonsten wird man der ewige zweiter, der als nach schieben muss, wenn Nvidia wieder mit was Neuem um die Ecke kommt und ich kann euch sagen, mit Blackwell wird sich einiges ändern.
 
Zuletzt bearbeitet:
Meistens sind das die Hardcorefanboys, die noch nicht in den Geschmack von KI-beschleunigtes Upscaling gekommen sind, die geben sich einfach zufrieden mit FSR. Ich konnte beides schon testen und FSR braucht definitiv eine KI- Beschleunigung, das aktuelle ist wirklich schlecht.

FSR 3 Nativ sieht aus wie DLSS auf ausgeglichen...
Wenn FSR immer wie die ausgeglichene Einstellung von DLSS aussehen würde, reicht mir das schon. Ich habe eine RTX 3060 und eine RX 7600 und habe DLSS genossen (Metro EE und CP2077 mit RT+DLSS in verschiedenen DLL-Versionen probiert).
FSR sieht nicht mehr so schlimm wie am Anfang aus, außerdem braucht man ohne RT kein Upscaling.
In manchen Szenarien sieht selbst FSR 2 besser aus als TAA, aber das Problem kennen wir.
:ugly:
Ja, ich kann mir noch immer reine Raster-Grafik geben. Das liegt aber auch daran, dass ich RDR2 nachhole.
 
Zuletzt bearbeitet:
Wenn man sich ansieht wie ( mal nett Ausgedrückt ) mittelmässig Amd Treiber in der Regel sind , und wie ewig Amd immer braucht um Fehler zu beheben oder Support zu liefern , kann eine Ankündigung von Amd etwas in Aussicht zu stellen , bei dem sie Meilenweit hinterherhinken wohl Jahre dauern .

Wenn ich jetzt schließlich nicht gerade wenig Geld für eine Grafikarte ausgebe , möchte ich schon aktuell das beste Feature Paket dafür !
:D
 
Wenn man sich ansieht wie ( mal nett Ausgedrückt ) mittelmässig Amd Treiber in der Regel sind , und wie ewig Amd immer braucht um Fehler zu beheben oder Support zu liefern , kann eine Ankündigung von Amd etwas in Aussicht zu stellen , bei dem sie Meilenweit hinterherhinken wohl Jahre dauern .
Ich merke immer wieder, dass das bei mir doch kein allzu großes Zug-Pferd zu sein scheint.
Ich habe den Adrenalin-Treiber mit seiner strukturierten, ansprechenden und schnellen Oberfläche inkl. OC mit der RTX 3060 sogar vermisst. Abstürze gibt es da höchstens, wenn man keine Ahnung von Overclocking oder Undervolting hat und alle Regler verstellt.

Nvidia-Treiber hatten auch Bugs, das steht außer Frage. Ich bin es leid auf der uralten Treiber-Frage von Vorgestern herumzureiten.
Eines stimmt: Wenn neue Features hinzukommen, also jetzt AFMF, und man möglichst hohe Stabilität möchte, bleibt man am besten so 3 Monate auf einem alten Treiber.
:ugly:
DLSS ist schon sehr gut, wäre mir aber keinen zusätzlichen Hunni wert, wenn die Speichergröße nicht passt. Die Aktien und Gewinne von Nvidia sprechen eigentlich für den Kauf einer Radeon.
 
Zuletzt bearbeitet:
Ja, ich kann mir noch immer reine Raster-Grafik geben. Das liegt aber auch daran, dass ich RDR2 nachhole.

Ich auch seit einiger Zeit – ich hoffe, du kommst besser ins Spiel als ich, ich habe lange damit gefremdelt.

On Topic: Ich schau mir am Rande an, was AMD daraus macht, weil es mich technisch interessiert, ansonsten bietet es für mich(!) keinen relevanten optischen Mehrwert.
 
Zurück