FidelityFX Super Resolution: AMDs Geschenk im Videotest

FSR ist hier ein erster Step der enorm durch die scheinbar ausgesprochen leichte Integration profitiert.
Es braucht eine manuelle Integration pro Titel. Und ob ich einen Buffer/ein Target mehr (für DLSS notwendig) in die Bibliothek oder die Sub- Routine schicke, macht das Kraut nicht fett.

Also nein- Bei jedem modernen Spiel, welches mit TAA ausgestattet ist (und das ist bei Titeln, die stochastisch rendern Pflicht), ist der Integrationsaufwand fast der gleiche.

Ob und wie sich das am Ende etabliert wissen wir heute noch nicht, aber wenn es wie zuletzt verlautbart tatsächlich eine Sache von 1-2 Tagen, also fast Stunden ist, dann werden wir diesem Ansatz mit entsprechendem Mehrwert für so manchen schon noch öfter über den Weg laufen.
Die Problematik stellt sich derart da, da FSR in den unteren Auflösungsstufen schon arg Federn lassen muss und viele weit verbreitete 3rd Party oder Engine- getriebene Upscaling- Verfahren konkurrieren und teils bessere Ergebnisse liefern.

Sony hat wie wir wissen, neben einer UE5 oder Microsoft, dann auch noch Patente für eine eigene Lösung vergangenes Jahr eingereicht.
Ist denkbar, dass am Ende alle es einmal mit Ihrem eigenen Süppchen probieren. Bei einer weitverbreiteten Engine oder besonders einer eigenen Konsolen-Serie kann sich das vom Entwicklungsaufwand sicherlich auch auszahlen.
Ich befürchte auch, dass mit Einführung von FSR und x weiteren Methoden der Markt "zerfasert".

Mal sehen was passiert. Persönlich bin ich ja nicht so der Fan von diesem durch Raytracing erzwungenem Kompromiss.
Die Entwicklung in Sachen intelligenterem Pixelmanagement gerade auch in hohen Auflösungen war längst überfällig. Alles andere wäre eine weitere Verschwendung von Ressourcecn.

Würd mich da auch nicht zu sehr blenden lassen wenn es bei DLSS am Anfang oftmals hieß "besser als nativ".
Etwaige Werbeversprechen findet man von Nvidia auf der eigenen Homepage soweit ich weiß auch seit paar Monaten schon nicht mehr.
Da hast Du Recht- Das Paradoxe an der Sache ist ja, dass sie das Versprechen mit DLSS2.x in Teilbereichen (Geometrierekonstruktion) ja inzwischen sogar einhalten können.

Gleiche Dreck wie Variable Rate Shading mMn. Schlägt alles in dieselbe Kerbe, aber ich wiederhol mich.
Hätte Raytracing gern in mehreren Spielen, aber bisher hat mich der damit verbundene und einzugehende Kompromiss noch nicht abgeholt.
Der Kompromiss ist kein anderer, als mit jedem anderen Grafiksetting auch, welches Leistung kostet.

Wenn man sieht, dass ein Doom Eternal mit RTRT auf einer 3090 in 4K mit 160FPS rennen kann, dann sieht man erstens wie stark an Raytracing insgesamt schon optimiert wurde, zweitens dass es marktreif ist und drittens, dass man aufgrund dessen eben auch bei neueren Titeln keine oder immer weniger Kompromisse in Sachen Auflösung oder Framerate hinnehmen müssen wird....

Es ergibt nämlich überhaupt keinen Sinn einen Titel auf 240FPS laufen zu lassen, aber dann Bildfehler vom Schlage derer, die z.B. Screenspace- Reflections provozieren, in Kauf zu nehmen.
 
Zuletzt bearbeitet:
Naja, Nvidia hat mit DLSS und Raytracing vorgelegt. AMD versucht wie immer nur aufzuschließen. Bzgl. KI hört man bei AMD kaum was bis gar nichts.
Bezüglich KI hätten sie sogar Ende des Jahres mehr zu bieten wie nvidia, dank der Xilinx Übernahme. FPGAs sind in diesem Umfeld ziemlich stark, einfach mal danach googeln. Ist mir persönlich auch ein Rätsel, wieso intel das noch nicht mehr gepusht hat, die vernachlässigen Altera irgendwie ziemlich, zumindest liest man von xilins immer deutlich mehr.
Von daher könnte ich mir schon auch vorstellen, dass man in Zukunft vielleicht noch ein kleines FPGA auf den Grafikkarten sieht, damit könnte dann AMD und intel auch ohne Probleme DLS von nvidia unterstützen, da sie die Berechnung darauf auslagern können. Aber vermutlich liegt die Interesse der dreien jeweils eher am eigenen Ansatz.
 
Undervolten... wo hast du eine 3080ti her bekommen?:wow:
Alternate
also das stimmt so jetzt auch nicht ganz...das kommt auf das modell an...
bei den tests von igor waren es nur 50w unterschied zur einer 6900xt

und die 3080ti kann man jetzt auch nicht mit der 6800xt vergleichen weil die 3080ti fasst gleichauf mit der 3090 ist ergo mehr als 5% schneller ;) siehe tests bei igor etc...
bei Metro Exodus Enhanced Edition
natürlich mit gleichen Settings

3080ti Werkseinstellung fast 400 Watt
6800XT Werkseinstellung knapp 300 Watt

Untervolten kann ich meine 6800XT auch Prima. 1025mv und -6% Powerlimit
Kommt dann wieder auf das selbe raus
 
Zuletzt bearbeitet:
Also ich fand das Video gut gemacht. "Auf cool" machen halt alle bei YT.
Inhaltlich sah für mich alles was nicht UHD war deutlich verwaschener aus. Aber wie schon an andere Stelle erwähnt ist die Konkurrenz von FSR ja auch nicht nativ sondern klassisches Upscaling. Der eine Vergleich der Art in Godfall war dann auch wieder nicht so enttäuschend.
Was fast der gesamten Leistungsaufnahme meines Prozessors entspricht...
aber so wie Nvidia aus einem Haufen unscharfen Pixelbrei eine gute und effiziente Technik gezaubert hatte habe ich auch Hoffnung in AMD
Ja, wenn sie den selben Weg gehen wie NV von 1.0 zu 2.0:
Weg schmeißen und neu machen.
Bezüglich KI hätten sie sogar Ende des Jahres mehr zu bieten wie nvidia, dank der Xilinx Übernahme. FPGAs sind in diesem Umfeld ziemlich stark
Man kann in einem FPGA Tensor Kerne konfigurieren, ja. Aber warum sollte man dazu eine programmierbare Einheit in die GPU verfrachten wenn man das auch direkt in Silizium gießen kann?
FPGAs lohnen immer da wo die Stückzahl für ein ASIC nicht reicht. Davon sind Consumer GPUs meilenweit entfernt.
 
Wie wirkt sich das auf die Grafiknutzer aus?
Du könntest die KI, die nvidia auf ihre Tensorcores auslagert, auf das FPGA auslagern und hättest dadurch die gleichen Vorteile wie nvidia. Nur das FPGAs halt viel flexibler sind und man noch Änderungen im nachhinein durchführen kann.

Man kann in einem FPGA Tensor Kerne konfigurieren, ja. Aber warum sollte man dazu eine programmierbare Einheit in die GPU verfrachten wenn man das auch direkt in Silizium gießen kann?
FPGAs lohnen immer da wo die Stückzahl für ein ASIC nicht reicht. Davon sind Consumer GPUs meilenweit entfernt.

Zum einen sind FPGAs nicht so teuer, dass sich eine Integration nicht lohnen würde und zum anderen besteht der Vorteil, dass man sie auch neukonfigurieren kann und das wäre für mich der entscheidende Vorteil. Wenn man den Ansatz optimiert und verändert, kann man mit einem einfach Upgrade des FPGAs die HW auch entsprechend anpassen, das entfällt bei einem ASIC. Ist dann halt die Frage ob man das möchte?
Und zum Thema Kosten noch, das FPGA muss ja nicht zwingend in 7nm produziert werden, wodurch man wiederum bei der GPU Chipfläche und Kosten spart, weil z.B. nvidias Tensorcores sind ja mit im Design und kosten auch Fläche...
Der Knackpunkt ist vermutlich die Kommunikation, aber das sollte mit einem Chipletdesign dann im Prinzip kein Problem mehr sein, zumindest, wenn dies auch für den Consumerbereich kommen sollte.
 
Der Einwand beim HW-Nachpatchen via FPGA ist der selbe bei Tensorkernen wie der von @PCGH_Torsten zu meiner Idee das für die Video Codecs zu machen:
Technisch machbar aber für den Anbieter nicht lohnenswert. Man kann ja schließlich stattdessen auch eine neue Generation des ASIC verkaufen.
 
Kommt halt immer drauf an, was für eine Strategie verfolgt wird? Kundenfreundlich wäre es, wenn man quasi eine gewisse Funktion noch länger unterstützt, weil die reine Grafikkartenleistung würde ja nicht zunehmen.
Gerade für den kleineren Marktteilnehmer würde es sich ja anbieten um Marktanteile zu gewinnen, durch so eine Aktion, weil es Vertrauen schafft.
Kommt halt drauf an wo AMD hin möchte, bei den CPUs werden zumindest im Serverumfeld auch FPGAs integriert werden, wieso also nicht auch bei den GPUs?
 
Was fast der gesamten Leistungsaufnahme meines Prozessors entspricht...
Ja und weiter....
Wegen 50w sich daran echt auftugeilen das amd hier soooo viel weniger verbraucht als NVIDIA is wirklich (sry) echt lächerlich
Alternate

bei Metro Exodus Enhanced Edition
natürlich mit gleichen Settings

3080ti Werkseinstellung fast 400 Watt
6800XT Werkseinstellung knapp 300 Watt

Untervolten kann ich meine 6800XT auch Prima. 1025mv und -6% Powerlimit
Kommt dann wieder auf das selbe raus
Nope die 3080 ti hat 350w man kann es erhöhen auf 400

Genauso wie bei Big navi es auch auf 350 oder 370 erhöhen kann...

Stock is es bei 3080ti 350w (igor Tests....)
 
Zurück