Fidelity FX Super Resolution: AMDs "DLSS" funktioniert auch mit Geforce-GPUs

Ich besitze aber keine AMD GPU? Ich will dass das Nvidia kann ab geforce10, von mir aus mit nem Umweg über andere Tools. Und nein glaub nich dass das was du da sagst das ist was ich meine. Außerdem ist das schon wieder nur auf ein Spiel von 100 limitiert. Also nur ein preset wo Fidel existiert, ich sagte doch ich will das global für alles.

Einfach die Auflösung im Spiel reduzieren, das geht in allen Spielen. ;)
 
Zum besseren Verständnis habe ich noch einmal editiert.

Vielen Dank :D Leider zu spät ^^
Ich habe dein Satz falsch verstanden und mich schon gewundert.
Wie immer, bei solchen Themen ist Unterhaltung meist all inklusive.

Schaue mir das 4K Material später auch noch an, warten auf Tests bleibt aber bestehen. Bin schon gespannt wenn die ersten Spiele damit erscheinen
 
Vielleicht schmiert und ghostet Super Resolution im Gegensatz zu DLSS weniger oder gar nicht.

@Cleriker
10 Studios/Engines alleine für 2021... "with a lot more planned in 2022":
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Leider keine Angabe welche Studios / Engines, oder?

DLSS gibt's nativ in der UE4 (+5) und RED Engine und demnächst in Unity, Snowdrop, ID Tech, Frostbite und einigen anderen. Damit ist so ca. 90% des Gaming Markts abgedeckt, sowohl was Triple A als auch Indie-Titel angeht.


Natürlich hab ich es gelesen.. und verstanden...
Du aber offenbar nicht, was für einen Einfluss es hat, mit einer Black Box zu arbeiten, wenn man auf der anderen Seite Vollzugriff auf alles Wissen um eine Architektur hat.
Die Nvidia Karten arbeiten halt anders, als die von AMD und brauchen andere Optimierungen - und das auch abseits der Wave Größe.
Die ganzen Whitepaper zu den Architekturen sind nett als Startpunkt, aber das wars dann auch.
Und Du hast offensichtlich nicht verstanden dass hier zwei verschieden Qualitätsstufen miteinander verglichen werden um Rückschlüsse auf die Qualität von FSR auf AMD oder NV Karten zu ziehen, was absoluter Quatsch ist. Diesen Vergleich kann man nur machen wenn beide Karten mit derselben FSR Qualitätsstufe nebeneinander gehalten werden...
 
Ich besitze aber keine AMD GPU? Ich will dass das Nvidia kann ab geforce10, von mir aus mit nem Umweg über andere Tools. Und nein glaub nich dass das was du da sagst das ist was ich meine. Außerdem ist das schon wieder nur auf ein Spiel von 100 limitiert. Also nur ein preset wo Fidel existiert, ich sagte doch ich will das global für alles.

Dann ist das Bild unscharf auf einem 4k Monitor leider.
Gut dass du eine NV Karte nutzt kann ich ja nicht riechen, es ist wie gesagt Global nutzbar bei AMD in jedem Titel indem man diese drei Dinge nutzt im Treiber, eigentlich ganz simple.
Screenshot (745).png
Screenshot (746).png
Screenshot (747).png


Für 4k dann 1800p(Via VSR) mit Sharpener 20-60% je nach Gusto und GPU Skalierung aktivieren. Fertig. Die Sapphire Karten nutzen das Ganze auch dynamisch angepasst an die Bildrate via Trixx.

ist so ca. 90% des Gaming Markts abgedeckt,
Ja klar, mindestens :rollen:
 
Und Du hast offensichtlich nicht verstanden dass hier zwei verschieden Qualitätsstufen miteinander verglichen werden um Rückschlüsse auf die Qualität von FSR auf AMD oder NV Karten zu ziehen, was absoluter Quatsch ist. Diesen Vergleich kann man nur machen wenn beide Karten mit derselben FSR Qualitätsstufe nebeneinander gehalten werden...
Doch, hab ich verstanden.
Allerdings wird AMD sicher nicht absichtlich eine Stufe runter gehen, nur damit man die Bilder der 1060 vergleichen kann.
Und AMD konnte wahrscheinlich die 1060 nicht auf der hohen Stufe laufen lassen, eben weil das Wissen um die Architektur fehlt - Und dazu dann auch wahrscheinlich auf der gewählten Stufe schlechter aussieht, als auf AMD Karten, weil ... siehe oben.
 
Für 4k dann 1800p(Via VSR) mit Sharpener 20-60% je nach Gusto und GPU Skalierung aktivieren. Fertig. Die Sapphire Karten nutzen das Ganze auch dynamisch angepasst an die Bildrate via Trixx.

Wie hoch ist denn dann die Ersparniss ggü nativen 2160p mit deinem Setting?
Sehr cool das die Sapphire Karten das via Trixx sogar dynamisch anpassen :daumen:
Liegt das am Tool oder funktioniert das theoretisch auch mit Msi Karten und co?
Habe nie Trixx verwendet daher die Frage.
 
Wie hoch ist denn dann die Ersparniss ggü nativen 2160p mit deinem Setting?
Sehr cool das die Sapphire Karten das via Trixx sogar dynamisch anpassen :daumen:
Liegt das am Tool oder funktioniert das theoretisch auch mit Msi Karten und co?
Habe nie Trixx verwendet daher die Frage.
Die Trixx Software funzt mit allen AMD Karten. Die einsparung bleibt erhalten wie wenn man die Auflösung reduziert, 1800 ist halt ein sehr guter Kompromiss aus Leistung und Bildqualität an einem UHD Panel. Bei den Leistungswerten kannst du dich grob dann an den PCGH Benchmarks in UWQHD orientieren, das ist in etwa die selbe Pixelanzahl. Aber auch am QHD Panel nutze ich 1800p fast durchgängig zum downsamplen.
 
Ja klar, mindestens :rollen:
Allein UE + Unity bilden schon den Großteil der Indie-Titel ab, dazu so einige Triple A's. Zähl doch mal oft genutzte Engines ohne kommenden DLSS Support auf, ich bin gespannt.

Doch, hab ich verstanden.
Allerdings wird AMD sicher nicht absichtlich eine Stufe runter gehen, nur damit man die Bilder der 1060 vergleichen kann.
Und AMD konnte wahrscheinlich die 1060 nicht auf der hohen Stufe laufen lassen, eben weil das Wissen um die Architektur fehlt - Und dazu dann auch wahrscheinlich auf der gewählten Stufe schlechter aussieht, als auf AMD Karten, weil ... siehe oben.
Konnte wahrscheinlich? Also wenn deren Lösung auf allen Karten läuft, wie angekündigt, warum dann nicht in allen Stufen? Wurde nirgends erwähnt. Meine Vermutungen:
1. Man wollte dass die 6800XT Demo besser aussieht. Das macht jeder Hersteller so.
2. Auf der 1060 wäre Godfall mit Ultra Quality unter 30 FPS gelandet, das wollte man so auch nicht zeigen. Deswegen hat man Quality genommen.
 
Deine Meinung ist für mich Schmutz!

Das Bild da ist von einer 1060. Das Ergebnis auf einem Konkurrenzprodukt. Zeig mir mal Vergleichsbilder von DLSS auf der 1060, oder Vega. Ach warte...
Alles was AMD hier zeigt ist mehr als Nvidia auf Pascal releast hat. Was hältst du denn von den Vergleichsbildern von den AMD eigenen Karten? Beantworte mal erst diese Frage, dann denk nochmal nach wie DLSS 1.0 ausgesehen hat und dann überleg mal was du hier für Murks fabrizierst.
AMD wirbt aber damit das dieses Feature auch auf Konkurrenzkarten läuft. Offensichtlich aber so schlecht, das es keinen Mehrwert zu einer reduzierten Auflösung bietet. Sieht man im Video sehr schön. 1060 = Matsch. Vielleicht ist es noch nicht ausgereift, wobei ich mich dann aber frage wieso sie es schon zeigen.

Kritisieren kann man das schon finde ich, vor allem nach der ewig langen Wartezeit. Und DLSS 1.0 sah definitiv schon besser aus als das was wir da im Video von der 1060 sehen, jedenfalls in meiner Erinnerung. Hab Metro damals damit gezockt.
 
Allein UE + Unity bilden schon den Großteil der Indie-Titel ab, dazu so einige Triple A's. Zähl doch mal oft genutzte Engines ohne kommenden DLSS Support auf, ich bin gespannt.
Wozu? Nach der Logik müsste der Open Source Ansatz 100% abdecken. Ich hab generell wenig Zweifel das DLSS sich ganz ordentlich verbreiten wird kurzfristig, stellt sich die Frage ob die Entwickler auf Dauer Lust haben diese ganze Fragmentierung durch die bekloppten GPU Hersteller mitzumachen in gleich 10 Bereichen. Da wird sich am Ende durchsetzen was sich lohnt, was das sein wird wird man sehen auf Dauer, der Prozess ist ja durchaus dynamisch und ständig kommt ne neue Sau um die Ecke die durchs Dorf getrieben werden will.
 
Also ich hab das Video gerade nochmal in 1080p und 4k geschaut und beim 1080p Video sind richtige Fragmente und üble Bildrisse zu sehen, während die beim 4K Video fehlen. Da ist alles einfach nur etwas unscharf.
Eventuell sollten das einige hier auch mal in Erwägung ziehen statt sich nur auf eine Version vom Video zu beziehen.
 
Wer den AMD Chip verstehen will, muss sich Zeit nehmen die PS5 und Series X zu verstehen.

(1) Raytracing kostet viele Millisekunden pro Frame und sollte überlegt eingesetzt werden. Die Konsolen können damit nicht so wuchern wie eine 3090, aber die meisten PC Spieler haben es jetzt auch nicht so dicke.
(2) 4k ist weiter hochskaliertes 1440p, auch wegen Raytracing, aber wegen den fps allgemein. Man darf auch hier nicht warten bis jedes Studio dieses Problem löst, sondern rollt schon mit der Konsole eine fertige Lösung an die Entwickler aus. In dem Fall FSR und klar es war verspätet. Corona hat Softwareproduktion härter getroffen als Hardwareproduktion.
(3) Grafikbibliotheken wie Quixel sind jetzt schon der DeFakto Standard und die fressen RAM wie blöd, wenn der Entwickler das nicht nacharbeitet. Das bisschen Wüste in der UE5 Demo waren fast 7GB und die weiße Blende als man auf die dunkle Seite gewechselt ist, war einer dieser neuen Ladebildschirme wo in einer Sekunde alles nachgeladen wird. Bevor PS5 Fans jetzt einen Kraken-Ständer bekommen, Sorry, auf einer 3080 oder 3090 ist das auch nur eine Ladezeit von 1s. Wo die GPU der PS5 von SSD mit 9GB/s nachladen muss, saugt sich das die GPU im PC entspannt aus dem DDR4 RAM (20GB RAM Auslastung für die Demo btw).
(4) KI ist die Zukunft, weil man damit massiv Rechenzeit sparen kann und trotzdem Resultate produziert, die ein Mensch jetzt nicht von einer Berechnung auf 32 Nachkommastellen unterscheiden kann. Nvidia demonstriert das ganz gut mit DLSS und Hochskalieren. Noch mehr Zeit spart man aber mit der Spielephysik, Partikelinteraktionen, Animation-Blending, der NPC-KI, oder der Simulation einer komplexen Welt (z.B. Wirtschaftssimulation). Wenn es so aussieht als würde AMD es absichtlich vermeiden FSR über Machine- oder Deep-Learning abzubilden, dann weil das so ist.

Was aktuell mit Nvidia, DLSS und RTX passiert, ist schon einmal passiert. Auch da hat Nvidia massiv OpenGL gepusht, weil DirectX einfach nicht so weit war und von den Grafikfeatures noch nicht mithalten konnte. Ergebnis; Nvidia plus OpenGL war heißestes Exkrement. Diese Phase erleben wir jetzt wieder. Während dieser Phase wird Nvidia sehr gut positioniert sein aus technologischer Sicht. Ob sie das mit Presigestaltung und Verfügbarkeit auch in einen langfristig guten Ruf bezüglich dieser Themen ausbauen können steht auf einem anderen Blatt. Aber es ist genau diesen Ruf den AMD attackiert, wenn sie auf der 1060 etwas demonstrieren, das Nvidia sich geweigert hat dort zu bringen. Damit ist nicht DLSS im spezifischen gemeint, sondern halt eine brauchbare Lösung zur Bildskalierung.

Aber mit jedem Triple-A Spiel das für Sony und Microsoft entwickelt wird, dreht sich der Wind wieder Richtung Direct X Implementierungen und weg von Nvidia spezifischen Lösungen.

Wie immer gilt für alle: erst liefern, dann angeben und bei ersterem hakt es gewaltig. An der Vega56 haben wir ja gesehen was Nvidia droht. Die Vega56 war absolut kompetitiv genug im Vergleich zur 1070, aber wenn die Miner den ganzen Bestand wegkaufen ( in dem Fall die V56), dann spricht keiner mehr über AMD, weil jeder die verfügbare Nvidia gekauft hat. Das ist der Abgrund auf den Nvidia mit dieser Generation zurast. Auf dem Papier gut, aber nix beim Kunden angekommen und die Miner sind bald wieder verschwunden. Hat AMD die Kapazität das im zweiten halben Jahr zu nutzen? Bei Nvidia hat sich sicherlich 5 Monate rein nix getan. Weiterhin alles Out of Stock.
 
Zurück