manimani89
Volt-Modder(in)
Tolles Marketing das ja komplett nach hinten los ging denn die Bilder wurden natürlich analysiertDie Dinger kommen von Marketingfolien und waren nie für Bildvergleiche gedacht.
Tolles Marketing das ja komplett nach hinten los ging denn die Bilder wurden natürlich analysiertDie Dinger kommen von Marketingfolien und waren nie für Bildvergleiche gedacht.
Das wird so kacke. ? dlss ist viel besser das ist doch nur checkerboard pc version. Was soll dem dabei auch rumkommen. Nvidia hat extra Einheiten dafür hätten sie diese auch für raster perf verwendet. Wäre die 3070 schneller wie die 6900.
Überleg mal für welches Publikum diese Präsentation gedacht war. Das waren nicht wir.Tolles Marketing das ja komplett nach hinten los ging denn die Bilder wurden natürlich analysiert
Ich habe voll den Geheimtipp: Spiele erst kaufen, wenn die Hardware dafür angeschafft worden ist.
Wer bei Beidem lange genug wartet, hat nicht nur weniger Geldsorgen.
AMD's Lösung ist keine "DL" Technik, das würde dann nämlich "deep-learning" inkludieren. Man weiss aber bereits dass FSR eine Kombination aus linearem / non-linearem Upscaling ist, ohne Einbeziehung von Bewegungsvektoren. Somit kann das eigentlich gar nicht besser werden als DLSS. Da müsste dann schon ein FDLSR entwickelt werden, und das kann AMD aktuell nicht leisten. Beim maschinellen Lernen ist NV ziemlich weit vorne dabei.und du hast deine tiefsinnigen infos woher?
genau, alles nur annahme oder deine eigene wissens-blase.
geh wieder spielen......
zum eigentlichen thema:
AMD's DLSS-technik wird nicht sofort gleichwertig oder gar besser als nv's DLSS werden,
so blauäugig sollte man nicht sein, das an zu nehmen.
nv hat ja auch nicht sofort geliefert, man denke nur an DLSS 1.0. das war grottigst.
lassen wir mal ein halbes jahr ins land gehen, nach veröffentlichung, nv hat ja auch schon 2 jahre zeit zum basteln gehabt.
achja, wieviel spiele gab es zu anfang bei nv? genau, es muss alles erstmal wachsen, der anfang ist gemacht.......
Das Video hier ist nicht für Gamer gedacht? Bitte wie? Es wird am Beispiel von Godfall gezeigt, und man sieht selbst mit der Youtube Kompression starke "Matschbildung" auf der FSR Seite (selbst im Ultra-Quality-Mode).Überleg mal für welches Publikum diese Präsentation gedacht war. Das waren nicht wir.
Davon ab gehe ich auch davon aus das uns AMD trollt. DLSS 1.0 zu untertreffen ist eigentlich kaum möglich. Selbst simples hoch skalieren war besser.
AMD verbaut für RT schon Ray-Accelerators. DLSS läuft aber auf den Tensor Cores, sind noch mal andere Spezial-Cores für Matrixmultiplikationen. Die muss man halt erst mal entwickeln und überhaupt nutzen können.Warum verbaut AMD nicht auch irgendwann einmal RT Cores oder wie auch imemr die bei NV heißen? Da muss man sich doch mal was überlegen?
Da ist noch gar nichts fest, weißt du überhaupt was linear und non linear in dem Kontext bedeutet?AMD's Lösung ist keine "DL" Technik, das würde dann nämlich "deep-learning" inkludieren. Man weiss aber bereits dass FSR eine Kombination aus linearem / non-linearem Upscaling ist, ohne Einbeziehung von Bewegungsvektoren. Somit kann das eigentlich gar nicht besser werden als DLSS. Da müsste dann schon ein FDLSR entwickelt werden, und das kann AMD aktuell nicht leisten. Beim maschinellen Lernen ist NV ziemlich weit vorne dabei.
Also, eine "starke Matschbildung" erkenne ich beim Ultra Quality-Mode nicht. Natürlich wird das Bild mit einer leichten Unschärfe zu kämpfen haben, was aber in der Natur der Sache liegt. Aber anhand des Videos würde ich sagen, dass der Ultra Quality Mode durchaus okay ist. Erst ab Quality geht es los, dass das Bild deutlich an Schärfe verliert.Das Video hier ist nicht für Gamer gedacht? Bitte wie? Es wird am Beispiel von Godfall gezeigt, und man sieht selbst mit der Youtube Kompression starke "Matschbildung" auf der FSR Seite (selbst im Ultra-Quality-Mode).
Eingebundener InhaltYoutubeAn dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
und trotzdem mit 4 fachen zoom wurde das schon getestet und das ergebnis war noch unter dlss 1.0 anzusiedeln und das ist das was auch realistisch ist denn auch dlss 1.0 arbeitete schon mit extra kernen nur zum gamechanger wurde es erst mit 2.0 und da steckt nvidia viel geld reinAlso, eine "starke Matschbildung" erkenne ich beim Ultra Quality-Mode nicht. Natürlich wird das Bild mit einer leichten Unschärfe zu kämpfen haben, was aber in der Natur der Sache liegt. Aber anhand des Videos würde ich sagen, dass der Ultra Quality Mode durchaus okay ist. Erst ab Quality geht es los, dass das Bild deutlich an Schärfe verl
Man sollte dabei auch alte Karten mit betrachten,generell hast du aber natürlich recht. Zum testen vom Bild ist Anno hingegen super geeignet,weil kein TAA und feine Details.Ist nur die Frage wie viel das bei Anno 1800 wirklich bringt. Solche Spiele liegen eher im CPU-Limit.
das stimmt aber dann mach ich mit einer 2060 dsr auf 4k und dann dlss rein und fertig. also bringen tuts immer wasIst nur die Frage wie viel das bei Anno 1800 wirklich bringt. Solche Spiele liegen eher im CPU-Limit.
ja ein game was mit einer gtx 1060 getestet wurde hat nichts mit gaming zu tun?^^Überleg mal für welches Publikum diese Präsentation gedacht war. Das waren nicht wir.
Davon ab gehe ich auch davon aus das uns AMD trollt. DLSS 1.0 zu untertreffen ist eigentlich kaum möglich. Selbst simples hoch skalieren war besser.
Mit 4-fachem Zoom wirkt das Ergebnis dann natürlich nicht mehr berauschend. Das liegt dann aber in der Natur der Sache. Aber ob das praxisnahe ist, ist eindeutig infrage zu stellen. Was interessiert es mich als User, wie das Bild 4-fach gezommed aussieht, wenn es in der Praxis am Ende passt und die Unterschiede vielleicht gar nicht so groß sind? Einfaches Checkerboard sah auf der PS4 Pro ja auch ziemlich passabel aus.und trotzdem mit 4 fachen zoom wurde das schon getestet und das ergebnis war noch unter dlss 1.0 anzusiedeln und das ist das was auch realistisch ist denn auch dlss 1.0 arbeitete schon mit extra kernen nur zum gamechanger wurde es erst mit 2.0 und da steckt nvidia viel geld rein
Anno 1800 ist auch dabei, es wäre schon genial, wenn das auch noch meiner GTX 670 2GB laufen würde. Für FC6 brauche ich sowieso GeForce Now.
Alternativ ein Monat GeForce Now.
der zoom ist eben das beispiel und auch bei entfernten objekten sichtbar. und da liegt dlss 2.0 weit vor nativ wenns um entfernte objekte wie zäune äste von bäumen oder sowas geht. und in diesem fall total verwaschen wo dlss einfach mal 4k nativ hinter sich lässt und das nicht zu wenigMit 4-fachem Zoom wirkt das Ergebnis dann natürlich nicht mehr berauschend. Das liegt dann aber in der Natur der Sache. Aber ob das praxisnahe ist, ist eindeutig infrage zu stellen. Was interessiert es mich als User, wie das Bild 4-fach gezommed aussieht, wenn es in der Praxis am Ende passt und die Unterschiede vielleicht gar nicht so groß sind? Einfaches Checkerboard sah auf der PS4 Pro ja auch ziemlich passabel aus.
Die Unschärfe ist auch bei DLSS deutlich sichtbar, je niedriger die Settings sind. Vor allem bei einer Auflösung von 1440p (wie im Video).
nvidia supportet keine 670er mehr nur mehr ab 900Das ist die Frage, in wie weit das da läuft.
Die Karte ist deutlich älter als eine RX400 (Polaris).
Dazu muss NVidia bei seinen Karten selbst für den Support sorgen.
nvidia supportet keine 670er mehr nur mehr ab 900
Mir fällt jetzt auf Anhieb auch nur ein einziges Beispiel dafür ein, dass DLSS selbst nativ 4K hinter sich lässt. Und das wäre Death Stranding.der zoom ist eben das beispiel und auch bei entfernten objekten sichtbar. und da liegt dlss 2.0 weit vor nativ wenns um entfernte objekte wie zäune äste von bäumen oder sowas geht. und in diesem fall total verwaschen wo dlss einfach mal 4k nativ hinter sich lässt und das nicht zu wenig