Fidelity FX Super Resolution: 44 Studios mit dabei, Support für Far Cry 6, Resident Evil Village und Anno 1800

Durch einen offenen Standard möglicherweise, aber durch FSR in seiner jetzigen Form?

Mit einem Spatial Upscaler kann man, egal wie gut der Algorithmus ist, nie die Qualität erreichen, die man mit DLSS erreichen kann. AMD wird nicht drum rum kommen, in Zukunft ebenfalls auf eine ML Lösung mit eigener Hardware als Voraussetzung zu setzen, wodurch sich über kurz oder lang hoffentlich ein Standard etabliert, den AMD und Nvidia (und Intel) per Hardware beschleunigen können
 
Ich sage doch gar nichts anderes? Ich relativiere nur Aussagen hier im Thread in denen behauptet wird dass FSR sich quasi unverzüglich schneller verbreiten wird als DLSS. Das ist nun mal unrealistisch.


Siehe oben, schau mal durch den Thread, die FSR-Fans warten auch nicht bis zum Release mit ihren wilden Behauptungen.
So weit weg von objektiv wie gerade, warst du schon länger nicht mehr.
In wie vielen Engines war DLSS zu release der allerersten Version vertreten und wie groß war die Anzahl nach sagen wir einem halben Jahr? Genau! Wenn FSR jetzt in mehr als drei Engines auftaucht, dann hat es sich doch vom Fleck weg schon schneller verbreitet.

Was die andere Aussage angeht, bist du ganz alleine verantwortlich. Du weißt sehr wohl Fass chatstar Nur Spaß macht und dass man das nicht für bare Münze nehmen sollte. Du weißt das, machst es aber dennoch, bewusst. DU provozierst diese Diskussion ständig selbst und stänkerst. Das betrifft die Tatsache dass du immer wieder irgendwelche pro DLSS Parolen schreibst, unter dem Vorwand ja nur der anderen Seite Gegenargumente zu liefern (obwohl die noch gar nichts gegen DLSS in diesem Thema gesagt hatten) ebenso wie die Tatsache dass du von Ton her manchmal bewusst abfällig sprichst. In ganzen Thread hatte beispielsweise niemand einen Grabenkrieg angedeutet, aber dann kamst du mit "die von Team Red". Warum? Warum diese Schubladen? Warum eine Reaktion auf Sprüche die on anderen threads waren und hier noch gar nicht vorgekommen?
Ich hab durchaus mitbekommen wie du in diese Haltung hineingewachsen bist und zu Beginn auch vollkommen zu Recht. Mir inzwischen schießt du schneller als dein eigener Schatten und nimmst threads gar nicht mehr als friedlich wahr. Freut dich doch wenn die Gemüter sich beruhigt haben und die User eventuell dazugelernt. Ist ein thread noch ruhig und entspannt, dann muss man nicht künstlich die Ellenbogen hoch reißen und im voraus schießen um etwas einzudämmen was gar nicht da ist.

Von einem Spruch fühle ich mich beispielsweise direkt angegriffen. Du schreibst dass User wegen ein paar Kleinigkeiten eine ganze Technik einfach verteufeln würden. Wer denn? Ich beispielsweise hatte in zwei Jahren, drei rtx Karten der Oberklasse und habe es in mehreren spielen getestet und für mich als nicht gut genug, aber dennoch eine gute Technik befunden.
Dieses Argument der Kleinigkeiten ist von mir, der Rest aber deine Übertreibung. Frei erfunden. Oder wer hat dir gegenüber noch DLSS deswegen in den Wind geschossen? Ich hab die meisten threads verfolgt und mir wäre sonst kaum einer bekannt. Zwei vielleicht drei. Jedoch hat jeder von denen auch positives über diese Technik geäußert, kann also nicht gemeint sein. Das ist wieder etwas, wo du inzwischen schwärzer als schwarz siehst und das unbegründet.

Bitte bleib sachlich und objektiv wie zu Beginn hier im Forum. Gut achtzig Prozent deiner Inhalte sind dies und bereichern die Diskussionen, aber die andern zwanzig Prozent... sind mMn unsachlich und unnötig provokant.

Beispiel: "...die fsr fans..." Ja wo denn? Du schreibst man solle im thread schauen. Hab ich. Außer dem Beitrag von chatstar (hab ich schon was zu getippt) , in dem er sagt dass er meint fsr wird so, habe ich absolut nichts gefunden was auf "fsr fan" schließen lässt. Dennoch ist das deine Begründung für dein Verhalten. Das ist ne ganz bescheidene Ausrede.

Edit
Falls sich das irgendwie streng liest, so ist es nicht gemeint. Eher wie ein freundlicher Hinweis. Ich wollte das nur mal loswerden.

@Chatstar
Jetzt Stachel ihn nicht unnötig an. Ich vermute du hast deinen Spaß dabei und er springt ja auch jedes Mal wieder darauf an, aber der Diskussion hilft das kein bischen weiter.

Zum Thema
Gibt es inzwischen eigentlich richtige, hochauflösende Bilder von AMD dazu, oder nur Screenshots aus der YouTube Präsentation? Weil letzteres kann wohl kaum Ausgangslage für Begriffe wie "Matsch" von manchen Usern sein, oder?
 
@Chatstar
Jetzt Stachel ihn nicht unnötig an. Ich vermute du hast deinen Spaß dabei und er springt ja auch jedes Mal wieder darauf an, aber der Diskussion hilft das kein bischen weiter.
Die Debatte ist doch sowieso schon kaputt getrollt. Ich erwarte mir nicht viel von der Technik, allgemein bin ich kein Freund von Upscaling, aber man kann ja nun wirklich einfach mal den Relase abwarten damit man eine Grundlage hat wenn man schon was trollen will, das gilt für beide Seiten.

Die Grundsätzliche verfügbarkeit sieht auf den ersten Blick gut aus, was man von Begriffen wie coming soon halten kann haben wir bei DLSS auch schon öfter gesehen, das kann morgen sein, in 6 Monaten oder niemals.
 
ich brauch auch kein 4k oder gar schon 8k, mir reicht 1080p völlig.....
so und nun macht mich schlecht dafür wie ich das so sehe und das ich 'nur' in 1080p spiele ;-) ....
Ich spiele auch in 1080p und dabei bleibe ich noch länger.
Es ist mir einfach noch zu teuer in höhere Auflösungen zu investieren.
Deswegen finde ich solche Lösungen wie FSR und DLSS eben gut.
 
Das klingt vernünftig.

Das "coming soon", worauf beziehst du das? Auf die Unterstützung, also die Liste der Engines? Weil, ein releasedatum für FFX:SR haben wir ja. Das ist der 22.06.
Ich selbst gehe auch davon aus, dass die meisten dieser Studios erst in den nächsten Monaten mit der Integration fertig sein werden, aber wer weiß... vielleicht werden wir ja positiv überrascht.

Edit
@RyzA
Das liest sich mMn so als hättest du eine falsche Vorstellung von FFX:SR. DLSS mach (extrem vereinfacht) aus einer noch kleineren Auflösung ein höher aufgelöstes mit Infos aus einem sehr viel höher aufgelöstem.
FFX:SR hingegen macht aus einem niedriger aufgelösten Bildinhalt ein höher aufgelöstes (deine native Auflösung), versucht dabei vermutlich eine Rekonstruktion der Bildinhalte, was Stand jetzt aber verlustbehaftet scheint und gibt es aus.
Du wirst mMn mit DLSS besser fahren. Einfach weil du stellenweise eine Steigerung der Bildqualität bei mehr fps bekommen kannst. Bei FFX:SR sieht es aktuell nicht nach steigern der Bildqualität aus und deine Auflösung ist ja so schon niedrig. Allerdings hast du auch hier die fps Steigerung.

@geist4711
Denkst du wirklich dass dich jemand angeht, nur weil du in 1080p spielst? Wie kommst du darauf?
 
Zuletzt bearbeitet:
Zum Thema
Gibt es inzwischen eigentlich richtige, hochauflösende Bilder von AMD dazu, oder nur Screenshots aus der YouTube Präsentation? Weil letzteres kann wohl kaum Ausgangslage für Begriffe wie "Matsch" von manchen Usern sein, oder?
Wieso nicht? Es ist ja nicht so als würde youtube nur die Bitrate der rechten Bildhälfte verringern.
Wir sehen also etwas matsch(links) gegen sehr viel matsch(rechts) und dadurch wirkt es eher noch so als wäre der unterschied kleiner als er nachher am Bildschirm sein wird
 
seit wieviel jahren gibt es DLSS?
ca. 2 jahre?

darf AMD mit seinem FSR dann bitte auch soviel zeit eingeräumt werden um sich bei den engines zu etablieren?!

DLSS war schlieslich auch nicht gleich zum start überall vertreten, aber bei FSR wird dann so getan als müsste das so sein.
Also ist das die Einsicht, dass AMD mit FSR knapp zweieinhalb Jahre im Bereich Upscaling hinterherhinkt und es, wenn überhaupt gerade mal an DLSS1.0 rankkommt? Oder wie muss man die Aussage jetzt deuten? Ist doch deren Problem, dass die Nvidias neue Technologie belächelt und ignoriert und weiterhin alles auf Rasterization gesetzt haben. Jetzt wird man DLSS in den nächsten paar Jahren erstmal ordentlich hinterherlaufen, während Nvidia DLSS mit jeder verkauften RTX-Karte weiter pusht.

Wieso nicht? Es ist ja nicht so als würde youtube nur die Bitrate der rechten Bildhälfte verringern.
Wir sehen also etwas matsch(links) gegen sehr viel matsch(rechts) und dadurch wirkt es eher noch so als wäre der unterschied kleiner als er nachher am Bildschirm sein wird
Ja genau. Es ist zwar ein Youtube-Screenshot, aber da beide Bildhälften von der selben Kompression beeinflusst werden, wird es wieder vergleichbar. Sieht hier doch auch wirklich ein Blinder, dass das native Bild scharf und detailreich ist, während das FSR Ultra-Quality matschig wird und Details verliert. Und wenn die Demo schon von AMD kommt, dann wird man FSR mit etwas gemeinem Cherrypicking schon ziemlich bloßstellen können. Anders herum wird es schon schwierig.
 
Genau das! Es kommt von AMD selbst. Vermutlich übertreibe ich nicht wenn ich behaupte, keiner von uns hier hätte freiwillig sowas wie das 1060er Video präsentiert, oder? Dennoch taten sie es. AMD scheint eben nicht sonderlich darauf bedacht nur positive publicity zu bekommen. Die machen manchmal Dinge, da fässt man sich vorn Kopp.

Zu "wenn überhaupt an DLSS 1.0 rankommt?" muss ich sagen, ich denke schon. Schau dir mal den Test von Metro Exodus damals an. Da sind schon wenige Meter vor dem Spieler alle Objekte verwaschen die nicht mittig im Sichtfeld liegen, selbst auf Screenshots, ohne Bewegung. In Bewegung war das richtig übel. Wenn FFX:SR das im Video gezeigte erreicht, haben sie DLSS 1.0 zumindest in Bewegung schon passiert.
Deine Cherrypicking Aussage wird aber wohl dennoch passen. Warum auch nicht. Man kann alles kaputtstellen. Nehmen wir das Beispiel Metro mit DLSS 1.0. Einmal stehen bleiben, kurz warten, dann schnell umdrehen und sofort einen shot machen. Was hat man dann? Suppe. Als würde man durch sehr dichten Pudding gucken. Ich hoffe wir sehen hier auf PCGH wirklich ordentliche Vergleiche, also auch in Bewegung) und auf Youtube nicht ausschließlich von fans verbockten Mumpitz.
 
Naja andersherum ist DLSS1.0 heutzutage eh tot, da braucht man also eigentlich gar nicht mehr schauen. Man sollte schon die aktuellste Version von DLSS als Vergleich heranziehen, also mindestens DLSS2.0 oder mittlerweile sogar DLSS2.2.

 
Zuletzt bearbeitet:
seit wieviel jahren gibt es DLSS?
ca. 2 jahre?

darf AMD mit seinem FSR dann bitte auch soviel zeit eingeräumt werden um sich bei den engines zu etablieren?!
Warum? Du warst doch immer ganz vorne mit dabei die DLSS mit Mistgabeln und Fackeln durchs Forum getrieben haben.
Was ist jetzt anders?
übrigens, DLSS ist doch nur so wichtig, weil zb RT und die normale render-leistung nicht genügen heutzutage um dieses bei spielen vollumfänglich als 'vollbild' zu 'rendern'.
Welchen Zweck hat AMDs FSR gleich nochmal?
dazu noch, was für wahnsinnspreise dafür verlangt wird, das man sich solche eigentlich ja beschämende technik kaufen soll.
Da kannst Du ja froh sein, dass Du solch eine beschämende Technik nicht nutzen kannst.
Dieses Teufelszeug FSR lehnts Du dann auch mit einer solchen Inbrunst ab?
 
Zuletzt bearbeitet:
So weit weg von objektiv wie gerade, warst du schon länger nicht mehr.
In wie vielen Engines war DLSS zu release der allerersten Version vertreten und wie groß war die Anzahl nach sagen wir einem halben Jahr? Genau! Wenn FSR jetzt in mehr als drei Engines auftaucht, dann hat es sich doch vom Fleck weg schon schneller verbreitet.
Nein, hat es nicht. Da muss man dann nämlich den Zeitraum seit DLSS Release abziehen, so lange hatte AMD Zeit sich darum zu kümmern.

Von einem Spruch fühle ich mich beispielsweise direkt angegriffen. Du schreibst dass User wegen ein paar Kleinigkeiten eine ganze Technik einfach verteufeln würden. Wer denn?
Geist zum Beispiel, gibt noch diverse andere hier im Forum. Hab jetzt aber weder Zeit noch Lust da was zusammen zu suchen.

Bitte bleib sachlich und objektiv wie zu Beginn hier im Forum. Gut achtzig Prozent deiner Inhalte sind dies und bereichern die Diskussionen, aber die andern zwanzig Prozent... sind mMn unsachlich und unnötig provokant.
Da gebe ich Dir recht, ich bin halt ein kleines HB-Männchen. Ist manchmal schwer zu kontrollieren. :ugly:

Zum Thema
Gibt es inzwischen eigentlich richtige, hochauflösende Bilder von AMD dazu, oder nur Screenshots aus der YouTube Präsentation? Weil letzteres kann wohl kaum Ausgangslage für Begriffe wie "Matsch" von manchen Usern sein, oder?
Sind ja nur noch 3 Tage, dann bekommen wir was zu sehen. Wundern tut es mich aber auch ein wenig dass es rein garnichts in Richtung 4K Screenshots zu sehen gibt.
 
Zum Thema
Gibt es inzwischen eigentlich richtige, hochauflösende Bilder von AMD dazu, oder nur Screenshots aus der YouTube Präsentation? Weil letzteres kann wohl kaum Ausgangslage für Begriffe wie "Matsch" von manchen Usern sein, oder?
Es geht hier um das offizielle Material, welches von von AMD bereitgestellt wurde.

Die User sind aufgeregt, weil ein matschiges Video normalerweise zum Vorteil bei einem solchen Vergleichstest, wo mit der Lupe Pixel und Details verglichen werden, da es das Video der nativen Auflösung qualitativ herunterzieht.

Die Verluste im Video spielen also eher für als gegen FSR. Und da selbst dort im Video von AMD ein deutlicher Qualitätsabfall zu verzeichnen ist, bleiben viele User skeptisch.
 
Warum? Du warst doch immer ganz vorne mit dabei die DLSS mit Mistgabeln und Fackeln durchs Forum getrieben haben.
Was ist jetzt anders?

Welchen Zweck hat AMDs FSR gleich nochmal?

Da kannst Du ja froh sein, dass Du solch eine beschämende Technik nicht nutzen kannst.
Dieses Teufelszeug FSR lehnts Du dann auch mit einer solchen Inbrunst ab?

ich bin auch heute noch der meinung das man auch ohne DLSS gut zurecht käme, wenn man die technische weiterentwicklung statt auf DLSS, sich mehr dem rendering und RT gewidmet hätte.
wenn nämlich die render- und RT-leistung ausreicht, braucht es weder ein FSR noch ein DLSS.
wobei RT nochimmer in den kinderschuhen steckt, jedenfalls von dessen rechenleistung her. das ist erst ausgereift wenn man ohne probleme RT für den ganzen bildinhalt nutzen kann, nicht nur für bestimmte bereiche oder wie das derzeit gemacht wird, quasie wenn es 'vollbild' funktioniert.
und, wenn schon denn bitte als 'frei verfügbar' und nicht nur für 'hauseigene hardware', also den ansatz gehen wie AMD das tut.
Denkst du wirklich dass dich jemand angeht, nur weil du in 1080p spielst? Wie kommst du darauf?
ich erinnere mich gut an ausprüche wo man quasie mitleidig meine dann soll ich eben auf 4k gehen oder sinnfreie diskusionen ob 4k nicht viel schärfer sei, auch wenn man die einzelpixel schon bei 1080p aus entsprechendem abstand(hier minimum 1m) nichtmehr heraussehen kann und also ein noch feinerere auflösung nix bringt, weil ob ich jetzt einen pixel nicht einzeln heraussehen kann oder einen 4er-block spielt keine rolle, ich sehe es nicht heraus.....
kann allerdings sein das das evtl nicht auschliesslich nur hier im forum war.

achja, ich fände es immernoch besser ein spiel in 4k zu INTERN rendern und dann für die bildausgabe auf 1080p zb herunter zu skallieren, statt ein DLSS oder sonstwas drüber laufen zu lassen :-) weil wenn zb NV mal die rechenserver abstellt hat man garnichts mehr aber downscalling würde dann immernoch funktionieren.....
 
ich bin auch heute noch der meinung das man auch ohne DLSS gut zurecht käme, wenn man die technische weiterentwicklung statt auf DLSS, sich mehr dem rendering und RT gewidmet hätte.
wenn nämlich die render- und RT-leistung ausreicht, braucht es weder ein FSR noch ein DLSS.
Dann musst du mir aber plausibel erklären warum so viele Engine hauseigene Upscaling-Techniken einsetzen? Warum wurde bei Sony mit AMD zusammen Checkerboard-Rendering vorangebracht?
Weshalb arbeiten Engine Heutzutage immer mehr dynamisch und passen Inhalte ja nach V-Ram Bedarf an. Auch Trick damit Leistung nicht einbricht. Nur dass Jemand mit zuwenig V-Ram vielleicht auch Ultra-Einstellung gewählt hat und weniger Objekte sieht als Person B mit genügend V-Ram. Er bekommt es aber ohne 1:1 Vergleich gar nicht mit.
Gibt Spiele wie Gears oder Forza Teile die können sogar sämtliche Grafikeinstellungen dynamisch anpassen je nach Auslastung der Szene.

Warum gibt es sollte dynamischen Sachen wenn doch Rechenleistung für native Darstellung immer ausreicht? Sind jetzt alle Entwickler unfähig oder will seine Software möglichst gut lauffähig auf breite Anzahl von Hardware bekommen ohne alles mit Hardwaeepower zu erschlagen?
Denn die Leute die hier im Forum innerhalb 2-3 Jahre 3 RTX oder AMD Karten durch haben sind eher Mindrrhrit als breite Massenmarkt.
Für Letztere helfen Upscaling-Techniken Karten auch mal länger zu benutzen und nicht alle 1-2 zu ersetzen.

Selbst mit 2070, 2080(ti) muss man mit guten DLSS 2.0 (jetzt dann 2.2) nicht unbedingt zu 3080 oder gar 3090 schielen. Nur damit man bei Nativ vs DLSS 10-15% besseres Bild hat wenn man rumsteht und ganz genau hin sieht.
Gleiche gilt dann auch wenn FX SR dann vernünftig funktioniert.
Optik und Performance mit der man länger auskommt ohne gleich immer Aufrüsten zu müssen.
Gerade die Konsolen die bis zu 6-7 Jahre am Markt sind profitieren davon. Die darf man nicht vergessen weil sie zum Gamingmarkt gehören auch wenn der "ich kauf alle 2 Jahre Top High End GPU" Käufer das gern anders hätte.
 
Die Verluste im Video spielen also eher für als gegen FSR. Und da selbst dort im Video von AMD ein deutlicher Qualitätsabfall zu verzeichnen ist, bleiben viele User skeptisch.

Man könnte es ihnen ja zugute halten, dass sie hier nicht tricksen und wirklich die Qualität von FSR darstellen, die eben nicht so toll ist.
Aber wenn Scott dann während diese Bilder gezeigt werden, auf der Bühne von "ultrascharfen Kanten und Bilddetails" spricht, frage ich mich schon, ob er vielleicht geglaubt hat, dass die Bilder nicht als direkter Screen-Capture im Stream übertragen werden, sondern nur von den dort Anwesenden aus 20 Metern Entfernung über die Leinwand gesehen werden konnten.
ich bin auch heute noch der meinung das man auch ohne DLSS gut zurecht käme, wenn man die technische weiterentwicklung statt auf DLSS, sich mehr dem rendering und RT gewidmet hätte.
wenn nämlich die render- und RT-leistung ausreicht, braucht es weder ein FSR noch ein DLSS.
Das ist ja durchaus ein Wunsch, den man haben kann, aber es ist nun mal keine realistische Vorstellung.
Um RT weiter zu bringen(sowie auch alle anderen Arten von besseren Effekten), reicht der reine Fortschritt in der Hardware einfach nicht (mehr) aus, es muss zwingend auch die Software so gestaltet werden, dass man aus der vorhandenen Hardware immer mehr rausholen kann.

Wozu wird denn in Spielen z.B. überhaupt nur noch das aktuelle Sichtfeld voll berechnet? Oder bei Objekten, die hunderte Meter weit weg sind, die Detailstufe verringert?
Man könnte ja auch immer die ganze Szene voll berechnen, wenn die Hardware stark genug wäre.
Es macht nur keinen Sinn, die Hardware mit sowas zu belasten, wenn man es über die Software auch effizienzer geregelt bekommt.


Das gleiche gilt für DLSS, wozu die Rechenleistung für native 4K Darstellung verbrauchen, wenn man über die Software auch mit 1440p auf eine zu 99% identische Qualität kommen kann? Klar hier und da gibt es noch ein paar Fehler, aber die Entwicklung hört hier ja nicht auf.

Ich bin überzeugt, in nicht allzu ferner Zukunft wird man DLSS odervergleichbare Techniken gar nicht mehr an- oder abwählen können und es wird diese "nativen" Auflösungen von heute nicht mehr geben(welche ja heute sowieso streng genommen bereits weit weg von "nativ" sind). Wenn man 4K im Spiel einstellt, wird immer intern mit 1440p oder sogar niedriger gerendert, weil es zu diesem Zeitpunkt alle Karten können und das Ergebnis am Ende so aussieht, wie 4K eben aussieht.
 
Zuletzt bearbeitet:
ich bin auch heute noch der meinung das man auch ohne DLSS gut zurecht käme, wenn man die technische weiterentwicklung statt auf DLSS, sich mehr dem rendering und RT gewidmet hätte.
wenn nämlich die render- und RT-leistung ausreicht, braucht es weder ein FSR noch ein DLSS.
wobei RT nochimmer in den kinderschuhen steckt, jedenfalls von dessen rechenleistung her. das ist erst ausgereift wenn man ohne probleme RT für den ganzen bildinhalt nutzen kann, nicht nur für bestimmte bereiche oder wie das derzeit gemacht wird, quasie wenn es 'vollbild' funktioniert.
und, wenn schon denn bitte als 'frei verfügbar' und nicht nur für 'hauseigene hardware', also den ansatz gehen wie AMD das tut.

ich erinnere mich gut an ausprüche wo man quasie mitleidig meine dann soll ich eben auf 4k gehen oder sinnfreie diskusionen ob 4k nicht viel schärfer sei, auch wenn man die einzelpixel schon bei 1080p aus entsprechendem abstand(hier minimum 1m) nichtmehr heraussehen kann und also ein noch feinerere auflösung nix bringt, weil ob ich jetzt einen pixel nicht einzeln heraussehen kann oder einen 4er-block spielt keine rolle, ich sehe es nicht heraus.....
kann allerdings sein das das evtl nicht auschliesslich nur hier im forum war.

achja, ich fände es immernoch besser ein spiel in 4k zu INTERN rendern und dann für die bildausgabe auf 1080p zb herunter zu skallieren, statt ein DLSS oder sonstwas drüber laufen zu lassen :-) weil wenn zb NV mal die rechenserver abstellt hat man garnichts mehr aber downscalling würde dann immernoch funktionieren.....
Wenn die Hersteller so denken würden, dann hätte es nie eine Geforce256 inklusive der ersten T&L Einheit gegeben. Dadurch wurde unsere Grafik von heute erst möglich, die Anfänge sind im Vergleich zur heutigen Leistung natürlich ein Witz. Genau so wird es mit RT auch laufen.

Denk mal drüber nach was Du da sagst. RT erst einsetzen wenn die gesamte Szene damit berechnet werden kann!? Was wäre das bitte für ein Umbruch, keine Engine würde das überhaupt unterstützen, so eine Karte würde dementsprechend überhaupt keinen Sinn ergeben. Ein langsamer Wechsel mit Hybrid-Ansätzen ist da viel sinnvoller. Siehe z.B. die 32-64bit Umstellung vor einigen Jahren, die läuft immernoch.
 
Glaubt da etwa immer noch jemand, dass man bei Nutzung von DLSS 2.X konstant mit Nvidias Servern in Verbindung steht, die einem das Bild aufpolieren?
Ja- Weil 99% der Skeptiker noch nicht begriffen haben, dass es das ursprüngliche DLSS so garnicht mehr gibt und dass da auch nichts mehr gegen das Originalmaterial trainiert wird...

Das gesamte Konzept der Technik ist offenbar auch zu hoch für diejenigen, die sich damit nur oberflächlich beschäftigen.

Problem daran ist, dass dadurch oft ganz schön massiver Blödsinn in den Foren verbreitet wird.
 
Das gesamte Konzept der Technik ist offenbar auch zu hoch für diejenigen, die sich damit nur oberflächlich beschäftigen.
Dabei finde ich das Konzept von DLSS 2.X eigentlich viel simpler zu erklären als die ursprüngliche Variante. Und ich bin auch nur jemand, der sich damit sehr oberflächlich beschäftigt.
 
Zurück