AMD "FSR 2.0": Next Generation Upscaling auf der GDC 2022

In einer der letzten PCGH war ein ausführlicher Bericht inkl. Screenshots zu DLSS...einerseits ist es lobenswert, wenn man mehr fps in Spielen bekommt, andererseits war anhand der Screenshot klar zu erkennen, die höhere Geschwindigkeit geht zu Lasten der Bildqualität.
Bei DLSS ist die genutzte Version sehr wichtig. 2.1.09 war z.B. für eine relative Unschärfe bekannt, mit 2.1.16 und 2.1.33 hatte ich keine Probleme. Oft kann man bei Techpowerup die aktuelle DLL-Datei herunterladen und im jeweiligen Spielverzeichnis ersetzen. Es kann sich lohnen verschiedene Versionen zu probieren.
In Cyberpunk ist der Gewinn durch Raytracing meines Erachtens größer als der Verlust durch DLSS und es ist nicht immer gleich gut implementiert.
Tipp:
Der Nachschärferegler kann hier im Treiber oder Spiel sehr viel bringen. Ich verwende gerne Werte zwischen 0.20 und 0.25.
 
Zuletzt bearbeitet:
"Ist halt DLSS rückwärts" und damit nur auf Karten mit Tensorkernen verfügbar. (Was wiederum heißt es läuft mit allen Grafikkarten die NV heute verkauft.)
Schade ist nach wie vor dass NV bei seinen DL Techniken nicht den selben Weg gegangen ist wie bei RT und sie zumindest prinzipiell auch auf den Altkarten freischaltet. So kann man zumindest weiterhin mutmaßen ob die auch ohne Tensorkerne eine Leistungs/Qualitätsverbesserung gegenüber den klassischen Umsetzungen bringen würden.
Also kein DSR Nachfolger, da völlig andere Voraussetzungen.
Weiterentwickelt wurde eben nicht Downsampling, es wurde nur mit anderer Technologie kombiniert.
Der Aussage möchte ich auch gar nicht widersprechen, das ist genau so gut (oder sogar wahrscheinlicher) möglich. Einen Einwand hatte ich vorallem zu der Aussage beim Downsampling würde sich nichts mehr tun, eben weil sich da gerade bemerkenswertes getan hat.
Ich finde nicht, dass sich da beim Downsampling etwas getan hat. Doensampling bleibt dasselbe, Herstellerunabhängig intern mehr Pixel berechnen.

DLDSR ist ein ganz eigenes Feature, mit eigenen Vor- und Nachteilen, mit eigenen Voraussetzungen.
Ich sehe da in der Anwendung wenig Gemeinsamkeiten. NV weiss sicher auch selbst, warum DLDSR eben nicht DSR im Treiber ersetzt hat sondern zusätzlich kommt.
Aber wir drehen uns im Kreis. DLDSR ist sicher spannend, für meinen Text hat es aber keine Rolle gespielt. Für die, die es wissen wollen wurde jetztja auch DLDSR ausführlich beschrieben.

Dass wir uns uneinig sind ob es als Downsampling oder als eigene Technologie zu sehen ist, finde ich nicht schlimm. Sehen wir halt anders, ist eh nur ne Frage der Perspektive. Das muss ich auch nicht weiter ausdiskutieren.
 
Ich sehe da in der Anwendung wenig Gemeinsamkeiten.
Wieso keine Gemeinsamkeiten?
Die grundlegende Gemeinsamkeit ist Anti-Aliasing.
Oder genauer: Supersamling-AA. Das kommt ja in beiden Fällen zum Einsatz.
Damit ist der Anwendungsbereich doch der selbe! Schärfere Texturen, schärfere Objekte, weniger Aliasing an feinen Details usw.

DSR hat halt das Problem, dass es enorm ressourcenhungrig ist;
DLDSR kann da Abhilfe schaffen, indem bei vergleichbarer Qualität mittels im Vergleich zu DSR niedrigerer interner Auflösung massiv Rechenleistung gespart wird; oder alternativ bei gleichen FPS höhere Qualität erreicht wird; oder eben ein Kompromiss dazwischen (die möglichen "Auflösungs-Steps" mal außen vor gelassen).

Keine Ahnung ob man es jetzt als Weiterentwicklung betrachten soll oder als Alternative, das ist ja eigentlich auch vollkommen schnurz.
Mir wäre so gesehen auf jeden Fall wichtig, dass auch das normale DSR erhalten bleibt, und sei es nur zu Vergleichszwecken oder falls man mit DLDSR Artefakte hat.
Und dass DLDSR und DLSS beide weiterentwickelt werden.

Mich hat DLDSR im Vergleich jedenfalls überzeugt. Bereits bei 2,25x war 4x DSR nur minimalst schärfer (bei wesentlich geringeren FPS!), und auch das eher Einbildungssache, man hätte es vertauschen können und ich hätte es wohl nicht gemerkt. Höhere DLDSR-Faktoren wären dann nochmal ne Ecke besser gewesen und wahrscheinlich gäbs da dann gar keinen Unteschied mehr, aber das ist IMO schon Overkill. ;)
 
Zuletzt bearbeitet:
Meine Güte, da erwähnt man einmal eine Technologie von einem Hersteller nicht weis einfach nicht wichtig war und hat hier gleich ne Riesendiskussion am Hals.
Ich bin raus.
 
Sorry, aber das passt nicht. Hier geht es um die AMD-Technologien und entsprechend hat AMD hier bzgl. nVidia-spezifischen Technologien auch nichts zu suchen.
Nope.
Es geht um Zugänglichkeit und der Möglichkeit, die eigene Software an die Features der Konkurrenz anpassen zu können.
Und da gibt es halt Open Source und Nvidias "Open Source" inklusive NDA und Ausschluss der Konkurrenz.
 
Als es noch mehr Konkurrenz gab und vor allem 3DFX der bestimmende Hersteller war, gehörte Jensen zu denen, die am lautesten nach offenen Standards und open Source verlangte...
Olle Kamellen aus der 3dfx-Zeit...
Im Fall von Raytracing, DLSS oder GSync war man Vorreiter und es ist klar, dass man diese Innovationen der Konkurrenz nicht schenken möchte.
Die Konkurrenz hat dann irgendwann nachgezogen und konnte es dann natürlich Open Source machen. Dadurch hat man dem Gegenspieler schließlich nichts mehr geschenkt - denn dieser hatte es ja schon. Es hatte also keinen Nachteil, sondern nur Vorteile (vor allem Sympathiewerte), es offen zu machen.
Hätte die Konkurrenz umgekehrt derlei neue Features zuerst am Markt gehabt und dafür viel Geld und Entwicklungszeit investiert, dann hätte man es dem Gegenspieler auch nicht einfach so überlassen.
Und das ist auch nicht verwerflich, denn klar möchte ein Hersteller seine Produkte auch vermarkten.
 
Olle Kamellen aus der 3dfx-Zeit...
Im Fall von Raytracing, DLSS oder GSync war man Vorreiter und es ist klar, dass man diese Innovationen der Konkurrenz nicht schenken möchte.
Die Konkurrenz hat dann irgendwann nachgezogen und konnte es dann natürlich Open Source machen. Dadurch hat man dem Gegenspieler schließlich nichts mehr geschenkt - denn dieser hatte es ja schon. Es hatte also keinen Nachteil, sondern nur Vorteile (vor allem Sympathiewerte), es offen zu machen.
Hätte die Konkurrenz umgekehrt derlei neue Features zuerst am Markt gehabt und dafür viel Geld und Entwicklungszeit investiert, dann hätte man es dem Gegenspieler auch nicht einfach so überlassen.
Und das ist auch nicht verwerflich, denn klar möchte ein Hersteller seine Produkte auch vermarkten.

1) Bei Raytracing ist Nvidia alles andere als ein Vorreiter... Uns wird seit 30 Jahren versprochen, dass wir jetzt endlich in Real time RT Zeiten leben... Tjoa... davon kann nicht mal in 1080p und mit DLSS Performance die Rede sein - es sei denn, man beschränkt sich auf Spiele, wie Quake 2.
Nach 4 Jahren RayTracing "Revolution" gibt es keine 80 Spiele mit RT Support, wovon einige erst sehr lange nach dem Launch überhaupt eine Form von RT bekamen (Wobei WoW und Fortnite für mich noch immer die lachhaftesten Beispiele für RT Implementierung sind - dicht gefolgt von allen anderen kompetitiven Multiplayer Spielen).
RT musste unbedingt mit der 2000er Serie an den Markt.
Problem: Viel zu wenig Rechenleistung pro GPU.
"Lösung": Wir nutzen den Firmeneigenen Supercomputer, um jedes einzelne Spiel hunderte Stunden durchlaufen zu lassen und ein neuronales Netz zu trainieren (zusätzlicher Nutzen: Alle, die es haben wollen müssen sich ab sofort registrieren und einloggen, um neueste Updates dafür zu bekommen) - geboren war DLSS 1.
Wenn man dnan pro Jahr nur Zeitslots für 5-10 Spiele hat, wird das nix mit der Verbreitung... daher dann irgendwann DLSS2... was zumindest weniger Supercomputer Zeit benötigt.... aber ich greife Punkt 3 vor.

2) G-Sync hätte echt groß werden können... Wurde nur leider durch die vollkommen unnötigen Preisaufschläge und Verdongelung (Aut Laptops lief das schon immer ohne G-Sync Modul) mal wieder gegen die Wand gefahren.. Klappte mit PhysX ja auch super. Jensen hat den Alleingang mit G-sync nur gemacht, weil er meint, VESA würde zu langsam arbeiten... Ergebnis war ein unnötig teures Modul mit FPGA und nur einem einzigen Display Anschluss (DP, nicht HDMI), weil das Feature ja unbedingt so schnell wie möglich an den Markt musste, anstelle es mal richtig durchzudesignen und dabei gleich mehrere Schwächen zu eliminieren (FPGA, kein HDMI, extrem kleine Auswahl, sehr hohe Kosten..)

3) DLSS und FSR sind ganz nice, aber in meinen Augen nur Notnägel, weil die Steigerung der Rechenleistung der GPUs nicht mit den Versprechungen mithalten kann.
DLSS ist eine Grundvoraussetzung, dass Nvidia Käufer unterhalb einer 3090 überhaupt dran denken können, den RT Regler mal weiter nach rechts zu stellen.
Die Steigerung der GPU Rechenleistung würde ausreichen, wenn wir bei der Grafikqualität von Quake 2 stehengeblieben wären.
Mit DLSS als Vorreiter und FSR2 als langsamer entwickelte Ablösung sind wir mal wieder beim alten Schema:
"Ha Ha! Ich bin erster und ihr bekommt nix ab.. ihr dürft nicht mitspielen"... gefolgt von lautem "DONG", als mal wieder der Laternenpfahl mitgenommen wurde und die neuen Spielzeuge zum inzwischen 4. Mal* auf dem Boden liegen und immer weniger Beachtung finden, als die nicht ganz so shiny, aber deutlich leichter verfügbaren der langsameren "Konkurrenz".

XeSS muss sich noch beweisen und bei der Intel (GPU)Treiberqualität wird das noch lange dauern, bis das Feature interessant wird.

Moderne AA Techniken haben SLI und CrossFire gekillt - temporale komponenten beim AA und auch beim Upscaling (DLSS und FSR 2 lassen grüßen) vertragen sich nicht mit der Abstimmung zwischen 2 und mehr GPUs.

Jensen bleibt das Wunderkind, dass schnell von neuer Technik gehyped wird und dann bei der Entwicklung nicht alles fertig durchdenkt, so lange er als erster am Markt ist.

*PhysX, G-Sync, RT über Tensor Kerne, DLSS als geschlossenes System
 
DLSS und FSR sind ganz nice, aber in meinen Augen nur Notnägel, weil die Steigerung der Rechenleistung
Es sind einfach andere Rendermethoden.
Ist tield-based Rendering etwa "Schummeln"? Oder jede Art von culling?
"Nativ" ist einfach ein unnötiges Schlagwort und an vielen Stellen schon lange vor DLSS gestorben. Ambient Occlusion wir quasi nie mit der Ausgabeauflösung berechnet, so wie diverse andere Post-processing Effekte auch. Warum sich also an der Auflösung des Pixelrasters hoch ziehen?
Was zählt ist was am Ende als Bild heraus kommt und wenn die Lösung das mit guter Performance zu Erreichen dann FSR 2.0 heißt dann ist das halt so. Egal was da für "Tricks" bei genutzt werden.
 
1) Bei Raytracing ist Nvidia alles andere als ein Vorreiter... Uns wird seit 30 Jahren versprochen, dass wir jetzt endlich in Real time RT Zeiten leben...
Das wissen wir alles, aber nVidia hat es eben nun nach Hause gebracht, und zwar vor der Konkurrenz, das solltest Du auch anerkennen.

Nach 4 Jahren RayTracing "Revolution" gibt es keine 80 Spiele mit RT Support
Also 80 Spiele ist mehr, als ich in den nächsten Jahren überhaupt spielen könnte. Was wollen die Leute denn, 5.000 Spiele? Wie viel Zeit muss man haben...
So oder so muss man ja mal den Anfang machen, ansonsten hätten wir jetzt genau: Null (!) Spiele.
Je mehr Zeit vergeht, desto mehr Spiele werden es, und mit steigender Hardwareleistung kommt auch mehr Support.

RT musste unbedingt mit der 2000er Serie an den Markt.
Problem: Viel zu wenig Rechenleistung pro GPU.
"Lösung": Wir nutzen den Firmeneigenen Supercomputer, um jedes einzelne Spiel hunderte Stunden durchlaufen zu lassen und ein neuronales Netz zu trainieren (zusätzlicher Nutzen: Alle, die es haben wollen müssen sich ab sofort registrieren und einloggen, um neueste Updates dafür zu bekommen) - geboren war DLSS 1.
Wenn man dnan pro Jahr nur Zeitslots für 5-10 Spiele hat, wird das nix mit der Verbreitung... daher dann irgendwann DLSS2... was zumindest weniger Supercomputer Zeit benötigt.... aber ich greife Punkt 3 vor.
Aller Anfang ist schwer, aber man hat sich in all dieser Zeit nun einen technologischen und Know-How-Vorsprung geschaffen, der Ihnen immer mehr zugute kommen wird.
DLSS ist doch auch von RT ganz unabhängig nutzbar und IMO eines der schönsten Features seit langem, und mittels DLDSR hat man jetzt auch endlich wieder eine sehr gute AA-Methode.
Was hat sich denn im Anti-Aliasing-Bereich in den zig Jahren davor getan? Da ging nix weiter, wir hatten sogar eher einen Rückschritt!
Dann macht ein Hersteller was, und darüber beschweren sich die Leute, verkehrte Welt. : D

2) G-Sync hätte echt groß werden können...
Ist es doch auch, denn durch diesen Anstoß haben jetzt quasi alle neuen Monitore und auch Fernseher eine entsprechende Sync-Methode, so dass man nicht mehr zwichen Pest (Tearing) oder Cholera (Input-Lag) wählen muss.
Auch hier hat sich über Jahre und Jahrzehnte nichts getan, und ich bin froh, dass man das geändert hat.

3) DLSS und FSR sind ganz nice, aber in meinen Augen nur Notnägel, weil die Steigerung der Rechenleistung der GPUs nicht mit den Versprechungen mithalten kann.
Egal wie viel Rechenleistung Du hast - ein Leistungsplus ist immer nice, da man dann an anderer Stelle Details hochschrauben kann, stabilere Minimum-FPS bekommt oder seine Hardware länger nutzen kann, ohne aufzurüsten.
Oder man kombiniert DLSS mit DSR und hat dafür eine höhere Bildqualität.

Mit DLSS als Vorreiter und FSR2 als langsamer entwickelte Ablösung sind wir mal wieder beim alten Schema:
"Ha Ha! Ich bin erster und ihr bekommt nix ab.. ihr dürft nicht mitspielen"...
Wieso sollte ein Hersteller denn Zeit und Geld investieren, um es dann der Konkurrenz zu "schenken" ?

Sieh es doch mal so:
Wenn man hier nur und ausschließlich auf Open Source-Basis arbeiten würde, hätte nVidia dann wirklich alles dran gesetzt, die Technologie weiterzuentwickeln, zeitnah auf den Markt zu bringen, Know-How, Zeit und Geld investiert? Oder wäre es so halbgar irgendwo mit Low Priority in der Schublade vor sich hingedümpelt?
Wenn sich damit Geld machen läßt bzw. man sich damit einen Vorteil oder einen technologischen Vorteil gegenüber der Konkurrenz verschafft, dann pusht das die Entwicklung enorm.
Das nennt sich eben Wettbewerb.

Moderne AA Techniken haben SLI und CrossFire gekillt - temporale komponenten beim AA und auch beim Upscaling (DLSS und FSR 2 lassen grüßen) vertragen sich nicht mit der Abstimmung zwischen 2 und mehr GPUs.
SLI und Crossfire hatten über zig Jahre schon ganz andere Probleme, schon lange vor DLSS. Es war schon immer eine Nische, die Leistung skalierte nicht entsprechend, der Support war Mau, es gab Mikroruckler und es war immer schon was für Enthusiasten, auch durch die Kosten. Dass man heute auch etwas "grüner" beim Energiebedarf denkt, kommt auch noch hinzu.
Es wäre sicherlich technisch machbar, DLSS etc. entsprechend anzupassen, aber die Zeit von SLI und CF ist doch ohnehin großteils vorbei, es ist klar, dass sich da niemand den Aufwand macht.
 
Zuletzt bearbeitet:
Es sind einfach andere Rendermethoden.
Ist tield-based Rendering etwa "Schummeln"? Oder jede Art von culling?
"Nativ" ist einfach ein unnötiges Schlagwort und an vielen Stellen schon lange vor DLSS gestorben. Ambient Occlusion wir quasi nie mit der Ausgabeauflösung berechnet, so wie diverse andere Post-processing Effekte auch. Warum sich also an der Auflösung des Pixelrasters hoch ziehen?
Was zählt ist was am Ende als Bild heraus kommt und wenn die Lösung das mit guter Performance zu Erreichen dann FSR 2.0 heißt dann ist das halt so. Egal was da für "Tricks" bei genutzt werden.
Da vermischst du Themen, die nicht zusammen gehören.
1) Culling ist bei dem Zeug, was man im Bild nicht sieht... Keine Auswirkung auf die dargestellte Bildinformation.
2) Tile based Rendering ist nur eine Methode, wie man das Rendern angeht - mit Vor- und Nachteilen. Weshalb man es für PC nicht gemacht hat, so lange man oberhalb der benötigten Rechenleistung lag. TBR hat (wie man bei The Division beim Betrachten von ein paar Details sehen konnte) ein paar Probleme bei Details bei Überlagerungen - was man aber in der Bewegung nicht wirklich sieht. TBR wird schon seit den 1990ern benutzt - und bis Maxwell auch eigentlich nur in mobilen Anwendungen.
TBR hat keinerlei Auswirkung auf die gerenderte Auflösung als Ganzes.
3)AO wird nicht mit voller Auflösung berechnet, weil der Performanceverlust höher wäre, als die optische Verbesserung - was aber nicht bedeutet, dass AO bei voller Auflösung nicht besser ausehen würde.
Das gleiche gilt für die anderen post processing Effekte, die mit geringerer Auflösung berechnet werden.
Sie kosten bei voller Auflösung aktuell schlicht zu viel Rechenzeit, um hoch stabil hohe FPS zu liefern.

Im Endeffekt ist es halt mal wieder der Tatsache geschuldet, dass die Rechenleistung der GPUs bisher nicht ausreicht, um alles in voller Pracht zu berechnen.
Irgendwann wird AO so leicht nebenher berechnet, wie AF. Da sind wir aber noch nicht. (Vor 20 Jahren hatte AF nen deutlichen Einfluss auf die Performance eines Spiels... heute wird das mal eben nebenher berechnet.)
 
Das wissen wir alles, aber nVidia hat es eben nun nach Hause gebracht, und zwar vor der Konkurrenz, das solltest Du auch anerkennen.
Nö. Sie haben es nicht "nach Hause gebracht". Das ist es erst, wenn eine x50 Karte von Nvidia RT im Schlaf kann.
Bis dahin sind wir noch immer im alten Modus "Ja, dieses Jahr wird es endlich DAS RT Jahr"... den wir seit über 20 Jahren haben.

Also 80 Spiele ist mehr, als ich in den nächsten Jahren überhaupt spielen könnte. Was wollen die Leute denn, 5.000 Spiele? Wie viel Zeit muss man haben...
Und? Bei den 80 Spielen ist nicht ein einziges dabei, dass ich spiele (WoW hab ich mal gespielt, aber da sind die RT Schatten echt ein lächerliches Gimmick, dass optisch nicht mal was her macht).
Daher hat die generelle Zahl der Spiele schon eine große Bedeutung. Bei 1Mrd. PC Spieler weltweit und einer Verbreitung von wirklich RT fähigen Karten (2080 und aufwärts) von unter 10%.. und dann noch Verkaufszahlen der RT Spiele im mittleren, zweistelligen Millionenbereich reden wir von einer Marktabdeckung von niedrigen bis mittleren, einstelligen Prozentwerten.

So oder so muss man ja mal den Anfang machen, ansonsten hätten wir jetzt genau: Null (!) Spiele.
Je mehr Zeit vergeht, desto mehr Spiele werden es, und mit steigender Hardwareleistung kommt auch mehr Support.
Tjoa... einzelne Spiele mit RT Unterstützung gibt es seit Jahrzehnten... jetzt halt mal ein paar dutzend im Mainstream.
Ist halt ein kleiner Wellenberg im großen Meer der Entwicklung

Aller Anfang ist schwer, aber man hat sich in all dieser Zeit nun einen technologischen und Know-How-Vorsprung geschaffen, der Ihnen immer mehr zugute kommen wird.
DLSS ist doch auch von RT ganz unabhängig nutzbar und IMO eines der schönsten Features seit langem, und mittels DLDSR hat man jetzt auch endlich wieder eine sehr gute AA-Methode.
Was hat sich denn im Anti-Aliasing-Bereich in den zig Jahren davor getan? Da ging nix weiter, wir hatten sogar eher einen Rückschritt!
Dann macht ein Hersteller was, und darüber beschweren sich die Leute, verkehrte Welt. : D
DLDSR ist Downsampling... also das Gegenteil von DLSS
DLSS ist 1) auch nur ein einer kleinen Zahl von Spielen vorhanden und 2) nur da wirklich interessant, wo die Leistung meiner Grafikkarte mal wieder nicht reicht - leider halt limitiert auf Karten ab Turing... Also fokussiert auf "Neu verkaufen" anstelle von "Pflegen"

Ist es doch auch, denn durch diesen Anstoß haben jetzt quasi alle neuen Monitore und auch Fernseher eine Sync-Methode, so dass man nicht mehr zwichen Pest (Tearing) oder Cholera (Input-Lag) wählen muss.
Auch hier hat sich über Jahre und Jahrzehnte nichts getan, und ich bin froh, dass man das geändert hat.
Hätte sich Nvidia mehr mit VESA zusammen getan und etwas gepusht (wofür sie ja durchaus die Marktmacht haben), hätten die das VESA Sync gepusht - vor allem, da G-Sync und VESA adaptive Sync auf der gleichen Grundtechnik basieren... einer Stromspartechnik der DP Schnittstelle aus Laptops mit variablem VBLANK (ein Grund, weshalb das G-Sync Modul Anfangs nur einen DP Port hatte (einen einzigen... nicht mal 2). G-Sync auf Laptops zeigt halt, dass das teure Modul für die Monitore reiner marketing BS ist.
Jensen hätte VESA sicher auch zu ähnlich strengen Kriterien für Abstufungen von Implementierungsqualität bringen können, wie jetzt die Mischung aus "G-Sync compatible" und G-Sync Ultra darstellt.

Egal wie viel Rechenleistung Du hast - ein Leistungsplus ist immer nice, da man dann an anderer Stelle Details hochschrauben kann, stabilere Minimum-FPS bekommt oder seine Hardware länger nutzen kann, ohne aufzurüsten.
Oder man kombiniert DLSS mit DSR und hat dafür eine höhere Bildqualität.

Wieso sollte ein Hersteller denn Zeit und Geld investieren, um es dann der Konkurrenz zu "schenken" ?
Es gibt eine Erfindung, die nennt sich "Lizenzgebühren für Patente" nach FRAND Gesichtspunkten. Funktioniert bei USB, WLAN und anderen, offen verfügbaren Standards ja auch.
Nur Abschotten bringt halt nix - Am Ende nur den Abgesang für das Feature.
Ja, das wäre halt wieder mehr "Open Source" nach Nvidia Definition, aber wenigstens mal etwas, dass die Entwicklung wirklich weiter bringt.
Sieh es doch mal so:
Wenn man hier nur und ausschließlich auf Open Source-Basis arbeiten würde, hätte nVidia dann wirklich alles dran gesetzt, die Technologie weiterzuentwickeln, zeitnah auf den Markt zu bringen, Know-How, Zeit und Geld investiert? Oder wäre es so halbgar irgendwo mit Low Priority in der Schublade vor sich hingedümpelt?
Wenn sich damit Geld machen läßt bzw. man sich damit einen Vorteil oder einen technologischen Vorteil gegenüber der Konkurrenz verschafft, dann pusht das die Entwicklung enorm.
Das nennt sich eben Wettbewerb.
Wer bei steigendem Rechenbedarf seine Produkte nicht weiterentwickelt, verkauft nichts.
Sollte schon ein ziemlich guter Ansporn für eine Weiterentwicklung sein.

SLI und Crossfire hatten über zig Jahre schon ganz andere Probleme, schon lange vor DLSS. Es war schon immer eine Nische, die Leistung skalierte nicht entsprechend, der Support war Mau, es gab Mikroruckler und es war immer schon was für Enthusiasten, auch durch die Kosten.
Stimmt bei Spielen. Für andere Anwendungen war es aber wenigstens noch für "normalos" verfügbar.
Man konnte eine Zeit lang auch einfach Grafikkarten von ATI und Nvidia kombinieren, wobei die Nvidia Karte dann PhysX berechnete... wurde dann ja durch Team grün unterbunden und GPU PhysX dadurch aufs Abstellgleis geschoben.

Dass man heute auch etwas "grüner" beim Energiebedarf denkt, kommt auch noch hinzu.
Das sehe ich nicht, wenn jetzt Karten von 450-600W nomineller TDP (sowohl rot und grün) am Horizont winken.

Es wäre sicherlich technisch machbar, DLSS etc. entsprechend anzupassen, aber die Zeit von SLI und CF ist doch ohnehin großteils vorbei, es ist klar, dass sich da niemand den Aufwand macht.
Die temporale Komponente macht es nahezu unmöglich, DLSS drauf anzupassen - denn man würde einen Teil der Rechenzeit einfach dafür benutzen, die beiden Karten synchron zu halten und dann noch die DLSS Berechnungen oben drauf zu packen.
Das dürfte dann dazu führen, dass die beiden obersten DLSS Stufen keinerlei Vorteile mehr bringen.
 
Das gleiche gilt für die anderen post processing Effekte, die mit geringerer Auflösung berechnet werden.
Sie kosten bei voller Auflösung aktuell schlicht zu viel Rechenzeit, um hoch stabil hohe FPS zu liefern.

Im Endeffekt ist es halt mal wieder der Tatsache geschuldet, dass die Rechenleistung der GPUs bisher nicht ausreicht, um alles in voller Pracht zu berechnen.
Aber wie definierst du "volle Pracht"?
Bei "nativen" 1080p weil du einen solche Monitor hast? Oder vielleicht doch in UHD. Oder 8k? Und warum nicht in 8k Rendern und danach skalieren damit es in UHD noch besser aussieht?

Also was macht bei 3D Grafik gerade die konkrete Bildschirmauflösung so besonders? Klar am Ende muss ich das Bild in der Größe ausgeben, aber warum sich davor nach unten oder oben(!) beschränken?
 
Nö. Sie haben es nicht "nach Hause gebracht".

Ähm... doch, denn es ist nun mit Consumer-Grafikkarten in immer mehr Spielen nutzbar.

Das ist es erst, wenn eine x50 Karte von Nvidia RT im Schlaf kann.
Dann ist es lediglich auch noch im Low-Budget-Bereich angekommen. Das wird zweifellos auch früher oder später der Fall sein.
Was erwartest Du denn, dass alles sofort perfekt ist und von Tag 1 an auf ner 100 Euro-Karte läuft?

Bis dahin sind wir noch immer im alten Modus "Ja, dieses Jahr wird es endlich DAS RT Jahr"... den wir seit über 20 Jahren haben.
Es ist verfügbar und bringt einen konkreten Nutzen. Es ist sicher alles noch nicht perfekt, aber der Stein ist jetzt ins Rollen gebracht. Selbst auf Konsolen beginnt man damit.

Und? Bei den 80 Spielen ist nicht ein einziges dabei, dass ich spiele (WoW hab ich mal gespielt, aber da sind die RT Schatten echt ein lächerliches Gimmick, dass optisch nicht mal was her macht).
Daher hat die generelle Zahl der Spiele schon eine große Bedeutung.
Wie gesagt, wo wären diese Spiele denn, wenn nicht ein Hersteller mal den Schritt gemacht hätte? Wär Dir das lieber gewesen, nochmal 20 Jahre zu warten? Was für ein Rumgemecker.

DLDSR ist Downsampling... also das Gegenteil von DLSS
DLDSR nutzt die selben DL-Techniken wie DLSS und ist somit die Kombination beider Verfahren. Du konntest bereits zuvor schon DLSS in Kombination mit Downsampling nutzen, das zeigt dies auch sehr schön. Hiermit hat man nun das DLSS-Verfahren in eine gute Methode zur Verbesserung der Bildqualität umgemünzt, indem man im Prinzip die uralte Holzhammer-Methode OGSSAA endlich intelligenter umgesetzt hat und man für die gleiche Bildqualität weniger Samples braucht, so dass der Leistungshunger deutlich weniger reinhaut und das Verfahren in weitaus mehr Games endlich praktikabel wird. Und da bin ich nach all den Rückschritten auch sehr froh drüber!

DLSS ist 1) auch nur ein einer kleinen Zahl von Spielen vorhanden und 2) nur da wirklich interessant, wo die Leistung meiner rafikkarte mal wieder nicht reicht
Mehr FPS sind prinzipiell immer von Vorteil. Oder bei gleichen FPS alternativ weniger Leistungshunger, Lauststärke oder Abwärme. Oder an anderer Stelle dafür mehr Details. Oder längere Zukunftssicherheit bzw. späteres erforderliches aufrüsten.

Hätte sich Nvidia mehr mit VESA zusammen getan und etwas gepusht (wofür sie ja durchaus die Marktmacht haben), hätten die das VESA Sync gepusht - vor allem, da G-Sync und VESA adaptive Sync auf der gleichen Grundtechnik basieren... einer Stromspartechnik der DP Schnittstelle aus Laptops mit variablem VBLANK (ein Grund, weshalb das G-Sync Modul Anfangs nur einen DP Port hatte (einen einzigen... nicht mal 2). G-Sync auf Laptops zeigt halt, dass das teure Modul für die Monitore reiner marketing BS ist.

Über die Notwendigkeit des Moduls kann man sicherlich streiten, aber hier ging es darum, dass nVidia immer wieder vorgeworfen wird, dass sie ihre Entwickungen ja nicht Open Source für alle verfügbar machen, und ich habe Dir gute Gründe genannt, warum das nicht passiert.
Dass bei AMD beim Nachziehen diese Gründe logischweise dann nicht mehr vorlagen, habe ich ebenfalls erläutert.

Nur Abschotten bringt halt nix - Am Ende nur den Abgesang für das Feature.
Das steht wieder auf einem anderen Blatt und ist ja dann nVidias Problem, falls man sich verkalkuliert und die Unterstützung ausbleibt. Im Moment sieht es aber nicht danach aus, ganz im Gegenteil. DLSS scheint ja auch nicht schwer zu implementieren.

Wer bei steigendem Rechenbedarf seine Produkte nicht weiterentwickelt, verkauft nichts.
Sollte schon ein ziemlich guter Ansporn für eine Weiterentwicklung sein.

Und jedes Unternehmen versucht, seine IPs zu schützen, damit der Return dieser Investitionen auch ihnen zufließt, und nicht der Konkurrenz, das ist absolut nachvollziehbar.


Stimmt bei Spielen. Für andere Anwendungen war es aber wenigstens noch für "normalos" verfügbar.

Wird sich dann allerdings nicht mehr gelohnt haben, da der Anteil hier wahrscheinlich noch wesentlich geringer war als der ohnehin schon geringe Anteil bei Spielern.

Das sehe ich nicht, wenn jetzt Karten von 450-600W nomineller TDP (sowohl rot und grün) am Horizont winken.

Das verschiebt das Problem lediglich - wenn Du davon dann zwei Karten in einem hypothetischen SLI/CF kombinierst, hast Du auch entsprechend wieder höhere Leistungsaufnahme.
Die Leute schauen seit einigen Jahren durch die Klima-Diskussionen in Sachen Energiebedarf schon genauer hin, das wird jetzt durch die extrem angestiegenen Energiekosten auch nochmals bedeutender werden. Klar gibt es zig andere Faktoren für den Kauf einer Grafikkarte und mangels Alternativen wird auch eine 600W-TDP-Karte dann gekauft werden, aber es ist auf jedenfall nicht gerade gute Werbung.


Die temporale Komponente macht es nahezu unmöglich, DLSS drauf anzupassen - denn man würde einen Teil der Rechenzeit einfach dafür benutzen, die beiden Karten synchron zu halten und dann noch die DLSS Berechnungen oben drauf zu packen.
Das dürfte dann dazu führen, dass die beiden obersten DLSS Stufen keinerlei Vorteile mehr bringen.

Es gäbe sicher eine Lösung, einen entsprechenden Machine-Learning-Ansatz SLI/CF-tauglich zu machen oder umgekehrt die Arbeitsweise von SLI/CF entsprechend zu ändern. Den Aufwand wäre es aber nicht wert, das ist es ja auch ohne das ganze schon nicht.
Dass dieses Verfahren also SLI/CF gekillt hat stimmt so einfach nicht, das hatte vorher schon ganz andere Probleme.
 
Zuletzt bearbeitet:
Aber wie definierst du "volle Pracht"?
Bei "nativen" 1080p weil du einen solche Monitor hast? Oder vielleicht doch in UHD. Oder 8k? Und warum nicht in 8k Rendern und danach skalieren damit es in UHD noch besser aussieht?

Also was macht bei 3D Grafik gerade die konkrete Bildschirmauflösung so besonders? Klar am Ende muss ich das Bild in der Größe ausgeben, aber warum sich davor nach unten oder oben(!) beschränken?
Richtig...
Das hat auch etwas damit zu tun, dass die Leute oft davon ausgehen, dass die Native Bildschirmauflösung das Optimum wäre, über das man mit keiner Methode drüber kommt.
Ist es aber nicht, da auch die native Auflösung letztlich ja nur eine bestimmte Stufe in der Annäherung an ein theoretisches Idealbild mit unbegrenzter Auflösung darstellt. Mehr Samples ist ja nur ein möglicher Weg dort hin.
 
Zuletzt bearbeitet:
Nun zu etwas ganz anderem:
Weiß jemand, um welche Uhrzeit man heute mit RSR rechnen kann? Ich hab Zeit und sitz wie auf Kohlen rum, aber wahrscheinlich kommts dank verschiedener Zeitzonen eh erst in der Nacht xD.
Also, jemand Gerüchte gehört oder selbst in die Welt gesetzt? Ich nehme alles, auch Teesatzlesen und Astronomie!
 
Nun zu etwas ganz anderem:
Weiß jemand, um welche Uhrzeit man heute mit RSR rechnen kann? Ich hab Zeit und sitz wie auf Kohlen rum, aber wahrscheinlich kommts dank verschiedener Zeitzonen eh erst in der Nacht xD.
Also, jemand Gerüchte gehört oder selbst in die Welt gesetzt? Ich nehme alles, auch Teesatzlesen und Astronomie!

Meine Güte... Du wirst es schon noch abwarten können.
 
Zurück