1) Bei Raytracing ist Nvidia alles andere als ein Vorreiter... Uns wird seit 30 Jahren versprochen, dass wir jetzt endlich in Real time RT Zeiten leben...
Das wissen wir alles, aber nVidia hat es eben nun nach Hause gebracht, und zwar vor der Konkurrenz, das solltest Du auch anerkennen.
Nach 4 Jahren RayTracing "Revolution" gibt es keine 80 Spiele mit RT Support
Also 80 Spiele ist mehr, als ich in den nächsten Jahren überhaupt spielen könnte. Was wollen die Leute denn, 5.000 Spiele? Wie viel Zeit muss man haben...
So oder so muss man ja mal den Anfang machen, ansonsten hätten wir jetzt genau: Null (!) Spiele.
Je mehr Zeit vergeht, desto mehr Spiele werden es, und mit steigender Hardwareleistung kommt auch mehr Support.
RT musste unbedingt mit der 2000er Serie an den Markt.
Problem: Viel zu wenig Rechenleistung pro GPU.
"Lösung": Wir nutzen den Firmeneigenen Supercomputer, um jedes einzelne Spiel hunderte Stunden durchlaufen zu lassen und ein neuronales Netz zu trainieren (zusätzlicher Nutzen: Alle, die es haben wollen müssen sich ab sofort registrieren und einloggen, um neueste Updates dafür zu bekommen) - geboren war DLSS 1.
Wenn man dnan pro Jahr nur Zeitslots für 5-10 Spiele hat, wird das nix mit der Verbreitung... daher dann irgendwann DLSS2... was zumindest weniger Supercomputer Zeit benötigt.... aber ich greife Punkt 3 vor.
Aller Anfang ist schwer, aber man hat sich in all dieser Zeit nun einen technologischen und Know-How-Vorsprung geschaffen, der Ihnen immer mehr zugute kommen wird.
DLSS ist doch auch von RT ganz unabhängig nutzbar und IMO eines der schönsten Features seit langem, und mittels DLDSR hat man jetzt auch endlich wieder eine sehr gute AA-Methode.
Was hat sich denn im Anti-Aliasing-Bereich in den zig Jahren davor getan? Da ging nix weiter, wir hatten sogar eher einen Rückschritt!
Dann macht ein Hersteller was, und darüber beschweren sich die Leute, verkehrte Welt. : D
2) G-Sync hätte echt groß werden können...
Ist es doch auch, denn durch diesen Anstoß haben jetzt quasi alle neuen Monitore und auch Fernseher eine entsprechende Sync-Methode, so dass man nicht mehr zwichen Pest (Tearing) oder Cholera (Input-Lag) wählen muss.
Auch hier hat sich über Jahre und Jahrzehnte nichts getan, und ich bin froh, dass man das geändert hat.
3) DLSS und FSR sind ganz nice, aber in meinen Augen nur Notnägel, weil die Steigerung der Rechenleistung der GPUs nicht mit den Versprechungen mithalten kann.
Egal wie viel Rechenleistung Du hast - ein Leistungsplus ist immer nice, da man dann an anderer Stelle Details hochschrauben kann, stabilere Minimum-FPS bekommt oder seine Hardware länger nutzen kann, ohne aufzurüsten.
Oder man kombiniert DLSS mit DSR und hat dafür eine höhere Bildqualität.
Mit DLSS als Vorreiter und FSR2 als langsamer entwickelte Ablösung sind wir mal wieder beim alten Schema:
"Ha Ha! Ich bin erster und ihr bekommt nix ab.. ihr dürft nicht mitspielen"...
Wieso sollte ein Hersteller denn Zeit und Geld investieren, um es dann der Konkurrenz zu "schenken" ?
Sieh es doch mal so:
Wenn man hier nur und ausschließlich auf Open Source-Basis arbeiten würde, hätte nVidia dann wirklich alles dran gesetzt, die Technologie weiterzuentwickeln, zeitnah auf den Markt zu bringen, Know-How, Zeit und Geld investiert? Oder wäre es so halbgar irgendwo mit Low Priority in der Schublade vor sich hingedümpelt?
Wenn sich damit Geld machen läßt bzw. man sich damit einen Vorteil oder einen technologischen Vorteil gegenüber der Konkurrenz verschafft, dann pusht das die Entwicklung enorm.
Das nennt sich eben Wettbewerb.
Moderne AA Techniken haben SLI und CrossFire gekillt - temporale komponenten beim AA und auch beim Upscaling (DLSS und FSR 2 lassen grüßen) vertragen sich nicht mit der Abstimmung zwischen 2 und mehr GPUs.
SLI und Crossfire hatten über zig Jahre schon ganz andere Probleme, schon lange vor DLSS. Es war schon immer eine Nische, die Leistung skalierte nicht entsprechend, der Support war Mau, es gab Mikroruckler und es war immer schon was für Enthusiasten, auch durch die Kosten. Dass man heute auch etwas "grüner" beim Energiebedarf denkt, kommt auch noch hinzu.
Es wäre sicherlich technisch machbar, DLSS etc. entsprechend anzupassen, aber die Zeit von SLI und CF ist doch ohnehin großteils vorbei, es ist klar, dass sich da niemand den Aufwand macht.