Na das freut mich zu hören, respektive zu lesen !
Denn wenn meiner einer etwas zum übergeben findet, ist es wenn irgend ein Hersteller sein eigenes "Süppchen" kocht. Besser ist doch, wenn es für Jedermann ist, oder ?!?
MfG Föhn.
Es ist aber nicht "für Jedermann", sondern "von Facebook". Das ist in Augen einiger um Welten schlimmer als "von Nvidia".
Solange Facebook kein Patent auf die Technik hat (habe nicht gesucht), kann jeder Entwickler die Technologie ohne Einschränkungen selbst implementieren — Auch AMD oder Spielestudios.
Das Problem an der Technik ist nicht die Grundidee. Die ist gegebenenfalls nicht einmal patentierbar, denn letzten Endes ahmt sie Teile des natürliche Sehens nach. Das schwierige ist eine funktionierende Umsetzung, inbesondere in Echtzeit-tauglicher Geschwindigkeit. Und die kann ein Entwickler nur dann leicht implementieren, wenn sie ihm zur Verfügung gestellt wird – unter welchen Bedingungen auch immer. Selber umsetzen wäre dagegen sehr aufwendig.
M.M.n wird DLSS zuviel Aufmerksamkeit geschenkt. Toll einige Kanten flimmern nicht mehr, man hat mehr Fps bei Nutzung von Raytracing, dafür wirkt das gesammte Bild matschig. Als Bildverbesserung würde ich das nicht bezeichnen.
DLSS 2 hat in dieser Hinsicht sehr große Fortschritte gemacht. Als Feind von allem, was Bildschärfe kosten und Artefakte produzieren kann, würde ich mich zwar noch lange nicht als Fan beschreiben, aber wer TAA, FXAA & Co mochte, der bekommt mit DLSS 2 definitiv etwas technisch besseres. Das große Problem bislang: Nvidia promotet es vor allem als Gegenmaßnahme für unzureichende RT-Leistung und hat die ursprünglich mal in Aussicht gestellten Faktoren >1 nie freigeschaltet. Das heißt man kann DLSS nur nutzen, um ein zu klein berechnetes Bild in besserer Qualität als sonst auf die Ausgabeauflösung hochzurechnen. Die gleiche Technik kann aber auch die Detailgenauigkeit bei nativem Rendering erhöhen und Rasterisierungsfehler wie Treppen und flimmernde 1-Pixel-Elemente reduzieren. Raff hat das mal vorgemacht: Via Downsampling die Zielauflösung so hochdrehen, dass die Basisauflösung für DLSS der nativen entspricht
DLSS 2.0 eröffnet Geforce-RTX-Nutzern neue Möglichkeiten der Kantenglättung. PCGH geht einen Schritt weiter und zeigt, wie DLSS mit DSR harmoniert.
www.pcgameshardware.de
Mit DLSS 0,5 ist das jetzt auch pixelgenau möglich, also beispielsweise FHD via DLSS auf UHD interpolieren und dann auf einem FHD-Monitor auszugeben. Analog 5K für für QHD. Sieht man von gelegentlichen Berechnungsfehlern ab, die bei DLSS immer noch vorkommen können, ist das eine echte Bildaufwertung gegenüber direktem FHD/QHD, die nur einen Bruchteil der Rechenleistung von echtem 2×2 Downsampling kostet. Aber halt bislang nur mit tricksen, nicht direkt von Nvidia, und nur in der Hand voll Spiele, die DLSS 2 implementiert haben. Hier könnte Facebook tatsächlich einen Mehrwert liefern: Mit ASW hat Oculus seit langem eine Technik in der Hand, die ohne direkte Unterstützung des Spiels zu benötigen, komplette Frames in durchaus annehmbarer Qualität vorhersagen kann. Wenn sie das jetzt genutzt haben, um die temporale Komponente von DLSS nachzustellen (das direkte Sampling ist ja ohnehin jeder SSAA-fähigen GPU möglich), dann könnte das eine prinzipiell über Treiber forcierbare Technik sein.