Ich denke wir sollten jetzt mal hier die sinnfreie Debatte einstellen, es ist eh Offtopic im grunde.
Garnicht mal so sehr...
Der Artikel handelt ja von Superresolution / DLSS.
Das war mit eines der ersten Dinge, die ich ausprobiert habe, wie ich mit Filtern und anderen Methoden einen ähnlichen Effekt erzielen kann.
Ich war mir nämlich Anfangs auch nicht sicher, ob uns NVIDIA nicht ordentlich mit ihrer DLSS- Story aufs Glatteis führen will. Die Version V1 war ja auch in der Tat eher suboptimal und hat nicht im Geringsten das gehalten, was ursprünglich versprochen wurde. DLSS2.x verfolgt auch einen gänzlich anderen Ansatz.
Mit Insight kannst Du aber inzwischen alles auswerten, Dir die einzelnen Buffer/Targets anzeigen lassen usw. usf.
Von openSUSE kommt einfach deshalb nichts und er versteckt sich weiter hinter Floskeln, weil er wahrscheinlich kurz getestet hat mit den vorhandenen Schärfefiltern etwas zu bewerkstelligen und erwartungsgemäß nicht auf das DLSS Ergebnis kommt, obwohl doch das alles kein Problem sei und so einfach zu machen...
Der Klassiker halt wieder, die so eine Diskussion unangenehm machen, zumal er mir mangelnde Kenntnisse in Gimp unterstellt, dann aber selbst platt von "hochskalierte Bilder soll/kann man nicht schärfen".
Sind die Daten Pixelgenau gescaled und nicht interpoliert, dann geht das genauso gut bzw. Gimp gibt einem auch dafür Mittel an die Hand. Soviel zu der Pauschalaussage... Es gibt auch Filter mit Radius/bzw. Schrittweite.
Egal- Ohne einen Beleg schießt er sich mit jedem geschriebenen Wort nur weiter ins Abseits. Dennoch gehört es am Rande eben doch auch zum Thema und er hat eine berechtigte Frage bzw. einen berechtigten Einwand geäußert.
Ist aber einfach immer der Ton, der die Musik macht.
Ich hoffe durch die Einführung von Fidelity FX Super Resolution bekommt auch DLSS einen Push. Im Grunde gewinnen wir ja alle nur, wenn solche Technologien konkurrieren.
AMD hat relativ viele Informationen, wie DLSS funktioniert bzw. gibt es diesbezüglich viel veröffentlichtes Material.
Auch hat NVIDIA ihr upscaling- Modell für Microsofts Direct-ML bereits zur Verfügung gestellt (und haben es auf der GDC 2019 in Forza Horizon 3 sogar lauffähig demonstriert).
Eigentlich braucht AMD sich garnicht mehr so abmühen... und ich frage mich, warum Microsoft das Verfahren nicht als Standard Ihres DX- Konglomerats auf die Öffentlichkeit loslässt. Da gehts bestimmt wieder um Patent- Kauderwelsch, Lizenzgebühren oder anderen Mist.