Wir sind aber bei DLSS2.x und nicht bei 1.x. Wieso vergleichst du FSR2 mit DLSS1?
FSR2 kann DLSS2 nicht die Stirn bieten, weil FSR2 keinen DL Aspekt hat.
Das hatte ich in diesem Thread schon 2x erklärt. Wir drehen uns im Kreis.
*seufz*
Du verstehst es immernoch nicht.. leider fürchte ich, dass keine Erklärungsversuche der Welt dir da helfen würden.
Außerdem vergleiche ich FSR mit DLSS1.... nicht FSR2...
Kurz gesagt:
Beides war der erste Versuch. Bei Nvidia mit unglaublichen Aufwand mit Deep Learning, bei AMD mit traditionell "handgedengelten" Algorithmen.
Die Ergebnisse lagen kaum merklich auseinander.
Wenn du jetzt Grafikkarten entwickeln würdest und Ageia aufgekauft hättest, dessen Software schon auf CPUs funktionierte, hättest du dann zusätzliche Arbeit und Geld investiert, um es auf CPUs noch schneller laufen zu lassen oder dich um deinen Grakas gekümmert?
Nochmal: Hat Nvidia Physx beschnitten oder haben sie sich nicht um den CPU Part gekümmert? Beides geht nicht und wäre ein Widerspruch in sich.
1) nein, ist kein Widerspruch in sich, da CPU PhysX zu der Zeit weniger Features hatte.
2) Hätte ich als GPU Entwickler Geld investiert, um meine Technik zu verbreiten - durchaus mit ein paar GPU exklusiven Teilen, keine Frage. Aber ich hätte dafür gesorgt, dass es auch auf CPUs so gut wie möglich läuft, damit eben jeder es haben will und nicht an mangelndem Interesse krepiert.
Ja ist es
![Klatsch :klatsch: :klatsch:](/styles/ctec/images/smilies/klatsch3.gif)
DL rekonstruiert das Bild und stellt feine Objekte wieder her, die bei einem reinen Upscaler verschwinden würden. Das wurde doch zu genüge von PCGH und CB getestet?!
Hast du auch nur die leiseste Ahnung, wie DLSS und FSR funktionieren?
Puh... du redest dir grad ein Zeug zusammen...
Wir haben gesehen, dass es in der aktuellen Entwicklungsstufe bei DLSS besser aussieht.
Dass ein FSR bei gleicher Entwicklungszeit schlechtere Ergebnisse liefert, ist bisher noch nicht erwiesen - FSR hatte noch lange nicht die von Nvidia behaupteten 10 Jahre Entwicklung.
Das geht echt auf keine Kuhhaut. Sämtliche Seiten haben DLSS1 und 2 ausführlich getestet und detailiert erklärt, wie es funktioniert.
Jetzt kommt
@Khabarak um die Ecke und fragt, ob man zum rekonstruieren der feinen Objekte auch wirklich den DL Part bräuchte...
Und mal wieder... Kein Beleg, dass es gebraucht wird.
1) Ja, wir wissen, was es tut.
2) ja, es wurde zur Genüge analysiert
3) Hat irgendwer bewiesen, dass man die gleiche Wiederherstellung nicht ohne KI erreichen kann?
Man hat nur gezeigt, dass eine KI Lösung mit 10 Jahren Entwicklungszeit es besser macht, als eine "traditionelle" Lösung mit 2-3 Jahren Entwicklungszeit.
Kein überzeugendes Argument