Nvidia will mit DLSS ja keinen Industriestandard normieren, die wollen, dass jeder sein Spiel proprietär auf deren Karte anpasst um Nvidia damit einen Marktvorteil zu verschaffen.
Das ist aber eigentlich immer der falsche Weg gewesen und hat sich nie dauerhaft am Markt gehalten, erst wenn man die Technik dem Gegner lizensiert hat, kam so etwas durch. Vor allem ist es das schlimmste, dass man als Kunde letztlich der Gearschte ist, man sieht ja in einigen Themen und Posts hier im Forum, dass sich Kunden für einen G-Sync Monitor entschieden haben, jetzt ein echtes moralisches Problem bekommen, AMD liefert (voraussichtlich) die besseren Karten ab und man ist evtl. an nicht verfügbare Nvidia Karten gebunden, weil man vor einigen Jahren einen Fehler gemacht hat. PhysX ist ein weiterer Fall, wo Nvidia eine in meinen Augen sehr vielversprechende Technik kaputt gemacht hat.
DLSS ist schon seit Anbeginn eine sehr interessante Technik, wird sich in meinen Augen aber nicht am Markt durchsetzen können, auch wenn einige dies nicht wahr haben wollen. Der Gaming Markt ist ja aufgeteilt auf drei Bereiche, Mobil (hier recht uninteressant im Moment), Konsolen und PC, denke von den interessanten Bereichen ist der Konsolenmarkt volumentechnisch am Größten (fürfte mit deutlichem Abstand führen), wofür entwickeln jetzt die Publisher ihre Spiele? Ich denke mal, zu großen Teilen dürfte dies für die Konsolen sein um dann einen Port auf den PC zu bringen, selbst Shooter (wo ich bis heute nicht verstehe, wie man die auf Konsole spielen kann) werden mittlerweile als PC Port veröffentlicht. Warum sollte also ein Publisher hingehen und nun DLSS Support integrieren, bzw. warum tut er es. Ganz einfach, Nvidia zahlt Geld dafür. Ist aber ein Modell was nicht lange gutgehen wird und wie z.B. bei PhysX gesehen, schneller als einem lieb ist scheitern wird.
Ist hier aber gar nicht als Shitstorm oder ähnliches gegen Nvidia angelegt. Ich will nur klarmachen, dass man in der aktuellen Generation das (vermeintlich) bessere Featureset hat, was aber vermutlich in einem oder zwei Jahren bereits niemanden mehr interessieren wird. Die RT Leistung ist für aktuelle Karten sehr gut, aber ich denke wir sind uns alle einig, letztlich immer noch viel zu gering um einen nennenswerten Einfluss zu haben. DLSS ist nicht flächendeckend verfügbar, wenn meine Tabellen noch stimmt, gibt es aktuell 8 Spiele mit DLSS 2.0 Support, was einfach uninteressant ist! Das für mich aber entscheidene Thema ist letztlich der Speicher, mit 10GB wird man einfach in naher Zukunft schon in Bereiche kommen wo limitiert wird, ich meine hier gab es doch schon einen kurzen Test, wo zwei oder drei Beispiele waren die jetzt schon limitieren (Wolfenstein YoungBlood), sind aktuell noch extreme Szenarien und für den ganz aktuellen Vergleich in meinen Augen irrelevant, aber es zeigt in meinen Augen wo die Reise hingeht. 60% mehr VRAM sind einfach eine Macht und ich denke NV hätte hier lieber auf 16GB GDDR6 statt 10GB GDDR6X setzen sollen, es wäre sinnvoller gewesen.
Alles in allem klingt es bei den meisten so, dass man mit AMD zu 100% zufrieden ist, was auch stimmig ist, wenn man sieht wo man vor 12 Monaten mit seinen Karten stand. Man konnte gerade so, mit neuester Fertigung, mit fast 1 Jahr alten Karten nicht mithalten (2080Ti) und hat die Leistungskrone schon seit längerem nicht mehr im Ansatz halten können. Man lag eigentlich zwei Generationen im Hintertreffen. Dafür ist BigNavi (und da bin ich auch ohne unabhängige Tests sicher) ein wahrlicher BigPlayer geworden und hat AMD mit einem Schlag zurück in die Erfolgsspur geholt. Gerade in Verbindung mit einfach nur guten CPUs (die so ja vor Zen auch niemand erwartet hätte) zeigt es, dass der Underdog hier in zwei Bereichen derzeit einfach alles richtig macht und auch Glück hat, das die Konkurenz sich auf ihren Lorbeeren ausgeruht hat.
Aber man darf in meinen Augen eines nicht vergessen, hat AMD effektiv eine gute Karte gebracht? Nein, haben sie nicht. Denn auch BigNavi liegt in einem Effizienzvergleich zu Turing nicht gut da und man hat letztlich Glück, dass Nvidia quasi keinen Nutzen aus einer besseren Fertigung erzielen kann. Für mich sind beide Karten nicht wirklich gut! Kommt ein bischen überraschend und ich weiß, dass ich damit anecken werde. Aber der Benchmark ist für mich Turing, die aus der (klar, mehrfach generalüberholten) 14nm Fertigung offensichtlich eine herausragende Effizienz holen konnten. Die 3080 hat einen Effizienzvorteil von lediglich 5%, der Rest kommt aus dem Mehrverbrauch, BigNavi wird voraussichtlich etwas mehr als 10% vor der 2080Ti liegen, gut ist das nicht, wenn man bedenkt, dass man einen FullNode hatte und alleine dieser wohl bis zu 50% Effizienz holen kann. Bei AMD ist dies zu erklären, man hat jahrelang eine veraltete Architektur am Leben erhalten und die "Neuerungen" waren allesamt nicht brauchbar (Vega). Bei Nvidia ist dies in meinen Augen nur zu erklären, dass man nicht damit gerechnet hat, dass AMD dieses Jahr die Leistung einer 2080Ti so deutlich toppen kann und man nichts gemacht hat, vieleicht ist es aber auch Grundlagenforschung gewesen und man wird in der nächsten Generation einen deutlichen Anstieg sehen.
Klar ist, man wird jetzt erstmal unabhängige Tests abwarten müssen, aber ich kann für mich schon vorstellen, dass statt 3900X (der irgendwie nicht günstiger wird), ein 5800X ins System wandert, kombiniert mit B550 und einer 6800 (XT?). Die 6800XT finde ich irgendwie preislich attraktiver als die non XT, immerhin 12 CUs mehr, was schon deutlich ist und wenn ich die 72CUs dann mit 1800Mhz takte, sollte ich mit der Leistung auch deutlich unter 300W liegen. Aber wie gesagt, Tests abwarten