Läuft DLSS 3 auf der Geforce RTX 3000 (Ampere) und RTX 2000 (Turing)?

Neue Karten haben seit jeher neue Features die eher selten auch für alte Karten kommen. T&L war mal ein großer Schnitt von nVidia und S3, DX9 auf 10 und 10c oder weiß der Kuckuck hatte immer wieder neue Feature die altes links liegen lies.
Um deinen Vergleich zu bedienen Laufschuhe mit Spikes benötigt Bolt, Otto Normalo wird hingegen damit eher stolpern.
DLSS2 geht doch auch bereits auf GTX Karten nicht, also gerade den schwachbrüstigen Teilen. Ich kann mir schon vorstellen dass es halt die Generation oder Anzahl Tensorcores braucht. Ich würde mal ohne Ahnung meinen, dass mit nicht aktiviertem RT DLSS3 wohl gehen wird, nur wenn nV nicht will und die Konkurenz mit FSR oder XeSS noch nicht so weit ist, dann kann man eben mehr wie die verlangen und das auch noch auf die eigenen, und nur neuen Karten einschränken.
Nvidia ist berühmt-berüchtigt für ihren proprietären Mist! Zumal dieses Feature nicht in der Hardware integriert ist, sondern eine reine Software-Lösung, du vergleichst daher Äpfel mit Birnen. AMD und Intel beweisen, dass es auch anders geht und sogar Herstellerübergreifend. Vsync ist deswegen in der Versenkung verschwunden. Nvida macht ein auf Möchtegern-Apple. Geht aber nicht, weil sie kein komplett eigenes Ökosystem haben.
 
Diese habe ich ja als "unrecht" bezeichnet, ob es 50% sein werden? Wir werden sehen, die gezeigten Titel sind ziemlich sicher (und das weißt du auch ganz genau) der "optimalfall" und daher gehe ich von unter 50% aus, allerdings auch weit entfernt von 25%!
Unsinn. Zahlen lügen nicht:

RTX 4090 vs. 3090.JPG

Quelle: Techpowerup (links RTX 4090, rechts RTX 3090; jeweils Founders Edition)

Alleine von der Anhebung des Taktes (32,74%) und der Erhöhung des SM-Counts (35,94%) resultieren schon fast 70% mehr Rohleistung. Logisch kann man das nicht 1:1 auf jedes Game/ jede Engine ummünzen, aber wenn man Vergleiche mit den jeweiligen Flagship-Vorgängern von Pascal (GTX 1080 Ti) und Turing (RTX 2080 Ti) anstellt, sind das Welten, die da dazwischenliegen. Die RTX 4090 wird brutal - und das ist kein Hype, sondern eine nüchterne Analyse der Zahlen.
 
Ganz einfach... nur in nativer Auflösung und fertig. DLSS und Co. muss man als Einzeltests behandeln.
Ist aber schwierig, denn unter Umständen beraubt man damit einer Karte (nehmen wir mal an DLSS 3 sieht fantastisch aus) einen wichtigen und wahrscheinlich teuer entwickelten Vorteil! Finde ich nicht gut! Ja, zusätzliche Einzeltests sind sicherlich erstmal ein weg, aber wie schon gesagt, sind ja so viele Facetten dabei, Latenz, Bildqualität, die unterschiedlichen DLSS Modi, die sich ja mal eben multipliziert haben, usw.

So liefern die als universelle Einschätzmöglichkeit gedachten GPU Ranglisten kaum noch nennenswerte Infos, ja, wenn alles aus ist, ist Graka 1 so schnell und Graka 2 so schnell. Aber was ist dann eben mit den exklusiven Features (ob ich das gut finde oder nicht, ist eine andere Sache, es ist aber so), DLSS2 war für mich eine Zeit lang das Killerargument für NV (leider erst nachdem ich schon AMD gekauft hatte), was ist bspw. mit dem Verbrauch von Karten? Alles und alles wird dann in irgendwelche ZUsatz

Alleine von der Anhebung des Taktes (32,74%) und der Erhöhung des SM-Counts (35,94%) resultieren schon fast 70% mehr Rohleistung.
82,58 TF FP32 Leistung bietet die 4090
35,58 TF FP32 Leistung die 3090
10.07 TF FP32 Leistung die 2080

Dennoch war die 3090 nicht dreimal so schnell! Die 6950XT bietet 23,8 TF FP32 und die 3090 war auch nicht um 50% schneller! Ja, ich weiß, dass die Änderungen zwischen der 2080 und 3090 dahingehend eine Verdoppelung der FP32 Leistung brachten, welche aber auf der Straße effektiv nicht zu beobachten war.

Aber der Blick auf reine technische Daten reicht hier leider nicht im Ansatz aus, denn bei der Rohleistung müssten die "nicht" optimierten Spiele einfach 130% schneller laufen, was sie ja selbst lt. NV nicht tun! Wie kommt das? Irgendwas muss da doch wieder schief gelaufen sein. Erfahrungsgemäß zeigt das NV Marketing immer den BestCase und daher sagt der gesunde Menschenverstand, dass die 55% ohne DLSS und Co. für diesen Bereich eher das Optimum sein müssen. Sie ziegen ja nicht freiwillig 55% wenn sie 100% zeigen könnten!
Alleine von der Anhebung des Taktes (32,74%) und der Erhöhung des SM-Counts (35,94%) resultieren schon fast 70%
Klugscheißmodus:
sind sogar 80,44%! Ist ja nicht nur zu addieren, sondern zu multiplizieren, denn auch die neuen Counts profitieren vom neuen Takt
 
aber wie schon gesagt, sind ja so viele Facetten dabei, Latenz, Bildqualität, die unterschiedlichen DLSS Modi, die sich ja mal eben multipliziert haben, usw.
ja und genau deshalb macht erstmal nur ein Test in nativer Auflösung und der Rohleistung der Karte Sinn. Schon weil einige Spiele überhaupt keine oder nur eine dieser Techniken eingebaut haben. Du widersprichst dir also selbst.
Klar könnte man Alles genaustens testen und alles Mögliche und jede mögliche Technik und alle verfügbaren Karten gegeneinander antreten lassen, große Tabellen und Diagramme erstellen usw. usw. Das wäre dann der perfekte Test und würde vermutlich hunderte von Mitarbeiter erfordern um diese ganzen Dinge innerhalb von ein paar Tagen oder wenigen Wochen zu testen.
 
Zurück