Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

@raPid-81,
Echt, du vergleichst ein Impfstoff mit Grafikkarte?
Und ich Missgönnen keinen ein Gewinn und ich hab das auch nicht gesagt.
Ich behaupte das Upscaling aus 720p auf 2160p gestreckt wird und diese als mehr Leistung angegeben wird.
Das Spiele die Mikrotransaktionen beinhalten werde ich nicht kaufen.

Ich projiziere nur Deine Forderung auf andere Unternehmen. Sollte ja für alle gleich sein, oder willst Du nur bei GPU Herstellern dass sie ihre Forschung umsonst hergeben? :schief:

Es SIND ja auch mehr FPS die dabei am Ende rauskommen. Alle meckern über RT und die FPS Kosten, obwohl damit das Bild physikalisch korrekter dargestellt wird. Also will man keine FPS aufgeben und mehr Strom verballern für eine korrekte Lichtberechnung, aber man will auch kein Upscaling um mehr FPS zu erhalten und weniger Strom zu verbrauchen? Was will man denn nun?

DLSS liefert das aktuell beste AA und ist im Quality Mode kaum von nativ zu unterscheiden. Ich nutze es in jedem Spiel wo es verfügbar ist. Aber jedem das seine, ich finde es nur schlimm wie hier wieder ein technischer Fortschritt gehatet wird. Sobald AMD dasselbe mit FSR 3.0 bringt ist es dann wieder "geil", gell? ;)
 
Find es eh faszinierend wie mit dsll und co so ne Welle geschoben wird...
Den meisten würde es bestimmt nichtma auffallen wenn man heimlich die 4k Auflösung auf 1080P setzt zbsp...Viel mehr Frames kaum Grafische Einbußen... Und das ist in Prinzip doch genau das was DSLL und Co macht...
 
Find ich ehrlich gesagt in Ordnung wenn der Preis nicht so hoch wäre.
Was groß anderes wird hier doch gerade gar nicht an den Pranger gestellt, der Preis in Verbindung mit der Leistung in Verbindung mit dem Namen!

Faktisch liegt die 4080 12GB irgendwo zwischen einer 60Ti und einer 70, genannt wird sie aber 80 und preislich liegt sie bei den Titans! Eine 3080Ti kostet derzeit noch 1.000 EUR, eine 4080 12GB soll dann nochmal 200 EUR mehr kosten? Warum genau?

Man sollte hier bitte nur nicht so tun, als ob Nvidia den heiligen Gral geschaffen hat, DLSS muss immer noch erst einmal einprogrammiert werden, woran es derzeit eben noch hapert, Ende Q1 22 hat GameStar mal eine Liste rausgebracht, da sind 124 Spiele mit DLSS Unterstützung enthalten, davon werden einige noch rausfallen, die nichtmal DLSS2 bekommen haben und selbst von denen mit 2er Funktion werden nicht viele mit 3 kommen. Damit will man aus DLSS 3 jetzt aber das Killerfeature schlechthin machen, ja ein gutes Feature wird es, aber es rechtfertigt nicht diese Art von Aufpreis.

Ich hab jetzt wirklich viel nachgedacht und noch weiter gelesen, seit den Bekanntwerden der Karten, klar warte ich noch auf echte Benches, aber das was ich bisher gesehen habe, lässt mich (wie schon beim Vorgänger) zum Schluss kommen, dass Nvidia derzeit keine gute Arbeit leistet! (ja, ich weiß, dass dies eine gefährliche Aussage ist) Aber man hat bereits beim Vorgänger es nicht geschafft einen signifikanten Vorteil gegenüber dessen Vorgänger auszuarbeiten, im Wesentlichen hat man das Powerlimit erhöht und den Fertigunsgvorteil zum "Stromsparen" genutzt. Damit hat man dann "beeindruckende" Gewinne erzielen können, genauer geschaut war das aber nur blenden und nicht brillieren. Nach allem was wir nun gesehen haben zur kommenden Gen, wird es hier sehr ähnlich ablaufen, der Vorteil der Fertigung wird auf 30% Effizienz geschätzt, der Zuwachs aus der Architektur wird aber in realen Szenarien nicht viel größer sein. Du hast es selber geschrieben, 21% weniger Verbrauch bei nahezu identischer Leistung! Von 8 auf 4 nm ist das schon fast zu wenig um noch ein "ausreichend" zu bekommen, das geht schon sehr in Richtung "mangelhaft".

Softwareseitig macht NV einen guten Job, gar keine Frage, allerdings ist die Nutzbarkeit von RT (gut, weniger Software mehr Hardware) und DLSS immer noch gar nicht so weit verbreitet wie die meisten denken. DLSS3 bspw. (wird ja schon hier angedeutet) wird zum Release quasi nicht existent sein (klar, ein paar Fanboys werden nur das Spiel spielen was es nutzt, seit Jahren schon!), RT ist für mich bisher nicht über das Experimentalstadium hinaus gekommen. Es nützt mir (subjektives mir) nichts, lieber höher skalierende Texturen, denn berechnetes Licht!

Aber Nvidia ist dann doch eine Hardwareschmiede und in dem Bereich ist es nach dem Kracher 2xxx, sowohl mit Version 3xxx als auch 4xxx (zumindest nach aktuellem Stand) eher schwer enttäuschend. Mit 3xxx hatte man viel Glück, dass AMD einen gewaltigen Rückstand aufzuholen hatte, mit RDNA3 kann man aus NV Sicht nur hoffen, dass man bei AMD auch nicht nochmal einen ähnlichen Sprung wie RDNA2 hinbekommt (die für mich schon das bessere Stück Hardware waren)
 
Ich bin da noch ziemlich skeptisch, hinzu kommt die Frage wofür man Zwischenbilder eigentlich braucht als Spieler. Fps will man ja wegen geringer Eingabeverzögerung und glatter Bildwiedergabe.
Es geht nur darum, dem Auge zu schmeicheln, was in vielen Spielen (gerade nicht kompetetiver Natur) schon ausreichend wäre um zwischen Spielbar und unspielbar zu entscheiden. Ein Spiel mit 24 fps ist in meinen Augen unspielbar, weil man mit dem Auge am Bildschirm hängen bleibt, das wird mit hinzuerfundenen Bildern nicht passieren. Anno bspw. (gut nicht unbedingt GPU limitiert) würde auch kaum vom Inputlag profitieren, da ist es fast egal, ob 100 oder 40fps.
 
Also ich habe mir die 3090 vor allem wegen Rtx und 4K gekauft. Nach jetzt fast 2 Jahren ist mir DLSS wichtiger.

Ich spiele in 4k auf 32 zoll und mit dem Quality mode kann man wirklich nahezu keinen Unterschied feststellen.

Ruhigere Szenen können schon mal kleine Artefakte aufweisen. Aber ich bin mittlerweile absolut davon überzeugt und für mich ist es tatsächlich das wirkliche Killer feature.

Dlss 3 finde ich extrem heiß, und wäre tatsächlich ein kaufgrund.
Aber die neuen Scalper Preise nein danke!!
 
Was groß anderes wird hier doch gerade gar nicht an den Pranger gestellt, der Preis in Verbindung mit der Leistung in Verbindung mit dem Namen!
Hier wurde DLSS 3.0 als "Blendwerk" hingestellt. Das ist ziemlich übertrieben, findest Du nicht?

Faktisch liegt die 4080 12GB irgendwo zwischen einer 60Ti und einer 70, genannt wird sie aber 80 und preislich liegt sie bei den Titans! Eine 3080Ti kostet derzeit noch 1.000 EUR, eine 4080 12GB soll dann nochmal 200 EUR mehr kosten? Warum genau?
Jetzt lass mal die Kirche im Dorf, Preis einer Titan, ist klar... Übertreib noch mehr!
Dass die kleine 4080 zu teuer ist für die Leistung bestreite ich (noch sonst jemand hier) auch gar nicht. Sie liefert 3080ti Leistung zur ungefähr selben UVP, wenn RT oder DLSS 3 dazu kommen ist sie schneller.

Man sollte hier bitte nur nicht so tun, als ob Nvidia den heiligen Gral geschaffen hat, DLSS muss immer noch erst einmal einprogrammiert werden, woran es derzeit eben noch hapert, Ende Q1 22 hat GameStar mal eine Liste rausgebracht, da sind 124 Spiele mit DLSS Unterstützung enthalten, davon werden einige noch rausfallen, die nichtmal DLSS2 bekommen haben und selbst von denen mit 2er Funktion werden nicht viele mit 3 kommen. Damit will man aus DLSS 3 jetzt aber das Killerfeature schlechthin machen, ja ein gutes Feature wird es, aber es rechtfertigt nicht diese Art von Aufpreis.
Man sollte hier bitte aber auch nicht so tun als würde Nvidia keine "fancy new tech" bringen.

Raytracing auf Consumer Hardware ist schon ein großer Sprung, sowas ging früher nur auf Profi-Render-Maschinen. Und da dann auch nicht unbedingt in Real-Time in der Qualität.

DLSS (bzw. Upscaling) ist schon ein Gamechanger meines Erachtens nach. Alle Hersteller setzen darauf, das impliziert dass die auch davon überzeugt sind. Ich sehe auch keinen Unterschied zwischen dem DLSS 2 und 3 Release, beides wurde seitens Nvidia beworben. Die UE und Unity Engine haben noch nicht so lange native DLSS Unterstützung, heißt erst die kommenden Spiele werden es unterstützen. Merkt man ja jetzt bereits, es kommt kaum ein AAA Spiel mehr ohne raus.


Ich hab jetzt wirklich viel nachgedacht und noch weiter gelesen, seit den Bekanntwerden der Karten, klar warte ich noch auf echte Benches, aber das was ich bisher gesehen habe, lässt mich (wie schon beim Vorgänger) zum Schluss kommen, dass Nvidia derzeit keine gute Arbeit leistet! (ja, ich weiß, dass dies eine gefährliche Aussage ist) Aber man hat bereits beim Vorgänger es nicht geschafft einen signifikanten Vorteil gegenüber dessen Vorgänger auszuarbeiten, im Wesentlichen hat man das Powerlimit erhöht und den Fertigunsgvorteil zum "Stromsparen" genutzt. Damit hat man dann "beeindruckende" Gewinne erzielen können, genauer geschaut war das aber nur blenden und nicht brillieren. Nach allem was wir nun gesehen haben zur kommenden Gen, wird es hier sehr ähnlich ablaufen, der Vorteil der Fertigung wird auf 30% Effizienz geschätzt, der Zuwachs aus der Architektur wird aber in realen Szenarien nicht viel größer sein. Du hast es selber geschrieben, 21% weniger Verbrauch bei nahezu identischer Leistung! Von 8 auf 4 nm ist das schon fast zu wenig um noch ein "ausreichend" zu bekommen, das geht schon sehr in Richtung "mangelhaft".
Wir werden ja sehen wie RDNA3 abschneidet. Ähnliche TDPs sind ja bereits geleaked worden. Ich bin gespannt was AMD bringt, zaubern können die aber auch nicht.

Softwareseitig macht NV einen guten Job, gar keine Frage, allerdings ist die Nutzbarkeit von RT (gut, weniger Software mehr Hardware) und DLSS immer noch gar nicht so weit verbreitet wie die meisten denken. DLSS3 bspw. (wird ja schon hier angedeutet) wird zum Release quasi nicht existent sein (klar, ein paar Fanboys werden nur das Spiel spielen was es nutzt, seit Jahren schon!), RT ist für mich bisher nicht über das Experimentalstadium hinaus gekommen. Es nützt mir (subjektives mir) nichts, lieber höher skalierende Texturen, denn berechnetes Licht!
Und die "Fanboys" die es dann in einem Spiel nutzen freuen sich über viele FPS während "die anderen" eben mit weniger auskommen. Wo ist das Problem?

Ich finde korrekte Lichtdarstellung durchaus wichtig, dynamische Lichtverhältnisse schaffen eine ganz andere Atmosphäre als höher aufgelöste Texturen das jemals könnten. Das ist mein persönliches Empfinden.

Aber Nvidia ist dann doch eine Hardwareschmiede und in dem Bereich ist es nach dem Kracher 2xxx, sowohl mit Version 3xxx als auch 4xxx (zumindest nach aktuellem Stand) eher schwer enttäuschend. Mit 3xxx hatte man viel Glück, dass AMD einen gewaltigen Rückstand aufzuholen hatte, mit RDNA3 kann man aus NV Sicht nur hoffen, dass man bei AMD auch nicht nochmal einen ähnlichen Sprung wie RDNA2 hinbekommt (die für mich schon das bessere Stück Hardware waren)
Ich finde Ampere weiterhin ziemlich gut. Ich kann alle Regler nach rechts schieben, das wollte ich haben und hab es für <1000€ bekommen.
 
Man weiß noch gar nicht wie stark das CPU Limit bei den Spielen ist. Die Spiele sind mit einem 12900K getestet worden und nicht mit einem 7950X oder 13900K.
 
Bei den aktuellen Spielerzahlen von Cyberpunk 2077 wird DLSS 3 das Zugpferd für Nvidia. Kommt das plötzlich alles durch die Neflix Anime Serie?
 
Bei den aktuellen Spielerzahlen von Cyberpunk 2077 wird DLSS 3 das Zugpferd für Nvidia. Kommt das plötzlich alles durch die Neflix Anime Serie?
Ja, die Serie hat die Verkaufs- und Spielerzahlen stark steigen lassen. Ich kann die Serie auch nur empfehlen, wenn man auf Anime steht und Cyberpunk / Shadowrun mag, oder CP2077 gezockt hat, ist sie richtig cool.
 
Bei den aktuellen Spielerzahlen von Cyberpunk 2077 wird DLSS 3 das Zugpferd für Nvidia. Kommt das plötzlich alles durch die Neflix Anime Serie?

Von meinen Umfeld ja mich eingeschlossen. Das Spiel läuft aber langsam auch so wie es sein sollte.
Der neue RT Modus für die RTX4000er Serie ist sicher ein schöner Marketing Move von Nvidia aber viele werden das Game wohl so nicht zu Gesicht bekommen. Außerdem bringen die schönsten RT Effekte wenig wenn das LOD weiterhin so Pop in anfällig bleibt.

Gibt wichtigere Baustellen am Spiel als noch bessere RT Effekte aber schaden tut es natürlich nicht :)
 
Mir dreht sich immer wieder der Magen um, wenn im Zusammenhang von DLSS3(X) von "GPU-Leistung", "Leistungsexplosion" oder "4 mal so schnell wie letzte Generation" gesprochen wird.

Unbedarfte Leser könnten glauben, die Karte könne wirklich 4 mal so schnell rechnen.
Dabei denkt sie sich, wie ein Fernseher an einer Konsole, lediglich Bilder dazu.

Das was man bisher dazu gesehen hat, sah auch noch schlimm aus
und wenn jetzt jmd. diese Karten zum Arbeiten kauft, weil 4 mal so schnell,
dann wird bald die Ernüchterung kommen,
gerade mal 50- 60% schneller.

Ich finde, man sollte das Thema beim Namen nennen.
Künstlich und weit entfernt von perfekt, aufgeblasene FPS, bei unverändert grpßer Latenz mit der neuen Gen.,
oder etwas freundlicher,
... sry mir fällt da nix freundlicheres ein.

Mich würde mal interessieren was passieren würde, stellte AMD ihre Benches mit FSR2.X zum Vergleich mit der letzten Gen. online. Das würde sicher etwas weniger gefeiert.
 
Zuletzt bearbeitet:
50-70% ist allerdings auch eine Hausnummer.
Und die 3090 TI durfte ja auch 450W ziehen.

Die Architektur ansich gepaart mit TSMC ist schon richtig cool!
Aber mehr als 250 TDP finde ich extrem hart...
 
In zwei Wochen kommt für Nvidia das Erwachen, die 4090 wird sicher von Enthusiasten gekauft aber die 4080er wahrscheinlich nicht im erwarteten Umfang!
Bleibt nur eins zu sagen: "Man erntet was man sät" und Nvidia hat sich wohl bei der 3080 gewaltig versäht!
Selber schuld!
 
Wenn ich schon wieder in den Grafiken "relative performance" lese, schwillt mir der Hals. In der Realität sieht es doch so aus, dass alles was nach der 10er Serie kam, nur eine vergrößerte Version dieser ist. Oder erklärt mir mal NVIDIA wie es sein kann, dass jedes Jahr seit der 1080ti die grafik-Leistung und der stromhunger direkt proportional gestiegen sind.
Die bohren genauso mit dem Finger im Po, wie Intel mit der 14nm++++++ Architektur. Und für eine 70er Karte die vielleicht 10% stärker wie meine 1080ti ist, soll ich dann im retail wahrscheinlich 1200-1400€ hinblättern.
Die haben doch den Schuss nicht gehört.
Ich wünsche nvidia möglichst niedrige verkaufszahlen, jetzt wo die kryptoblase am bröckeln ist und die stromkosten durch die Decke gehen.
 
Zurück