Läuft DLSS 3 auf der Geforce RTX 3000 (Ampere) und RTX 2000 (Turing)?

Reine Verarschung wie auch schon vorher bei RT und Dlss. Kennen wir doch schon zu genüge.
Ich verstehe bis heute nicht, Warum HighEnder sich Gedanken um diese Fuffelfix Lösungen machen und das Zeug auch noch feiern.

Weil Minecraft in 8k nativ trotzdem nicht hübscher ist als Spiderman in 1440p mit Upscaling?

UE5 Demos zeigen doch jetzt schon dass selbst Top 3000er und 6000er kein nativ 4k bis 60 Bilder schaffen wenn viele Effekte mit eingebettet sind. Braucht man da schon die Epic eigenen TAAU Lösung.

Wenn man aufhört Pixel zu zählen und zu 90% eh kein unterschied in Bewegung zwischen DLSS Quality und FRS 2.x sieht warum dann nicht die gewonnen Leistungsreserven woanders reinstecken oder gar Strom sparen bevor GPu immer auf Anschlag läuft.

Soll doch Jeder sein Game einstellen am PC wie er es bevorzugt. Der eine will Effekte, der andere Auflösung und Kantenglättung und der Nächste will nicht unter 144fps spielen.

Grafikoptionen (sowas sind DLSS und FSR) sollte eigentlich jeder PC Gamer verstehen und nachvollziehen können.


Unabhängig ob DLSS 3.0 jetzt gut ist oder schlechtere Bildergebnisse liefert als DLSS 2.x Solange man die Version einstellen kann die man bevorzugt.
Wer es nicht will und nativ spielt der schaltet es erst gar nicht ein. Vorhandensein der Option im Menü bringt einen schon nicht um.^^

Gibt ja nicht nur High End Gamer für die sowas gedacht ist.
 
Naja, bei Einstiegspreisen von 1100€ würde ich Mittelklassegamer jedenfalls Mal ausschließen
Bei DLSS 3.0 mag es momentan stimmen. Aber DLSS 2.x (erst recht FSR)ist ja noch nicht aus der Welt und geht auch auf einer 2070 wie 3060.

Wurde ja scheinbar allgemein auf die Upsclingmethoden bezogen. Egal ob man dann DLLS Version X, FSR oder TAAU nimmt. Dabei geht es immer um Rederauflösung zu sparen und Leistung halt woanders zu nutzen oder eine GPU auch bei moderneren Titeln länger zu betreiben. Steigt ja nicht Jeder all 2 Jahre auf das nächste Top-Modell um.

Darum finde ich es als Option schon wichtig. Gerade wenn du Spiele hast wo die ersten 2 Level problemlos laufen aber später die Rechenlast steigt und man wieder ins Menü muss um anzupassen. Hast halt weniger mit den Upscalern da mehr Leistungsreserven oft da sind.
 
Reine Verarschung wie auch schon vorher bei RT und Dlss. Kennen wir doch schon zu genüge.
Ich verstehe bis heute nicht, Warum HighEnder sich Gedanken um diese Fuffelfix Lösungen machen und das Zeug auch noch feiern.
warum?

Bryan Catanzaro sagt, DLSS 3.0 bringt kaum was auf RTX 3000. Als Wissenschaftler sollte er seine Aussage empirisch belegen können. Dann müsste er genau die FPS angegeben können.
Genau das tut er nicht. Ein Indiz, dass da auch viel Marketing dahinter steckt. Ansonsten reden wir von 25 Prozent Mehrleistung von RTX4000 zu RTX 3000. Bei doppelten Preisen.

Ich hoffe auf AMD am 3. November. Vielleicht kommt ja FSR 3.0.

Im Moment bin ich nicht bereit 1400 Flocken für die 4000er zu zahlen.

Dann lieber eine GTX 3080 für 700 Euro im Dezember....(habe eine GTX 1070 die noch einigermaßen gut in Full HD läuft .
 
Zuletzt bearbeitet:
Ich denke DLSS 3 wird für die älteren Generationen frühestens dann freigeschaltet, wenn es RTX 40xx einen entsprechenden Umsatzboost beschert hat. Ein Schelm, wer Böses dabei denkt.

Grüße

phia
 
"Läuft DLSS 3 auf der Geforce RTX 3000 (Ampere) und RTX 2000 (Turing)?"

Natürlich NICHT ! Sonst würde doch "keiner" die total total überteuerten 4000`er kaufen wollen/müssen ... :klatsch:

MfG Föhn.
Mich hätte jetzt eher mal interessiert ob die 4080 12GB die 3080 ti in FPS / RTX deutlich schlägt oder nicht
Ja Logo ! Um den Faktor 4 !! Und wenn den Monitor auf S/W stellst, dann gibt´s noch ne Schippe drauf. Versprochen !!! :-P

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Natürlich läuft es,aber es soll nicht laufen den jemand will das nicht.Und nein es ist nicht der Onkel aus Russland,sondern der Böse vom anderen Ufer.?
 
Ist mir alles viel zu viel Rand beim "Profi"-abgelichteten "unsere neueste Pizzakreation"s-Bild! Einfach mal gucken, was die Realitätstest bei PCGH ans Licht fördern. Ob die Doom-FPS dann endlich mal die 1000er Marken knacken? :ugly:
Gut finde ich, dass bei DLSS allgemein versucht wird es nicht ausschließlich auf nur einer Karte oder nur einer Gen in der entsprechenden Iteration zu "proprietärisieren". Ob wir das AMD mit FSR zu verdanken haben? DLSS 2.x sah aber schon gut aus!
 
Das Problem bei DLSS 3 ist doch, dass die Leistung entweder reicht, ein Zwischenbild zu berechnen und damit die Framerate zu verdoppeln, oder sie reicht nicht, dann bringt es gar nichts.

Dass es nur 10 fps bringt, gibt es nicht.

Was sich unterscheiden könnte, ist die Qualität des Zwischenbildes, und - wahrscheinlicher - wieviel zusätzlichen Eingabelag man bekommt. Wenn die Berechnung des Zusatzbildes zu lange dauert, wird sich das im Lag bemerkbar machen.
Ok, so tief bin ich in der Materie nicht drin. Ich weiß nur, das FSR 2.0 bei alten Karten auch nicht viel bringt. Ein paar Frames mehr, aber besser wie nichts :-)
 
Strom sparen kann man auch einfach, in dem man mit Undervolting arbeitet und/oder die FPS limitiert.
Und Du kannst noch mehr Strom einsparen wenn Du die FPS limitierst und zusätzlich DLSS nutzt! Denn Deine GPU schafft die von Dir angepeilten FPS dann deutlich einfacher. Last geht runter, Stromverbrauch geht runter. DLSS und co. sind Klasse.

Wegen Bildqualität zu meckern ist meiner Meinung nach Unsinn, wie sieht denn bitte TAA aus oder andere dinge wie FXAA. Kann man doch direkt vergessen. Und ob es hier und da zu Artefakten kommt bei FSR bzw. zu 'Smearing' hier und da bei DLSS* oder eben das Spiel ohnehin mit 'Film Grain' oder 'Chromatische Aberration' und dergleichen das komplette Bild ruiniert ist dann auch egal.

DLSS 3 klingt jedenfalls erstmal gut, auch wenn ich mir erhofft hatte das es ein Treiber Feature wird, sprich man sagt Spiele sollen immer in zb. 720p gerendert und dann auf 1440p hochgezogen werden mittels KI. Aber das hätte vermutlich folgen für das GUI und ähnliches.

Wenn man die FPS aber dank DLSS 3 von 60 auf 120 praktisch verdoppeln kann, man keinen Nachteil durch den Input Lag hat dank Reflex und man sowieso mit dem Gamepad spielt, dann klar, immer her damit. 120 FPS sehen schöner aus als 60. Bin also erstmal positiv gestimmt.

Wenn Nvidia sagt das DLSS 3 auch auf den 3000/2000er laufen würde aber es praktisch keinen Mehrwert hat, dann kann ich die abgrenzung schon verstehen. Vermeidet halt berichte das DLSS 3 überhaupt keinen Frame mehr bringt auf einer 3080 im vergleich zu DLSS 2.

Auf kurz oder lang wird es vermutlich einfach nur noch DLSS genannt werden, die Features kann man dann einzeln einstellen. Wie bei Raytracing (Globale Beleuchtung? Schatten? Umgebungsverdeckung? usw.) wird es dann vermutlich in den Spielen eine DLSS Rubrik in den Optionen geben (Frame Generation? Reflex? Qualität? usw.) und je nach Karte ist es dann eben einfach ausgegraut. Wäre zumindest am einfachsten. Ich sitz noch auf einer 1080 Ti, bei mir ist immer alles ausgegraut! :ugly:

Ich werde wohl bei der 4090 zuschlagen, es ist an der Zeit nachdem ich 2000er (gewollt) und 3000er (UVP Debakel) ausgelassen habe. Solange mich die Tests überzeugen natürlich. Wie läuft sie zb. bei einem Powerlimit von 150 Watt oder ist der Idle Verbrauch gering? Offenbar gibt es auch weiterhin kein Gsync über HDMI, ärgerlich und zumindest die Founders Edition hat nur 1x HDMI also eh kein Clone Modus mit Gsync über HDMI.

Auf AMD zu warten wäre mittlerweile für mich unnütz. Alleine der Verzicht auf CUDA (und vor allem auf die Tensor Kerne) kommt für mich schon nicht mehr in Frage. Bin in der Nvidia Falle. Was solls. :-P

*Ist bekannt ob Nvidia mit DLSS 3 'Smearing' beseitigen konnte?
 
Naja, viele meiner Spiele die ich so zocke haben kein RT/DLSS. Und wenn, dann bestimmt die nächsten Jahre kein DLSS3.
Ist schon traurig, vor 2Jahren gab's immerhin Doom FPS in relativ Angabe - ohne RT, DLSS etc aktiv - und die Angaben haben sich auch auf andere Spiele übertragen lassen.
Dieses Mal ist man bzgl Leistung der Karten genauso schlau wie vor der Ankündigung.
Dass sie keine FPS Vergleiche ohne RT, DLSS zeigen lässt eh schon vermuten, wo die Reise hingeht. Die 4080 12G liefert Wal roh 20% mehr FPS als ne 3080 bei UVP Steigerung von wv %? Lächerlich, lass mich aber gern positiv überraschen
 
Wurde ja scheinbar allgemein auf die Upsclingmethoden bezogen. Egal ob man dann DLLS Version X, FSR oder TAAU nimmt. Dabei geht es immer um Rederauflösung zu sparen und Leistung halt woanders zu nutzen oder eine GPU auch bei moderneren Titeln länger zu betreiben. Steigt ja nicht Jeder all 2 Jahre auf das nächste Top-Modell um.
Ich hatte den Disput anders verstanden, nämlich insbesondere darauf, dass Nividia hier schon die ersten beiden RTX Versionen wieder ausschließt und quasi ein Zwangsupdate auf die absolute High End Klasse zielt.

DLSS ist und war für mich ein Killerargument, als die Grafikkarten explodiert sind, mit FSR2 haben wir in meinen Augen aber zumindest im Ansatz vergleichbare freie Alternative und genau hier wird für mich dann ein Schuh draus, wenn NV schon seine eigenen Vorgänger ausschließt, ist für mich FSR2 die bessere Alternative. Einfach weil es nahezu jeder nutzen kann!
Gut finde ich, dass bei DLSS allgemein versucht wird es nicht ausschließlich auf nur einer Karte oder nur einer Gen in der entsprechenden Iteration zu "proprietärisieren"
Hast du mitbekommen, dass Version 3 nur auf den 4xxxern laufen wird?
 
Genau das tut er nicht. Ein Indiz, dass da auch viel Marketing dahinter steckt. Ansonsten reden wir von 25 Prozent Mehrleistung von RTX4000 zu RTX 3000. Bei doppelten Preisen.
Die Mehrleistung wird irgendwie immer weniger. Erst 55%, dann 50%, dann 30% und jetzt sinds nur noch 25%.
Wie kommst du auf 25%, wenn es bei alten Spielen im Schnitt 55% sind und bei neuen, auf Ada angepasste Spiele, sogar 100-300%?

Naja, viele meiner Spiele die ich so zocke haben kein RT/DLSS. Und wenn, dann bestimmt die nächsten Jahre kein DLSS3.
Was zockst du denn so?
 
Zurück