Geforce RTX 4090: Nvidia mit 8K-Benchmarks mit und ohne DLSS 3

Kurze Frage an Schori. Bist Du mit dem 5800X zufrieden? Ist er schnell genug für 1440p. Ggf. Cyberpunk.
Ist er einfach zu kühlen, oder ein kleiner Hitzkopf?
Bin absolut zufrieden mit dem 5800X.
In Cyberpunk 2077 bin ich, bei rund 60 FPS, immer im GPU Limit.
Er bleibt auch mit meinem Mugen 5 unhörbar kühl, ~70°C in Cyberpunk 2077.
Habe ihn aber auch mit dem Curve Optimizer eingestellt bzw. das Powerlimit reduziert. Aber selbst mit Standarteinstellungen ist alles total unkritisch.
 
Wer zum Henker hat den überhaupt einen 8k Bildschirm? Selbst 4k ist nicht sonderlich weit verbreitet wenn man den Steam Umfragen glaubt.
Ich würde man Downsampling vermuten.
Nativ was auch immer berechnen, dann künstlich raufsamplen, mit DLSS, und dann bei der Ausgabe erst recht wieder die native Auflösung, nur einen Tick schärfer, erhalten. Wird für 4k Schirme ev. kaum mehr bemerkbar sein- ohne Lupe-, aber mit Quest&Co kann ich mir schon vorstellen das ein 8k Signal noch merklich was bringt.
 
Sagt mal Leute jetzt muss ich mal blöd fragen. Ich lese immer sehr häufig das die 4090 von der 4000 Serie die P/L beste sein soll wenn dennoch teuer. Dann liesst man das Nvidia sagt 4090 für mehr als 300 fps usw. Wo reit sich denn dann die 4080 16Gb ein?…
 
Hört sich toll an für mich!
Hatte eh vor, ältere Titel (auch 10 Jahre und mehr) mal in 8K anzuwerfen. Man kann ja einfach mal experimentieren. RDR 2 in nativem 4K flüssig, ohne DLSS - ich bin dabei!!
Dead Space Remake, Callisto Protocol, Scorn: Ich freu mich auf euch! ?
Ich würde man Downsampling vermuten.
Nativ was auch immer berechnen, dann künstlich raufsamplen, mit DLSS, und dann bei der Ausgabe erst recht wieder die native Auflösung, nur einen Tick schärfer, erhalten. Wird für 4k Schirme ev. kaum mehr bemerkbar sein- ohne Lupe-, aber mit Quest&Co kann ich mir schon vorstellen das ein 8k Signal noch merklich was bringt.
Nötig ist 8K nicht, aber in manchem Titel sichtbar (50 Zoll TV). 4K ist in meinem Fall ein deutlicher Gewinn.
 
Bei welchen Titeln beoachtest du das

Uhh dass ich was mit dlss gespielt hab ich schon ne weile her. Cyberpunk, Monster Hunter World aber besonders extrem war es in Warzone (noch auf der verdansk map) da waren Bäume bzw Baumkronen schön scharf im Stillstand und wirklich nur noch undefinierbarer Pixelbrei in Bewegung.
 
Uhh dass ich was mit dlss gespielt hab ich schon ne weile her. Cyberpunk, Monster Hunter World aber besonders extrem war es in Warzone (noch auf der verdansk map) da waren Bäume bzw Baumkronen schön scharf im Stillstand und wirklich nur noch undefinierbarer Pixelbrei in Bewegung.
Dann hast Du auch nur ältere DLSS Versionen gesehen. Da hat sich bezüglich Ghosting und Schärfe etwas getan.
 
Der Spaß hört auf, wenn Deep Learning gegen Menschen eingesetzt wird; z.B. Gesichtserkennung von Uriguren,
Da sind die Chinesen nicht die Einzigen.
Meinen US-Kollegen haben sie zuletzt bei seiner Ankunft am Flughafen in den USA beim Vornamen gegrüßt und nicht einmal nach dem Pass gefragt. Gruselig.
Wird bei uns nicht anders laufen, warum läuft man wohl gegen das EUGH-Urteil Sturm, dass die anlasslose Übermittliung von Fluggastdaten rechtswidrig ist? https://www.heise.de/news/EuGH-Urte...tueberwachung-tricksen-7274737.html?seite=all
Also die Top GPU benötigt genauso DLSS?

Dann kann ich ja auch ne RTX 4060/4070 kaufen und mit DLSS Performance spielen.....

Wo liegt hier der Mehrwert wenn das ganze nichtmal ohne Software geschafft wird?

Wenn man seitens Nvidia nur noch flüssig mit DLSS spielen kann brauche ich ja keine dicke GPU....
Die Top-GPU kommt in 4k mit Raytracing ohne DLSS auch in Cyberpunk 2077 nicht auf 60 FPS avg. Da sollen 8k möglich sein?
Sagt mal Leute jetzt muss ich mal blöd fragen. Ich lese immer sehr häufig das die 4090 von der 4000 Serie die P/L beste sein soll wenn dennoch teuer. Dann liesst man das Nvidia sagt 4090 für mehr als 300 fps usw. Wo reit sich denn dann die 4080 16Gb ein?…
"beste" ist halt relative. Die sind P/L mäßig alle nicht prickelnd. Nvidia scheint halt die Apple-Strategie zu fahren: "Wenn der Preis vom kleineren Produkt unattraktiv genug ist greifen die Leute gleich zu Premium"
Genaue Leistungseinschätzungen wird dir keiner geben können, zumal bisher nur Tests von Nvidia selbst bzw. unter deren Aufsicht/Vorgaben stattfanden. Am ehesten kannst du es dir wohl über das Verhältnis aus Shadern/Tensor Cores/etc. ausrechnen.
 
Ist dieses Dlss ein Feture der Graphikkarte oder der Spiele? Sprich, wenn mein Spiel kein Dlss unterstützt ist der grosse Vorteil der Nvidai im Grunde für nix oder?
Meine Games (Falcon BMS und DCS World) werden ja nie in irgendwelchen Benchmarks verwendet…
 
Bin ich eigentlich der einzige der DLSS nicht mag? Ist niemandem aufgefallen wie unscharf das Bild bei Bewegungen wird? Vorallem bei feinen Details. Insbesondere der Kontrast zwischen gutem Bild bei Stillstand und verschwommenem bei Bewegung nervt während man sich im Spiel bewegt. Das wirkt einfach nicht rund.

Ich bin auch kann Fan davon, im Gegenteil. Ich kann mich bis heute nicht mit den ganzen neueren Blurrfiltern anfreunden, deswegen nutze ich derlei Dinge nur, wenn es absolut nicht anders geht. Das liegt auch nicht unbedingt per se an DLSS oder FSR, sondern begann schon mit den verkorksten Post AA Filtern, allen voran TAA.

Das Problem ist allerdings nicht, dass Techniken wie DLSS und FSR entwickelt werden, es ist nämlich ausgesprochen nützlich wenn es irgendwo klemmt zumindest die Option zu haben, damit dennoch in spielbare FPS Regionen zu stoßen und somit seine alte Pixelschubse etwas länger zu behalten.

Als Steigbügelhalter für bspw. RT, halte ich es für vollkommen Banane denn man tauscht schlicht BQ gegen BQ, zumindest muss man sich dessen stets bewusst sein. NVidia hat sich meiner Auffassung nach genau da verrannt, wurde ja sogar bereits bei der letzten Gen mopsig, als Tester vermeintlich nicht ausreichend Augenmerk auf RT gelegt haben. Manche Dinge brauchen einfach ein wenig Zeit und kein Marketinggewäsch. NV braucht meiner Auffassung nach jetzt mit der 4000er Gen undbedingt das Narrativ, das RT massentauglich und ein Must-Have ist, und DLSS3 der Gamechanger dazu. Einen Blick auf die Hardware der Steam Nutzer geworfen, zeigt dann auch das Dilemma. Die Masse dort kauft sich ganz sicher keine 4080/4090 und ohne Masse, kein unmittelbarer Erfolg.

In Gänze gesehen, is das schon ein wenig absurd.
 
Ist dieses Dlss ein Feture der Graphikkarte oder der Spiele? Sprich, wenn mein Spiel kein Dlss unterstützt ist der grosse Vorteil der Nvidai im Grunde für nix oder?
Meine Games (Falcon BMS und DCS World) werden ja nie in irgendwelchen Benchmarks verwendet…
Unter welchem Stein lebst du, bist ja nicht gerade erst seit gestern hier im Forum :P
DLSS wird über die spezielle Hardware der GPU ermöglicht (im Falle von der 4000er bis zu 3.0, die älteren ab Turing unterstützen, stand jetzt, nur bis 2.0), muss allerdings in jedem Game händisch durch die Entwickler integriert werden, sprich die Einstellung findet sich ganz normal in den Graphikeinstellungen den Spiels und nicht etwa im Nvidia-Treiber oder so.
Das ist und war schon immer das Problem von DLSS (und auch noch von FSR), du kannst es nur in einer kleinen Auswahl an Spielen nutzen und die musst du dann auch haben wollen. DLSS 3.0 gibts beispielsweise in Cyberpunk und Hogwarts Legacy, der Rest der angekündigten unterstützen Spiele sind für mich egal, daher wäre das ganze für mich ein unbedeutender Bonus, den ich nicht näher in meine Kaufentscheidung mit einbeziehen würde.
Deine beiden Spiele werden wohl nie DLSS bekommen, jedenfalls gibt es keinerlei Hinweise darauf und es ist eher selten, dass ältere Spiele noch nachträglich Unterstützung bekommen.
 
Joa. Und Intel sagt in ihren Benchmarks sie schaffen 1000 FPS in 'Red Dead in 20k.

Bitte unabhängig und nicht so einen Marketingscheiß.
 
Joa. Und Intel sagt in ihren Benchmarks sie schaffen 1000 FPS in 'Red Dead in 20k.

Bitte unabhängig und nicht so einen Marketingscheiß.
Selbst aus Marketingscheiß kann man ein paar Daten Interpolieren. Die 4090 wird so ungefähr 60-70% schneller im klassischen PCGH Parkour. Es gibt also weniger FPS/€. Früher gab es noch ~70% mehr.

@PCGH_Raff könnte uns bestimmt einen Smiley dazu geben, ob ich die Daten seiner Auffassung nach richtig interpretiert hab.

kann auch gut sein das die 4090 bei 8k besser skaliert als die 3090. Sprich in niedrigeren Auflösungen ist der Zugewinn kleiner.
 
Bin absolut zufrieden mit dem 5800X.
In Cyberpunk 2077 bin ich, bei rund 60 FPS, immer im GPU Limit.
Er bleibt auch mit meinem Mugen 5 unhörbar kühl, ~70°C in Cyberpunk 2077.
Habe ihn aber auch mit dem Curve Optimizer eingestellt bzw. das Powerlimit reduziert. Aber selbst mit Standarteinstellungen ist alles total unkritisch.

ECO Modus?
Habe für den "Hitzkopf" extra eine 360er AIO besorgt.(habe auch den 5800X, der X3d wird vom B450 MB leider nicht unterstützt)
Aber da ich mit meiner RX6800 eh nur in UHD spiele ist die CPU weniger wichtig.
War nur wegen den Frame Drops in BF2042, die sind seit dem weg (hatte vorher den 2700X)

Wer aktuell in UHD spielt braucht eigentlich gar nix von den super schnellen CPUs^^

Und NEIN, ich bin kein AMD Fanboy, hatte auch viel Intel/ nVidia davor.
 
Zurück