Bin absolut zufrieden mit dem 5800X.Kurze Frage an Schori. Bist Du mit dem 5800X zufrieden? Ist er schnell genug für 1440p. Ggf. Cyberpunk.
Ist er einfach zu kühlen, oder ein kleiner Hitzkopf?
Wen juckt 8K?![]()
Ich würde man Downsampling vermuten.Wer zum Henker hat den überhaupt einen 8k Bildschirm? Selbst 4k ist nicht sonderlich weit verbreitet wenn man den Steam Umfragen glaubt.
Niemand, nicht mal 4K hat sich bei der Mehrheit etabliert.Wen juckt 8K?![]()
Nötig ist 8K nicht, aber in manchem Titel sichtbar (50 Zoll TV). 4K ist in meinem Fall ein deutlicher Gewinn.Ich würde man Downsampling vermuten.
Nativ was auch immer berechnen, dann künstlich raufsamplen, mit DLSS, und dann bei der Ausgabe erst recht wieder die native Auflösung, nur einen Tick schärfer, erhalten. Wird für 4k Schirme ev. kaum mehr bemerkbar sein- ohne Lupe-, aber mit Quest&Co kann ich mir schon vorstellen das ein 8k Signal noch merklich was bringt.
Bei welchen Titeln beoachtest du das
Dann hast Du auch nur ältere DLSS Versionen gesehen. Da hat sich bezüglich Ghosting und Schärfe etwas getan.Uhh dass ich was mit dlss gespielt hab ich schon ne weile her. Cyberpunk, Monster Hunter World aber besonders extrem war es in Warzone (noch auf der verdansk map) da waren Bäume bzw Baumkronen schön scharf im Stillstand und wirklich nur noch undefinierbarer Pixelbrei in Bewegung.
Da sind die Chinesen nicht die Einzigen.Der Spaß hört auf, wenn Deep Learning gegen Menschen eingesetzt wird; z.B. Gesichtserkennung von Uriguren,
Die Top-GPU kommt in 4k mit Raytracing ohne DLSS auch in Cyberpunk 2077 nicht auf 60 FPS avg. Da sollen 8k möglich sein?Also die Top GPU benötigt genauso DLSS?
Dann kann ich ja auch ne RTX 4060/4070 kaufen und mit DLSS Performance spielen.....
Wo liegt hier der Mehrwert wenn das ganze nichtmal ohne Software geschafft wird?
Wenn man seitens Nvidia nur noch flüssig mit DLSS spielen kann brauche ich ja keine dicke GPU....
"beste" ist halt relative. Die sind P/L mäßig alle nicht prickelnd. Nvidia scheint halt die Apple-Strategie zu fahren: "Wenn der Preis vom kleineren Produkt unattraktiv genug ist greifen die Leute gleich zu Premium"Sagt mal Leute jetzt muss ich mal blöd fragen. Ich lese immer sehr häufig das die 4090 von der 4000 Serie die P/L beste sein soll wenn dennoch teuer. Dann liesst man das Nvidia sagt 4090 für mehr als 300 fps usw. Wo reit sich denn dann die 4080 16Gb ein?…
Bin ich eigentlich der einzige der DLSS nicht mag? Ist niemandem aufgefallen wie unscharf das Bild bei Bewegungen wird? Vorallem bei feinen Details. Insbesondere der Kontrast zwischen gutem Bild bei Stillstand und verschwommenem bei Bewegung nervt während man sich im Spiel bewegt. Das wirkt einfach nicht rund.
Unter welchem Stein lebst du, bist ja nicht gerade erst seit gestern hier im ForumIst dieses Dlss ein Feture der Graphikkarte oder der Spiele? Sprich, wenn mein Spiel kein Dlss unterstützt ist der grosse Vorteil der Nvidai im Grunde für nix oder?
Meine Games (Falcon BMS und DCS World) werden ja nie in irgendwelchen Benchmarks verwendet…
Kann ich nur so bestätigen, DLSS 1 war noch eher ein Gimmick aber die 2er Version hat sich total gut entwickelt und DLSS 3 könnte echt ein Game-changer werden. Aber alle Mittwerber arbeiten auch an diesesn KI Lösungen.Dann hast Du auch nur ältere DLSS Versionen gesehen. Da hat sich bezüglich Ghosting und Schärfe etwas getan.
Selbst aus Marketingscheiß kann man ein paar Daten Interpolieren. Die 4090 wird so ungefähr 60-70% schneller im klassischen PCGH Parkour. Es gibt also weniger FPS/€. Früher gab es noch ~70% mehr.Joa. Und Intel sagt in ihren Benchmarks sie schaffen 1000 FPS in 'Red Dead in 20k.
Bitte unabhängig und nicht so einen Marketingscheiß.
Bin absolut zufrieden mit dem 5800X.
In Cyberpunk 2077 bin ich, bei rund 60 FPS, immer im GPU Limit.
Er bleibt auch mit meinem Mugen 5 unhörbar kühl, ~70°C in Cyberpunk 2077.
Habe ihn aber auch mit dem Curve Optimizer eingestellt bzw. das Powerlimit reduziert. Aber selbst mit Standarteinstellungen ist alles total unkritisch.