Titanultra
Software-Overclocker(in)
Nvidia hebt Cyberpunk nochmal auf ein ganz anderes Level.
Weiß man schon wann FSR3 den Weg in Cyberpunk 2077 finden wird? Wahrscheinlich nicht gleich mit Patch 2.0 oder?^^
Laut Computer Base ist Cyberpunk für FSR3 Support fest eingeplant.Wahrscheinlich nie. Ist ja nvidiapunk.
Als wäre DLSS 3.5 das einzige neue Feature in Phantom Liberty... Der Umfang des DLC soll Witcher 3 - Blood & Wine entsprechen, welches als eines der besten DLCs ever betitelt wird.
Aber ja, Cyberpunk2077 ist auch eine Machbarkeitsstudie. Visuell werden / wurden neue Maßstäbe gesetzt. Und es ist trotzdem ein hervorragendes Spiel, meiner Meinung nach das bisher beste im Cyberpunk Universum überhaupt. Die Story und Charaktere sind schon im Hauptspiel hervorragend.
Ich habe ein wenig die Befürchtung, dass die Erweiterung mehr oder weniger nur eine Nvidia Tech-Demo wird. Würde mich aber freuen, wenn ich da falsch liege.
Wahrscheinlich nie. Ist ja nvidiapunk.
Sind schon noch paar mehr:Angekündigt sind für FSR 3 ja auch erst 2 Spiele: Immortals of Aveum und Forspoken.
Nein, weiss man nicht. Angekündigt sind für FSR 3 ja auch erst 2 Spiele: Immortals of Aveum und Forspoken.
Sind schon noch paar mehr:
Quelle:
- Cyberpunk 2077 (Release: 10. Dezember 2020)
- Avatar: Frontiers of Pandora (Release: 7. Dezember 2023)
- Warhammer 40K: Space Marine 2 (Release: 2023)
- Frostpunk 2 (Release: 2024)
- The Alters (Release: TBA)
- Squad (Release: 23. September 2020)
- Starship Troopers: Extermination(Release: 17. Mai 2023)
- Black Myth: Wukong (Release: 2024)
- Crimson Desert (Release: TBA)
- Like a Dragon: Infinite Wealth (Release: 2024)
Spiele mit FSR 3: Diese Titel stehen auf AMDs Liste
Für zwölf Spiele ist die Unterstützung von FSR 3 bereits gewiss. AMD stellt sie vor.www.pcgameshardware.de
Man muss schon sagen, das sieht ziemlich gut aus und das Spiel ist quasi prädistiniert für eine Techdemo.
ABER!
Die Reflektions sehen mir viel zu clean und damit unrealistisch aus. Im Direktvergleich zu den Originalen, gefallen mir diese besser, sie wirken authentischer.
Insgesamt, so schön wie es aussieht, zeigt jedoch für mich der Direktvergleich sehr schön auf, dass die Unterschiede nicht so groß und die Optik eher dicht beieinander liegt. Ich bin mir nicht sicher, ob die deutlichen Mehrkosten für solche Hardware "schon" gut investiertes Geld sind.
MfG
wenn das ein Suchbild sein soll was darin nicht stimmt, hat DLSS3.5 perfekt bestanden, konnte nichts entdecken was da irgendwie komisch sein soll bei diesem Bild von einem komprimierten Youtube Video was in einer bewegten Scene während des Schusses einfach pausiert wurde. Am eigenen Monitor und im Spiel/in Bewegung hat man dann auch keine Zeit 5 Minuten auf Standbild Fehlersuche zu gehen. Und wenn das auch stumpf alle Settings auf Max ist, was man auch sieht (chromatic aberration), Motion Blur, hast den "Fehler" gefunden, falls es die Randunschärfe/Bewegungsunschärfe sein soll.It looks fantastic...
Anhang anzeigen 1437926
Ja, alles scheiße. DLSS, RT, Fake Frames alles Schrott!Warum sieht das so unscharf matschig aus? Grafisch überhaupt nicht beeindruckend,eher ziemlich enttäuschend
Weil niemand Bock auf 30 FPS hat und die 4090 ohne DLSS und co. für PT zu schwach ist in 4K.Gefühlt haben hier alle ne 4090, wozu dann noch DLSS, weil die Karte auch nicht ausreicht?
Da musste dann Motionblur ausmachen.Warum sieht das so unscharf matschig aus? Grafisch überhaupt nicht beeindruckend,eher ziemlich enttäuschend
Das verwundert mich...wer den ersten Teil kennt, der weiß das FSR3 gar nicht nötig ist.Frostpunk 2 (Release: 2024)
Weiß eigentlich jemand wie weit Nvidia bei solchen gesponserten Games involviert ist? Gibt es da eigene Nvidia Spezialisten die bei dem Thema Raytracing oder DLSS aktiv mithelfen oder machen das die hauseigenen Entwickler alles selber und es gibt quasi "nur" zusätzliches Geld von Nvidia für die Werbung und Vermarktung?
Weil niemand Bock auf 30 FPS hat und die 4090 ohne DLSS und co. für PT zu schwach ist in 4K.
Außerdem kann DLSS/FG den Verbrauch senken und die Bildqualität steigern. Wieso also nicht nutzen?