News Alan Wake 2: DLSS 3.5 vervierfacht die Fps in 4K/UHD auf einer Geforce RTX 40

Wow. 32 fps in 4k nativ auf na 4090, 22 fps auf na 4080 und das für den Preis den man dafür hinlegen darf. Die 5080 schafft dann vermutlich 60 fps? Ich meine Upscaling ist eine schöne Sache, aber wenn ich ab 1700€ für nee Karte hinlege, dann erwarte ich eigentlich was anderes.
Das müsste dann aber auch mindestens eine Art neue Crysis sein, die fps von damals hätte es ja schon mal ;-) Hauptsache es sieht auf mid gen oder Konsole dann nicht aus wie Grütze (Series S mal ausgenommen) oder wird das nächste unoptimierte Spiel, das erst nach neem Halbenjahr dann mal vernünftig läuft.
Ich freue mich als Fan des ersten Teils nämlich eigentlich sehr auf AW2, aber das bisschen gezeigte Footage/ Spielmaterial und Trailer sagen ja meistens nie was über das fertige Game aus. Mal abwarten.
 
In jedem Nvidia-related-Thread dasselbe, der Hate-Train fährt sofort, innerhalb der ersten Posts, mit Vollgas los.

Das Spiel sieht fantastisch aus. Es ist bereits der zweite Pathtracing Showcase, man sieht also wohin die Reise geht. Da können AMD Fans so viel Gift und Galle spucken wie sie wollen.

Ist zwar nicht mein Genre, ich werd mir aber definitiv die Test-Videos anschauen. Einfach weil es besser aussieht als Computergenerierte Filme vor 20 Jahren. Auf dem heimischen PC. Ich finde die Entwicklung einfach nur faszinierend.
 
als wäre dieses Feature zum jetzigen Zeitpunkt nicht wirklich nutzbar, aber habe wie gesagt keine Möglichkeit das selbst zu testen
Das Feature ist noch etwas von Perfekt entfernt. Aber die momentane Version läuft wirklich gut. Es gibt allerdings ein paar Sachen zu beachten 55-60fps native muss sein(für ein gutes Ergebnis) und man muss in seiner Unterstützten Freesync Range bleiben da Vsync nicht unterstützt wird. Heisst bei meinem Monitor 144hz brauch ich einen 72fps limitter. Das abschalten bei schnellen Bewegungen stimmt, darum ist es für CS, Valorant und konsorten nicht geeignet. Aber andere spiele wie X4, Starfield, Witcher 3, Strategiespiele Simulationen alles kein Problem. Was das Abschalten auch etwas hinauszögert ist die sensivität der Maus Bewegung im Spiel zu reduzieren und dafür die Abtastrate der Maus zu erhöhen.
aber wenn ich ab 1700€ für nee Karte hinlege, dann erwarte ich eigentlich was anderes.
Erzähl das den Spieleentwicklern, die Hardware ist nunmal schon vorhanden. Dazu kommt das jedes Spiel ultraeinststellung bekommen kann die eine GPU in die Knie zwingen kann. Die Frage ist ob die Einstellungen für das Spiel sin machen. Bezogen aufAlan wake 2 hätten sie auch Ultra Einstellungen nehmen können die die GPU nicht soweit belasten . Die Frage ist halt ob die hohen Einstellungen optisch sin machen.
 
Zuletzt bearbeitet:
In jedem Nvidia-related-Thread dasselbe, der Hate-Train fährt sofort, innerhalb der ersten Posts, mit Vollgas los.

Das Spiel sieht fantastisch aus. Es ist bereits der zweite Pathtracing Showcase, man sieht also wohin die Reise geht. Da können AMD Fans so viel Gift und Galle spucken wie sie wollen.

Wegen den pathtracing Anforderungen spucken 'amd fans' Gift und Galle.
Ganz ehrlich, wo siehst du sowas?
 
Einfach weil es besser aussieht als Computergenerierte Filme vor 20 Jahren. Auf dem heimischen PC. Ich finde die Entwicklung einfach nur faszinierend.
Das Spiel sieht sehr gut aus, aber mehr auch nicht. Ich hab bis jetzt noch nicht eine Szene gesehen, die mich umgehauen hätte. Wieder mal komplett übertriebener RT-Hype. Das muss ja auch mal wieder ein paar Jahre reichen, bis der nächtse Pathtracing-Titel kommt.
 
Wow. 32 fps in 4k nativ auf na 4090, 22 fps auf na 4080 und das für den Preis den man dafür hinlegen darf. Die 5080 schafft dann vermutlich 60 fps? Ich meine Upscaling ist eine schöne Sache, aber wenn ich ab 1700€ für nee Karte hinlege, dann erwarte ich eigentlich was anderes.
Das müsste dann aber auch mindestens eine Art neue Crysis sein, die fps von damals hätte es ja schon mal ;-)
Richtig, für eine Karte mit diesem Preisschild erwartet man einfach, das selbst die aktuellsten Games in 4K@ultra mit mind. 60Fps laufen.

ES SEI DENN, die gebotene Optik haut einen wie das schon angesprochene Crysis (2007) völlig aus den Socken. Nur warte ich bis zu heutigen Tag auf solch ein Game:ugly:

Wenn dann neue Spiele eher zufriedenstellend selbst auf potentester Hardware laufen, beschleicht mich das Gefühl, das Spieleentwickler heute eher "schlampig" ihr Produkt hinrotzen (natürlich meist unter dem großen Druck der Publisher), da man ja heutzutage großzügig nachpatchen kann und Techniken/Features wie DLSS/FSR/Frame Generation erledigen dann die restlichen (Performance)-Hausaufgaben...

Gruß
 
Zuletzt bearbeitet:
Das Spiel riecht gefährlich nach NVidia Werbung für die 5090 Ti :-P

Man bekommt das Spiel umsonst, weil man sich im Gegenzug dazu genötigt sieht, mindestens eine 4080, besser aber gleich eine 4090 als Grundvorraussetzung für das Spiel kaufen zu müssen?

Niemand will sich so ein Spiel kaufen, um dann die Grafik so weit runterdrehen zu müssen, was es dann wieder nur zu einem stinknormalen Game macht, was man sich auch jederzeit später billig schießen könnte.

Grafikshowcases wie Crysis, Cyberpunk etc. will man doch mit der dann auch bestmöglichen Grafikoption zumindest fast am Limit zocken können, so wie es der Hersteller sich gedacht hat und sich extra die Mühe dafür gemacht hat, um einen ganz bestimmten Zauber über das Spiel zu legen.

Also ich werde so ein Spiel dann lieber erst in 3 Jahren oder so mit dann neuer bezahlbarer Hardware mit hohen Einstellungen durchspielen, dabei werde ich dann mehr Spaß haben, als wenn ich jetzt mit einer 500 Euro Karte schon vielleicht auf mittlere Optionen/Auflösungen herunterregeln muss, wo das ganze Flair und das "Wow" dann aber verschwindet.
 
Wegen den pathtracing Anforderungen spucken 'amd fans' Gift und Galle.
Ganz ehrlich, wo siehst du sowas?
Hab ich gesagt dass explizit wegen den Pathtracing Anforderungen der Hate-Train los geht? Nö.

Anti-Nvidia-Posts die am Thema vorbei sind: #3, #5, #11, #18

Das Spiel sieht sehr gut aus, aber mehr auch nicht. Ich hab bis jetzt noch nicht eine Szene gesehen, die mich umgehauen hätte. Wieder mal komplett übertriebener RT-Hype. Das muss ja auch mal wieder ein paar Jahre reichen, bis der nächtse Pathtracing-Titel kommt.
Typischer Kommentar von Dir. Auf die Diskussion gehe ich nicht noch mal ein. Ich persönlich finde eine korrekte Lichtberechnung sehr wichtig und "schöner" als die ganze faked/baked Raster-Beleuchtung.

Wieso "ein paar Jahre"? Im April 2023 kam die CP2077 Pathracing Tech-Preview. Im selben Jahr mit Alan Wake 2 noch ein Pathtracing Titel.
 
*Native Auflösung von 3.840 × 2.160 Pixeln mit DLSS 3.5 im Performance-Modus bei dem nur 1.920 × 1.080 Bildpunkte ("Full HD") berechnet werden.*

1. Native Auflösung 4K wo nur 1080P berrechnet werden...Ist schonma keine Native Auflösung von 4K. Dachte immer Nativ ist ohne geschummele.

2. Wenn statt 4K nur 1080p berrechnet werden ist es natürlich auch normal das man viel mehr Performance hat..DA NATIVE 4K eben nicht 1080 hochskaliert bedeutet...

Der Satz müsste eigentlich lauten...

NVidia schafft es mit 1080P hochskaliert auf 3.840 × 2.160 Pixeln mit DLSS 3.5 im Performance-Modus, mehr als 4x die Performance als mit der NATIVEN 4K Auflösung...

Das gleiche gilt natürlich auch für AMD und FSR...

Vll hab ich auch nen Denkfehler..Aber nativ ist für mich OHNE Skalierung..
 
Ohne zu viel vorwegzunehmen: Ich habe mehr als Faktor 5 geschafft. :devil:

Das Spiel sieht sehr gut aus, aber mehr auch nicht. Ich hab bis jetzt noch nicht eine Szene gesehen, die mich umgehauen hätte. Wieder mal komplett übertriebener RT-Hype. Das muss ja auch mal wieder ein paar Jahre reichen, bis der nächtse Pathtracing-Titel kommt.
Da muss ich widersprechen. Ich habe in den letzten Tagen sehr viel gestaunt.

More sooon(tm).

MfG
Raff
 
Raytracing und Pathtracing kann man gar nicht genug hypen weil es so geil aussieht. Ich will das in jedem Spiel. Hat schon seinen Grund wieso ich kein Spiel mehr ohne Reshade Pathtracing starte..
 
irgendein Setting verdreht, vsync ? oder eine übertriebene Einschätzung, so wie die berühmten "das sind ganz sicher 20 cm"? die 30fps halte ich nämlich für völlig überzogen.

Der Noceboeffekt kann da relativ übel mit reinspielen. Wenn man der felsenfesten Überzeugung ist, dass das ruckelt, dann kann das nichts mehr werden, auch wenn man in Wirklichkeit 240FPS hat. Man sieht Ruckler, wo keine Sind. Wenn man der Überzeugung ist, dass die Latenz extrem hoch ist, dann denkt man immer, dass das extrem verzögert ist, auch wenn es in Wirklichkeit gar nicht so schlecht ist.

Ich meine Upscaling ist eine schöne Sache, aber wenn ich ab 1700€ für nee Karte hinlege, dann erwarte ich eigentlich was anderes.

Man kann es halt eben nicht allen Recht machen. Vor Cyberpunk 2077 haben die Leute gejammert, dass sie mit ihrer neuen Superduperkarte nichts zu Gesicht bekommen, dass jemand mit einer 300€ Karte nicht auch sehen kann. DLSS und dann irgendwann FSR haben die Entwicklung noch verschlimmert. In der Zukunft könnte dann irgendwann jeder einen 8K Monitor befeuern.

Jetzt ist etwas da, mit dem man eine 1500€ Karte ausreizen kann und nun wollen viele, dass möglichst alles in 4K auf einer GTX 1060 läuft.

Wegen den pathtracing Anforderungen spucken 'amd fans' Gift und Galle.
Ganz ehrlich, wo siehst du sowas?

In sehr vielen Kommentaren. Eigentlich kann man es fast nicht überlesen. Dabei sind die AMD Jünger von "Raytracing wird man nicht brauchen" über "Rasterisierung ist eh viel besser" (Cyberpunk 2077) zu "Raytracing hat viel zu hohe Anforderungen" gewechselt.

Das muss ja auch mal wieder ein paar Jahre reichen, bis der nächtse Pathtracing-Titel kommt.

Da wirst du wohl enttäuscht werden. Das ganze ist gekommen um zu bleiben. Wenn der erste Titel vorangeht und alte Karten obsolet macht, dann folgen meist weitere. Das kann man bei den VRAM Anforderungen gut beobachten. Irgendein großes Spiel erhöht die Mindestanforderungen und alle anderen folgen.

Hat schon seinen Grund wieso ich kein Spiel mehr ohne Reshade Pathtracing starte..

Einfach den Monitor direkt ins Sonnenlicht ausrichten und du hast die tollsten Lichtreflektionen, besonders mit nicht entspiegelten Monitoren lassen sich ältere Titel ordentlich aufmöbeln.
 
Raytracing wird man nicht brauchen" über "Rasterisierung ist eh viel besser" (Cyberpunk 2077) zu "Raytracing hat viel zu hohe Anforderungen" gewechselt
Ganz ehrlich. Ich kann Cyberpunk ohne Probleme in Höchster RT Einstellung spielen (kein pathtracing) aber ist für mich der Unterschied zu höchste Einstellung ohne RT minimal. Vielleicht sehe ich auch nicht das was andere sehen. Aber persönlich brauche ich bei dem Spiel kein RT.

Vielleicht muss ich es dafür im Zimmer mal richtig dunkel haben und einen größeren Monitor (momentan 27zoll) um es eher mitzubekommen.
 
Und was bringts wenn die "echten" FPS irgendwo unter 30 rumdümpeln? Inputlag ist dann trotzdem massiv.
Warum kommen diese albernen Inputlag Einwände nie bei AMD´s Antilag zur Sprache?
Du erhöhst die FPS erst durch DLSS und danach durch Frame Generation und im Gegensatz zu AMD´s leider mittlerweile meilenweit schlechterem Upscaling funktioniert es auch dementsprechend gut, selbst bei Performance oder Ultra Performance. Dazu hast du noch Reflex, was den Inputlag über das Niveau senkt, mit welchem du auf einer Radeon Karte selbst mit höheren FPS spielen könntest. Das heißt unterm Strich ist der Inputlag gerade bei solchen Spielen völlig im Rahmen und nicht zu beanstanden, ganz im Gegensatz zu AMD, die aktuell nichts anbieten, weil sie es total versemmelt haben.
Wo ist denn jetzt der Aufschrei, dass für Nvidia optimiert wird?
Bei Starfield hat man ohne Ende Fässer aufgemacht.
Bei Starfield performen die Nvidia Karten um mehrere Leistungsstufen unterirdisch, hier haben wir nicht mal einen realen Benchmark ohne RT und PT. Äpfel und Birnen.
Cyberpunk läuft auf AMD Karten ohne RT sehr gut, das wird Alan Wake 2 auch.
Bei Starfield ging es auch eher um DLSS2/3. Irgendwann wird die miese Nvidia Performance schon gefixed.
Aber Framegeneration is immernoch nur für nvidias 4000er Serie. Daran stört sich scheinbar keiner. Nvidia hat die Leute gut erzogen..
Ich bin mir recht sicher, dass AMD´s verbuggtes FG auch noch bald angeboten wird.
So schlecht wie das ist, da nur in Verbindung mit FSR ohne VRR, wird das eh kaum jemand benutzen, aber es sollte auf alle Fälle mit drin sein ( Konkurrenz und so), auch wenn es noch fast Müll ist.
Die können sehen wo se bleiben.
Die können DLSS Performance oder Ultra Performance nutzen, was immer noch mindestens so gut aussieht wie FSR 3 + Quality oder Balanced, zudem noch Reflex anschalten.
Ja, selbst eine Ampere Karte ist ohne FG den Radeons hinsichtlich BQ und Performance überlegen, also tu mal nicht so, als ob es dir um Nvidia User ginge.
Nvidias neues Zugpferd zum Verklauf der 4000er serie scheint nun Alan Wake 2 zu werden.
Es ist eben ein Bundle. AMD macht die ganze Zeit Bundles, auch wenn sie kaum sichtbare Entwicklungsarbeit reinstecken, wie etwa Starfield.
Und Framegeneration is genial. Ich kann es nun auch endlich auf meiner AMD Karte nutzen, aber eben in jedem Spiel. ^^
Was aber laut Tests nicht funktioniert, weil es sich

a) Bei schnellen Bewegungen abschaltet
b) Die BQ wegen fehlender Bewegungsvektoren schlecht ist
c) Der Inputlag draufkommt
d) Nur mit FSR nutzbar ist und noch schlechter aussieht.
e) Das Spielgefühl vs. Nativ schlechter ist, die Bilder zerreißen und die eingefügten Frames für schlechte Percentile sorgen, zudem kein VRR.

Wennn du es nicht glaubst, dann schaue hier:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Es ist fast wie immer bei AMD, es musste eine schnelle Lösung her, an der fast 1 Jahr entwickelt wurde und dann kommt so etwas bei raus, wo man es sich als User schönreden muss, weil es aus objektiver Sicht gar nichts taugt, außer wie ein Placebo die FPS Höhe zu treiben und das Spielgefühl zu zerstören.:lol:
Das heißt dass Nvidia die 3000er schon abkacken lässt und selbst als AMD Nutzer komme ich in den Genuss weil die es über Treiber für alle Titel ermöglichen. Wie armselig ist das von nvidia.
Da spricht wohl die Verzweiflung aus dir. Mit so einem völlig kaputten pre alpha Feature gegen eine saubere Lösung zu argumentieren, zeigt wie wenig du vom Thema verstehst und wie schlecht es um deine Neutralität bestellt ist.
Ich werde wahrscheinlich in Raytracing noch ne 3080 abziehen in FPS. :D Das muss man sich vorstellen.
Mit einer wesentlich schlechteren BQ ganz sicherlich.
wir wollen Qualität und kein dlss quatsch punkt.
Dann nutze weiter das schlechtere Native Bild und werde froh damit.
Ansonsten einfach einen Test lesen und dem glauben.
Das Spiel sieht sehr gut aus, aber mehr auch nicht. Ich hab bis jetzt noch nicht eine Szene gesehen, die mich umgehauen hätte. Wieder mal komplett übertriebener RT-Hype. Das muss ja auch mal wieder ein paar Jahre reichen, bis der nächtse Pathtracing-Titel kommt.
Es sind gerade mal 5 Jahre seit der ersten RT Karte vergangen und ja, auch mit einer RTX 2080 OC oder RTX 2080Ti kann man in so ein Spiel noch mit Pathtracing hineinschnuppern.
Es ist überhaupt kein Hype sondern in wenigen Jahren Standard. Gewöhnt euch endlich dran.
 
Zuletzt bearbeitet:
Der letzen Preview Treiber hat die Qualität massiv verbessert. Von unbrauchbar zu brauchbar quasi. Aber das steht auch unter dem Video in dutzenden Kommentaren. Die hast du sicherlich nicht gesehen. ;)

a) nur bei unnatürlich schnellen Bewegungen
b) die Bildqualität hat leichtes wabern, was du nur bei sehr langsamen Bewegungen mit der Maus siehst. Beim Spielen fällt es nicht mehr auf. Mit Motion Blur z.b. gar nicht. Was ich von FG gehört habe, ist es auch noch nicht perfekt.
c) Anti lag hilft hier sehr gut. Merke ich nicht.
d) stimmt nicht.
e) stimmt nicht.

Es funktioniert schon erstaunlich gut, je nach Spiel. Besser als fsr 3 in immortals und forspoken.
 
Zurück