News Alan Wake 2: Systemanforderungen machen DLSS und FSR 2 für Full HD und 30 Fps zur Pflicht

Mit GeForce Now kann man eine RTX 4080 für nur 22€ im Monat nutzen. Bis dahin sollte das Spiel durch sein, wenn man sich ranhält.

Scheint so als würden Games nur noch für die 5% GeldspieltkeineRolle-Hansies gemacht?

Tja, das ist halt eben das Problem.

Wenn es gut auf allem läuft, dann wird gemeckert, dass nichts vorangeht und der ganze Fortschritt sowieso zu erliegen gekommen ist. Geht ein Spiel mal richtig in die Vollen und das Spiel läuft auf der GTX 1060 nicht in 4K60@Ultra (ich übertreibe ein wenig) dann ist es auch nicht recht.

Man kann eben nicht alle zufrieden stellen.

Ich persönlich finde es schön, dass da endlich mal wieder etwas voran geht.
 
Kommt es nur mir so vor, werden nur noch Spiele für die nächste Generation entwickelt? (PS6, Xbox Z, ...) Ist eine 4090 die neue FullHD Karte, falls man mal native Auflösung nutzen möchte?
Irgendwas läuft doch da falsch. Das Potential der vorhandenen Hardware wird einfach nicht richtig genutzt. (meine Meinung)
Alle Karten werden mind eine Stufe runterrutschen. Damit ist eine 4090 nicht mehr eine 4k Karte, sondern eine 1440p Karte. PT stubst die 4090 dann noch eine Stufe runter auf 1080p. Also kommt so hin.
Um die 4090 wieder ne Stufe hoch auf 4k zu heben nutzt man dann jeweils DLSS Upscaling und FG.

Man hat halt aktuell einen Paradignemwechsel. Crysis lief auch bei Release total scheiße auf der Hardware, aber es sah besser aus, als alles was davor kam. Und man hatte damals noch keine 4k und sehr selten 1440p! (bzw die 4:3 varianten dazu)
Derzeit werden viele kleine Details besser. Das sieht der 08/15 Zocker kaum, aber er spürt es, weil man nicht mehr die FPS bekommt, die man gewöhnt ist.
First Gen RT war auch sehr langsam, aktuell ist es first gen PT und mit UE5 kommt Nanite dazu.
Nanite spart nicht unbedingt Performance, sondern eher Arbeit beim Entwickler. :D
Als Beispiel habe ich Satisfactory. Es lief mit UE4 rund und schnell, dann haben die Entwickler UE5 und Nanite reingepatched. Die Performance ging damit in den Keller.

Ich meine persönlich finde ich DLSS Upscaling und FG nicht schlecht. Beides haben natürlich auch Nachteile, wobei DLSSQ kaum mehr welche hat. Das gehört bei mir schon, wegen besserem AA, zum Grundprogramm.
FG fühlt sich manchmal "unrund" an, man sieht es an den Frametimes. In CP2077 läuft es gut, aber es ist nicht in jedem Spiel so.
Einen Unterschied in der Inputlatenz merke ich gar nicht, was ich an FG sehe ist das bewegliche UI-Teile bei Bewegung "ausfransen", das stört aber meist kaum. Und bei CP2077 ist das auch besser, als wie bei älteren Teilen.

Dann kommt noch DLSS RR. Mit RR sieht alles besser aus...aber in CP2077 hat es noch verdammt viele Fehler.
Vor allem Temporale Fehler. Wenn ich z.b. ein Messer ausrüste, dann sieht man bei der Animation viele Nachbilder, bei vielem anderen auch, Haare, Beine...naja Speziell vieles was sich bewegt.
Ich spiele CP2077 mIt RR und muss oft ein Auge zudrücken, aber ohne ist PT deutlich schlimmer an manchen Stellen.
Und normales RT, selbst auf Psycho, sieht deutlich schlechter aus als PT mit RR....

Ich hoffe von daher, das Nvidia es bei Alan Wake 2 in den Griff bekommt und ich die DLL dann in CP2077 kopieren kann.
 
Zuletzt bearbeitet:
Du brauchst keine 4080 zum spielen?!
Die 4080 ist für 4K RT Pathtracing Ultra settings, also behaupte nicht so einen Schwachsinn. Das Spiel ist nicht mal draußen und ihr heult schon das Forum voll. Hast du nichts bessere zutun?!
Einige hier im Forum haben halt jeden Bezug zur Realität verloren und völlig absurde Ansprüche. Aber das sind dann eben auch die die dann Spiele wegen schlechter Performance reviewbomben und so. Genau deswegen sollte man auf Reviews NICHTS mehr geben.

Das Problem ist, dass die allermeisten die immer "unoptimiert" plärren nicht einen Hauch, null, nada, auch nur irgendeine Ahnung haben wovon sie reden.
 
Das Problem ist, dass die allermeisten die immer "unoptimiert" plärren nicht einen Hauch, null, nada, auch nur irgendeine Ahnung haben wovon sie reden.
Kommt wohl aus dem Grund zustande, dass die Spiele nicht die Optik wiedergeben, was sie an Leistung kosten. Sowas wie Remnant 2 , Lord of Fallen oder Star Wars .. Order 2 usw. usw. Wo geht die Leistung hin, jedenfalls nicht auf den Bildschirm. Das es anders geht, wie bei Resident Evil , sieht man was man auch mit gleicher Performance erreichen kann
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das Spiel ist noch nicht mal draußen, aber die Trailer sehen schon sehr vielversprechend aus.
Nichtsdestotrotz meckern Manni, Günther und Alfred, dass sie das Spiel auf ihrer alten Hardware nicht in 4K RT Ultra spielen können.
Dieses Rumgeheule der ganzen alten weißen Männer in diesem Forum ist unerträglich.

Ich habe es vorbestellt und freue mich wahnsinnig aufs Spiel. DLSS und "Fakeframes" (wie ich diesen Begriff hasse) sind die Zukunft, wem das nicht passt, der kann sein Hobby Gaming gerne aufgeben. Außerhalb dieses Forums interessiert das gejammer und die krampfhafte Abneigung gegen neue Technologien niemanden. Der Fortschritt geht weiter, auch ohne euch und das ist auch gut so.
Digger das Moped läuft noch nicht mal auf einer 4080 gerade aus . Das braucht für pathtracing in UHD 60fps DLSS Performance. Das ist einfach lächerlich.
 
Crysis war halt ein Grafik-/Technik-Showcase.
Prinzipiell ein Benchmark mit Gameplay-Elementen.
Zudem hatte man beim Anblick von Crysis@720p/Max.Settings Tränen in den Augen, nachdem es einen vom Hocker gehauen hatte.

Das war völlig jenseits dessen, was man bis zu dem Zeitpunkt gekannt hatte und ein absurder Schritt nach vorne. Selbst zehn Jahre später hat es noch Spiele gegeben, welche einem Crysis kein Wasser reichen konnten.

Ein Spiel wie Crysis hat es seitdem nicht mehr gegeben. Und Alan Wake 2 ist auch kein Crysis. Dementsprechend die Kritik an der Performance.
Wäre AW2 ein Crysis, dann wäre ich der letzte, der sich darüber in irgendeiner Art und Weise aufregt.
Alan Wake 2 setzt mit CyberPunk 2077 neue Maßstäbe in Sachen Grafik. Grund dafür ist alleine schon das Pathtracing, also doch, es ist hier mit Crysis vergleichbar.

Digger das Moped läuft noch nicht mal auf einer 4080 gerade aus . Das braucht für pathtracing in UHD 60fps DLSS Performance. Das ist einfach lächerlich.
In 4K, und? Vor 2 Generation war 4K 60 FPS nicht mal möglich. Dann mach halt PT aus, wenns dich stört.
Also entweder will man Fortschritt, aber dann sollte man auch bereit sein, mit den Konsequenzen zu leben, oder man will Stillstand. Ihr könnt doch nicht erwarten, dass ihr euch ne neue GPU kauft, diese aktuell 4K 60 FPS packt und das auf ewig so bleiben wird?! Die Spiele entwickeln sich doch auch weiter und werden anspruchsvoller.
Ich würde es sogar begrüßen, wenn das Spiel meine 4090 bis auf 30 FPS zwingt, wenn sie dafür noch die Grafik hoch schrauben. Wir hatten schon lange kein Spiel mehr, dass die Hardware voll ausgenutzt hat.
AW2 ist auch kein Shooter, also sind 60 FPS auch flüssig genug.

Das Problem ist, dass die allermeisten die immer "unoptimiert" plärren nicht einen Hauch, null, nada, auch nur irgendeine Ahnung haben wovon sie reden.
Wie recht du damit hast. Das hier ist ein Enthusiastenforum und wegen jedem Furz wird rumgeheult. Einfach nur noch nervig. Anstatt sich zu freuen, dass die Hardware mal ausgereizt und gefordert wird, hetzt man über jeden Mist.

Kommt wohl aus dem Grund zustande, dass die Spiele nicht die Optik wiedergeben, was sie an Leistung kosten. Sowas wie Remnant 2 , Lord of Fallen oder Star Wars .. Order 2 usw. usw. Wo geht die Leistung hin, jedenfalls nicht auf den Bildschirm. Das es anders geht, wie bei Resident Evil , sieht man was man auch mit gleicher Performance erreichen kann
Star Wars ist ne Frechheit und wurde vom Entwickler verkackt.
Bei den UE5 spielen liegt es an Nanite und auch dort gibt es die Optik wieder, nur nicht im Hauptfokusbereich, sondern mehr im Hintergrund. Nanite ersetzt das alte LoD System. Früher hast du in die Ferne geschaut und 2D Sprites gesehen oder eben nur noch Texturen ohne Vegetation. Mit Nanite ist das nicht so, aber darauf achtet scheinbar niemand. Wenns dann aber um DLSS und FG geht, sehen alle sofort sämtliche falschen Pixel.
Wers glaubt...

Dann hast Du halt extremes Kantenflimmern.
Nicht nur die Kanten flimmern dann, sondern das ganze Bild und so spielt auch niemand. Der User ist sich nicht im klaren darüber, was er da schreibt.

Wo hab ich denn bitte irgendeinen Vergleich gezogen? :confused: Meine Aussage war lediglich, dass es sehr gut aussieht, aber eben nicht "extrem" gut. Nirgendwo hab ich das in Relation zu irgendeinem anderen Spiel gesetzt.
Sein Punkt ist, dass es vermutlich das schönste bisher existente Spiel wird. Dementsprechend sind die Hardwareanforderungen dann berechtigt.
 
Zuletzt bearbeitet:
Star Wars ist ne Frechheit und wurde vom Entwickler verkackt.
Bei den UE5 spielen liegt es an Nanite und auch dort gibt es die Optik wieder, nur nicht im Hauptfokusbereich, sondern mehr im Hintergrund. Nanite ersetzt das alte LoD System. Früher hast du in die Ferne geschaut und 2D Sprites gesehen oder eben nur noch Texturen ohne Vegetation. Mit Nanite ist das nicht so, aber darauf achtet scheinbar niemand. Wenns dann aber um DLSS und FG geht, sehen alle sofort sämtliche falschen Pixel.
Wers glaubt...
Eben nicht, die Optik gibt es eben nicht wieder. Bisher sind die Spiele von UE5 weit weg von den Techdemo's, wie z. B dieser hier
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Das was man bisher zusehen bekommen hat, war eher enttäuschend und entsprach nicht den Leistungshunger und war weit weg von einer Evolution, die man sich vorher vorgestellt hat.. Ist klar, es sind keine AAA-Teams gewesen aber nichtsdestotrotz hat man als Spieler eine Wahrnehmung was Leistung und Optik betrifft. Zudem waren die Spiele mit UE5 nicht mal mit Lumen bzw. GI mit HW-RT und wenn es soweit ist, dann kommt wohl nur eine 6090 RTX für 1080p(nativ)-und 60fps(nativ) in Frage und erst dann werden wir das sehen was wir als richtigen Sprung in Sachen Grafik uns vorstellen/vorgestellt haben. Bis jetzt sind es nur in technischer Sicht "Sprünge" aber nicht die Wow-Sprünge, wie bei Crysis.
 
Ich finde es grossartig dass endlich wieder ein bisschen Bewegung kommt. Wer die höchsten Einstellungen nutzen möchte kommt eben nicht um eine RTX 4090 herum. Ihr seid diejenigen die dauernd lamentieren dass eine GTX 1080 Ti doch für alles reicht. Ihr könnt auch damit AW2 spielen. Also wo ist das Problem?
 
Ich finde es grossartig dass endlich wieder ein bisschen Bewegung kommt. Wer die höchsten Einstellungen nutzen möchte kommt eben nicht um eine RTX 4090 herum. Ihr seid diejenigen die dauernd lamentieren dass eine GTX 1080 Ti doch für alles reicht. Ihr könnt auch damit AW2 spielen. Also wo ist das Problem?
Junge, lies doch mal die News. Mann mann mannnnnnn
 
Es kann noch so gut aussehen, bloß nicht vorbestellen. Möchte wirklich ungern pessimistisch sein, aber welches große Game lief schon rund direkt nach Release. Mich würde es wirklich freuen, wenn Alan Wake 2 hier eine Ausnahme machen wird, aber meine Hoffnung ist da eher klein.
Also abwarten, Tee trinken und erstmal schauen, wie es performt zu Release.
 
Digger das Moped läuft noch nicht mal auf einer 4080 gerade aus . Das braucht für pathtracing in UHD 60fps DLSS Performance. Das ist einfach lächerlich.
wie du schon geschrieben hast: Pathtracing - musst du nicht aktivieren, ist bekannt dass es atm der größte Performancefresser ist aber besser haben als gar nicht die Option zu haben. gibt genug games die auf "next Gen" Features verzichten und dann diese auch nie nachgereicht bekommen. in 1-2 Jahre stinken meist andere Spiele trotzdem gegen solche ab. Vorteil von PC, ka warum der Trend zu einer "limitierten" Version gegangen ist. (glaube es gab sogar ein Game die PC Version wurde auf Consolen Grafik gesetzt hatte weil es sonst unfair wäre, gab riesen shitstorm vor allem man durch mods/ini Einstellungen die settings hochschrauben konnte.) war doch oft ein Hauptargument für PC. achja weil's Leute gibt die mit einer GTX 750 auf ultra spielen wollten.
 
Zurück