News Stalker 2: Debatte um Systemanforderungen eskaliert komplett

Dem dev gebe ich da keine schuld da diese das marketing nicht machen das kommt vom publisher
Nur vertreibt GSC Game World seine Spiele und somit auch Stalker 2 selber (außer in Japan, sowie Südost-Asien und China, wo es SEGA, bzw. 4divinity für sie macht), ist also Entwickler und Publisher zugleich und somit auch für seine Kommunikation und das Marketing zuständig.

Damit könnten sie sich bei der Kommunikation ihres Marketing also schwerlich rausreden. ;)
 
Zuletzt bearbeitet:
Sehe keine Probleme auf mich und der 4070 Super zukommen, ich spiele mit UWFHD - mehr als 70-80 fps brauche ich nicht, also benötige ich auch kein DLSS usw. - bei 4K sehe das halt anders aus. Muss jeder sehen wie es passt, aber man braucht nicht gleich immer 200 fps.
 
Ein weiteres UE5 Grafik- und Atmosphärenfest steht ins Haus und in einigen Wochen gibt's next gen GPUs. Die aktuell leistungsstärkste Grafikkarte 4090 ist inzwischen über 2 Jahre alt. Hat da echt jemand nach Alan Wake 2, Black Myth Wukong, Gray Zone Warfare und weitere UE5 Hardwarefresserkonsorten mit Angaben ohne Upscaling gerechnet ? Was soll da drinstehen ? 1080Ti 4K max. settings nativ ? Wir haben fast 2025.
 
ist fester Bestandteil der UE 5.x, also nix mit Nische. Gibt Softwarefallback für alte Systeme, mehr nicht ;). Iirc nutz auch die Snowdrop-Engine RT-Funktionen, z.B. bei Avatar FOP.

Das wird zunehmen, noch rennen nur viele mit alter Hardware rum. Da müssen die Entwickler Rücksicht nehmen.
Finde er hat schon recht, nur weil es irgendwo fest eingebaut ist nutzt es nicht jeder. Eher so gut wie keiner im moment^^ Würde ja fragen wieviel leute kennst du es wo es immer an haben? Aber da traue ich niemand mehr :D
 
Witzig. Seit über 20 Jahren schenke ich den Empfehlungen von Herstellern keine Beachtung und wäre auch hier nicht auf die Idee gekommen. Weil sie zum größten Teilen schon immer mumpitz waren.

Am Ende schaut man u.a. Hier in die Benchmarks und weiß was Sache ist oder startet es selbst und stellt entsprechendes fest.

Über was sich manchmal aufgeregt wird....
 
Auf jeden Fall ist das witzig. Ansonsten könnte man ja depressiv werden.

Spieler, die sich beschweren, dass es noch höhere Grafikeinstellungen gibt, als derren teure Hardware das schafft. Das ist mir bei Hunt:Showdown aufgefallen, und nun mit Stalker 2 eine weitere Steigerung.

Hersteller sollten Grafikeinstellungen nur noch in einem besonderen und verstecktem Expertenmodus ermöglichen. Außerhalb dessen sollte der Regler immer auf "Ultra" stehen, die Grafikoptionen aber automatisch an die Hardware angepasst werden.
Entsprechende Benchmarks und Bilder dürfen auch nur noch hinter einer Paywall und einem kurzen Eignungstest veröffentlicht werden. Was dann Raff und Co. jedem zugänglich machen dürfen sind "läuft" und "geht net" Urteile, von mir aus mit Balkendiagramm.

Dann hätten wir endlich wieder unsere Ruhe. Ich kann es halt auch nicht nachvollziehen. Sagt man sich da, ja, ich fühle mich einfach gekränkt, wenn meine teure Hardware von den Grafikeinstellungen verhöhnt wird. Das ist natürlich eine Frechheit von den Entwicklern.
Ne, ich will das gar nicht verstehen..
 
Dann wird es ja Zeit dass die 5090 erscheint. Wenn das Game dementsprechend schöne Grafik liefert passt das mit dem Upgrade. Und danach schauts ja aus.
 
keine Probleme auf mich und der 4070 Super zukommen, ich spiele mit UWFHD - mehr als 70-80 fps brauche ich nicht, also benötige ich auch kein DLSS
Hast Du die 76fps @FHD/1080p bei der 4070S ohne DLSS gesehen? Und in UWFHD mit 33% mehr Pixel hast Du mit sehr viel Glück knapp 60fps... OK, NV hat mit max. Settings gebencht - da könntest Du schon paar Reiter etwas nach links schieben um in dem angestrebten 70-80fps Bereich zu landen.
 
nur weil es irgendwo fest eingebaut ist nutzt es nicht jeder. Eher so gut wie keiner im moment^^
die features werde bei UE 5.x und Snowdrop-Engine genutzt wenn vorhanden oder es gibt bei alter hardware software-fallback. da läßt sich vieles garnicht abschalten. daher wird es von allen mit kompatibler hardware genutzt.

das wird zunehmen. vorallem wenn mehr leute moderne Hardware haben ... nur eine frage von etwas zeit. noch müssen entwickler viel rücksicht nehmen.

sieht man an Starfield ... und nein ist kein optimierungs-problem, das wird nur gern behauptet. allein die weitsicht und physik in dem spiel fressen resourcen ohne ende in höheren qualitätsstufen. das geht garnicht anders, das spiel nutzt reichlich CPU-Kerne alleine dafür ... ich sag nur 10k Melonen als Physik-Spielchen ... und alle reagieren aufeinander.

der alte raster-ansatz ist am ende, das friß dann bei vergleichbarer grafik genauso viel leistung. nur mit RT ist das ergebnis 'realistischer'. der strahlenbasierte ansatz ist die zukunft. ist auch gut so.
 
Auch wenn man diesen Unsinn noch so oft wiederholt, stimmt es nicht. Natürlich sind High-End-Karten teurer denn je, aber niemand kann mir erzählen, dass er sich nicht eine neue Grafikkarte im Bereich zwischen 500 und 600 Euro leisten kann. Dann geht man mal eben nicht ins Kino, nicht zu Megges, hat nicht das neues iPhone, versäuft nicht 100 Euro im Club am Wochenende oder bestellt halt mal kein Essen, sondern kocht selbst. Es gibt so viele Möglichkeiten, sich hier und da mal ein paar Euro an die Seite zu legen. Klappt beim 9800X3D komischerweise auch, wo man sogar bereitwillig die Scalper-Preise zahlt. :wall:
Aber sowas von...

Wenn ich sehe was mancher meiner Kollegen/Verwandten schon alleine verrauchen/versaufen sind da in 2 Jahren schon fast 1,5 bis 2 RTX 4090 drinnen. Trotzdem muss man sich in Foren immer mehr rechtfertigen als würden die genau wissen was ich im Leben sonst so treibe lol
Dann wird es ja Zeit dass die 5090 erscheint. Wenn das Game dementsprechend schöne Grafik liefert passt das mit dem Upgrade. Und danach schauts ja aus.
Nicht mehr lange *freu*
Wobei, ich hoffe das der Release mit Scalper & Co nicht völlig eskaliert. Jedenfalls bleib ich dabei, bei Scalpern wird nicht gekauft, gilt auch für Händler die meinen extrem zu übertreiben. Wenn die Händler einen kleinen EA Bonus draufschlagen ok...
Finde er hat schon recht, nur weil es irgendwo fest eingebaut ist nutzt es nicht jeder. Eher so gut wie keiner im moment^^ Würde ja fragen wieviel leute kennst du es wo es immer an haben? Aber da traue ich niemand mehr :D
Du verstehst nicht, das lässt sich nicht abschalten. Wer heute noch meint RT ist eine Nische sollte langsam den Stein hochheben...
 
Zuletzt bearbeitet:
Wie kann eine Systemanforderung Eskalieren ? Die Welt wird immer Kurioser. Die 5700XT als Empfohlen, ok. Is doch gut. Liest sich wie der Spritverbrauchangabe der Hersteller :lol:
Da wußte doch jeder ok +3 Liter auf 100km st dann die Realität.
 
Hast Du die 76fps @FHD/1080p bei der 4070S ohne DLSS gesehen? Und in UWFHD mit 33% mehr Pixel hast Du mit sehr viel Glück knapp 60fps... OK, NV hat mit max. Settings gebencht - da könntest Du schon paar Reiter etwas nach links schieben um in dem angestrebten 70-80fps Bereich zu landen.
Ja, Mathe ist nicht jedermanns Sache. Du darfst nicht nur die X-Achse miteinander ins Verhältnis stellen, sondern das jeweilige Produkt. Dann sind es nur 25% mehr Pixel, und das macht nicht wirklich viel aus.
 
Auch wenn man diesen Unsinn noch so oft wiederholt, stimmt es nicht. Natürlich sind High-End-Karten teurer denn je, aber niemand kann mir erzählen, dass er sich nicht eine neue Grafikkarte im Bereich zwischen 500 und 600 Euro leisten kann.
Ich sehe das so, dass der Einstieg inzwischen einmalig Recht teuer geworden ist (um oder unter 200 Euro wird's schwierig, aber es gibt Lösungen, früher gab's hier massenhaft was), aber wenn man 1x gekauft hat, kann man dafür doppelt so lange "überleben".
Beispiel: in den 90ern und frühen 2000ern hab ich fast alle 2Jahre gekauft. Aber seit ca 2012 komme ich viel länger mit den GPUs aus, auch dank Upscaling-Verfahren.
Klar, wer hohe Auflösungen hat (4K) oder unbedingt in 240hz spielen will, muss öfter oder tiefer in die Tasche greifen.
Ich hab hier "Glück", hab Astigmatismus und damit Anti-Aliasing immer eingeschaltet, für mich reicht also theoretisch FHD. Das ist mein Cheat :D
 
War ja schon mit Erwcheinen der ersten Upscaler klar dass damit manche Entwickler die gewonnene Mehrleistung damit verbraten, indem sie faul sind bei der Optimierung. Ganz nach dem Motto, KI wirds schon richten.

Was hier der Fall ist wird sich spätestens beim Release zeigen. So oder so sollte bei Anforderungen klar ersichtlich sein ob diese mit oder ohne Upscaler zustande gekommen sind.

Ansonsten bin ich auf jeden Fall gespannt ob der Release unabhängig von diesem Thema noch von anderen Eskapaden überschattet wird oder ob da nicht vielleicht doch einfach ein Gaming Brett auf uns zu kommt, welches von Anfang an fetzt. 😁 Letzteres würde ich mir für die Entwicklern als auch die Spieler wünschen.
 
was soll das bitte sein?

ist wenn überhaupt eher Ausnahme denn Regel. In den meisten Fällen wird es genutzt um RT-Performance zu ermöglichen. Zudem ist nicht alles überhaupt oder wenn unendlich parallelisierbar. Da hilft keine 'Optimierung'. Sieht man an Starfield und da ist die Nutzung vieler CPU-Kerne schon immens (Weitsicht und Physik sind bemerkenswert in hohen Einstellungen ... bei WQHD und aufwärts) ;).

Interessant, wie hartnäckig sich dieser Unsinn in Foren hält.
 
Zuletzt bearbeitet:
Ja, Mathe ist nicht jedermanns Sache.
Ja, allerdings, vor allem beim Prozentrechnen stolpern viele.
Du darfst nicht nur die X-Achse miteinander ins Verhältnis stellen, sondern das jeweilige Produkt.
Produkt spielt keine Rolle - ob man die beiden Zahlen, in diesem Fall 1920 und 2560, mit 1080 multipliziert oder nicht - vollkommen egal. Und auch wenn:
1920x1080= 2.073.600 Pixel
2560x1080= 2.764.800 Pixel, was genau 1/3 (33,333%) mehr ist als bei FHD 16:9 oben und FHD ist wiederum 25% weniger als UWFHD, man kann aber die fremden Ergebnisse @FHD nicht einfach mit 0,75 multiplizieren - weil sich die Perspektive/Winkel auch ändert und die GPU-Belastung ist etwas andere -> aber zur groben Orientierung taugt das schon.
Dann sind es nur 25% mehr Pixel, und das macht nicht wirklich viel aus.
Nein, es sind genau 33,333% mehr Pixel und doch, es macht genauso viel aus, wie es sich anhört. Spiele selbst mit 21:9 @ 3440x1440 und bei mir sind's sogar 34,375% - dennoch viel weniger schlimm als 4K und mit DLSS@Quality ist die Belastung (2.201.600 Pixel) vergleichbar mit FHD (nur +6% mehr Pixel), also sogar etwas weniger als bei Dir nativ (2993x960).
 
Du wirst sehen was keinen Sinn macht, zwischen Medium und Max gibt es bis auf PP keine Unterschiede, die Texturgröße die sich dabei ändert ist nur für den VRAM relevant :), alles andere sind post processing filter die kaum Leistung schlucken. Rendergeometrie ist irrelevant, [...]

Wenn du 5500h in UE5 hast dann wirst du das auch verstehen, ich bin Tech-Artist in UE5 ... Und garantiere dir das was ich geschrieben habe der Wahrheit entspricht und sich bestätigen wird. Dennoch werden später meine Worte von dir sicherlich verdreht weil du deinen Unfug irgendwie rechtfertigen willst. Würde gerne mal deine Erfahrung in dem Bereich sehen wenn du mir so selbstsicher unterstellen kannst dass ich falsch liege. Ich arbeite jeden Tag mit der Thematik oben [...]

Ich gebe es auf. Die Karte ist irrelevant, aber das wirst du vermutlich nicht verstehen was ich damit meine. ES LIEGT NICHT am unterschied zwischen 4080 und 4080S sondern an den Settings (med-max)*** danke an ElliotAlderson der mich hier korrigiert hat). Ich hätte genau so gut 4080 vs 4080 schreiben können. Die S habe ich dazugenommen weil die minimal mehrleistung hat und ich bereits Benchmarks dazu gesehen habe, von welchem Spiel sage ich jetzt lieber nicht. Was ich sagen kann ich kenne einer der 3D Modeller (TehSnake) von GSC mit dem ich gut befreundet bin.

Ihr beiden versucht mir beizubringen dass zwischen der 4080 und 4080S kaum unterschied ist, korrekt. Aber darum ging es NIE. Es ging um die Frames zwischen Medium und High mit zwei fast identischen Karten wovon die eine minimal Mehrleistung (MRender und Nbody) hat.
Ich habe hier noch nicht alles gelesen, aber jetzt muss ich mich auch mal zu Wort melden..

Wenn du technisch wirklich Wissen hast, sind dein Problem deine Kommunikations-Skills!
Ich fand deine Insights zur Render-Pipeline von UE5 interessant, und es klingt auch plausibel, aber als du danach @ElliotAlderson 's Kommentar zu DLSS scheinbar vollkommen missverstanden und danach über was anderes dahergeredet hast, war ich schon überrascht..
Er hat von DLSS Q(uality) @ "4K" gesprochen, oder um es noch klarer zu machen: "4K" mit DLSS Quality (0.67x render resolution). Und dann fängst du an von _Down_scaling zu reden, aber auch weiterhin den Begriff "DLSS" zu verwenden.
DLSS ist praktisch immer Upscaling, denn die DLSS Technik mit nativer Auflösung wird normal "DLAA" genannt. Und DLSS für Downscaling gibt es meines Wissens nach gar nicht.
(DLDSR funktioniert ganz anders als DLSS - soweit ich weiß).

Und dann noch deine Benchmark Vorhersagen, wo du zwei unterschiedliche Karten aufführst, obwohl du scheinbar weißt, dass sie sich leistungstechnisch nicht wirklich unterscheiden und es dir um die Settings und nicht um die Karten geht. Aber damit lädst du doch nur Missverständnisse ein und bringst deine Intention nicht klar rüber!
Wenn es dir nur um die Settings geht und _nicht_ um die Karten, dann lass sie doch raus?
Aber selbst die Karten außen vor gelassen - und ich habe extra noch Mal geschaut - hast du folgendes geschrieben:
1080p Max: 95 fps
1080p Medium: 85 fps
-> Wieso sollten maximale Settings besser/schneller laufen als mittlere/Medium? Das macht halt keinen Sinn.

Wenn du meinst:
1080p Max: 85 fps
1080p Medium: 95 fps
..dann wird ein Schuh draus.
Aber das ist wieder ein Beispiel wie schlecht/unzuverlässig du deine Gedanken kommunizierst!

Ich habe das Problem, dass ich ziemlich lange brauche, um etwas zu schreiben und lese mir meinen Text immer mind. 3 mal durch, aber in 'ner Minute schnell in die Tasten zu hauen, ohne roten Faden und ohne noch mal Proofreading zu betreiben (noch Mal lesen und überprüfen, was man geschrieben hat), ist doch auch nicht der Weg..

Achja, was ist eigtl. "DLSS-S"?
 
Zuletzt bearbeitet:
Zurück