Special Starfield fordert GPU: RTX 3080 mit 30 Fps - Hardware beim Ersteindruck am Limit

Egal wie, entwickelt es sich nicht in Richtung stabil 90FPS bei 3440x1440p mit einer
4090, bin ich raus. Alles darunter stört mich....
also bei der Optik erwarte ich eigentlich auf 3440x1440p mit ner RTX4080 schon minimum 100 FPS@Max/Native.... mit ner RTX4090 schon im 144FPS bereich

die 90FPS mit ner RTX4090 sollten in 4k schon problemlos drin sein
 
Aber aber das ist doch angeblich so viel Mehraufwand :ugly:
Frag mich auch wie es sein kann dass ein Modder das in zwei Stunden mal eben hinbiegt. Aber so wie ich es verstehe scheinen die APIs und Pipeline-Zugriffe dieselben zu sein, man kann also bei jedem Spiel das Upscaling nutzt diese Upscaler interchangen.

Es gibt schlicht keine Ausrede warum man etwas nicht "implementieren" konnte. Es ist fucking copy paste von DLLs und zwei Zeilen Code.

Er stellt auch die berechtigte Frage, warum der Entwickler das DLSS angesichts des geringen Aufwands nicht einbauen konnte.
Ich finds in beide Richtungen störend. Bzw. auch XeSS. Es gibt keinen Grund warum ein Spiel 2023 nicht mehr alle Upsampler unterstützt zumal alle auf die gleiche Weise auf die Engine zugreifen.

Dass manches dann nicht super hochoptimiert läuft versteh ich, aber wenigstens implementieren mit Beta-Tag muss drin sein.

Yeah, berichtet mal wie es läuft.
Werd gegen Mittag mal anfangen zu daddeln und schauen wie es läuft. :D

Vor allem bei der Performance. 7900XTX vor der 4090.
Aber AMD sind die guten :ugly:
Wundert mich auch ein bisschen, aber gut, auch zu Ampere-Zeiten war RDNA2 zB in Assassins Creed Valhalla überlegen. Ich würde nicht immer zwingend was Böses unterstellen wollen es ist aber schon merkwürdig, dass hier einfach mal eben die 25-30% üblicher Mehrleistung einfach so verpuffen. :D
 
Wundert mich auch ein bisschen, aber gut, auch zu Ampere-Zeiten war RDNA2 zB in Assassins Creed Valhalla überlegen. Ich würde nicht immer zwingend was Böses unterstellen wollen es ist aber schon merkwürdig, dass hier einfach mal eben die 25-30% üblicher Mehrleistung einfach so verpuffen. :D
Nicht nur verpuffen. Aus 25-30% Vorsprung werden ~2-5% langsamer als die XTX :ugly:
Schwankungen gibt es immer, aber dass mal eben 30-35% Leistung verloren gehen und das nur bei der Konkurrenz, ist schon sehr seltsam.
 
Und keiner merjt, dass dieses Spiel nichtmal HDR Support am PC hat.
Die Grafik sieht grau und verwaschen aus.
Das gesamte Spiel ist für mich technisch veraltet und nicht zeitgemäss.
Kein Raytracing, kein DLSS, kein HDR, graue Matsche Grafik auf meinem OLED.
Hab es zurückgegeben.
 
rofl behaltet den schrott mal schön , ich hab in jedem Game auch Cyperpunk 170 fps und dann nur 100 in starfield verarschen oder was ..... voll das amd game ohne dlss 3.5 loool
Herzlichen Glückwunsch,
da haben wir ja den Deppen Kommentar des Threats ja schon gefunden, obwohl deine Konkurrenz schon auf den ersten Seiten sehr stark ist.
Du darfst dich als Preis jetzt eine Woche lang NvidiaForumsDödel nennen, gz!!! :daumen:
 
also bei der Optik erwarte ich eigentlich auf 3440x1440p mit ner RTX4080 schon minimum 100 FPS@Max/Native.... mit ner RTX4090 schon im 144FPS bereich

die 90FPS mit ner RTX4090 sollten in 4k schon problemlos drin sein
Was ich bis dato an Benchmarks in der Richtung entdeckt habe, spricht nicht für diese FPS Zahlen. Weder nativ, oder mit dem hässlichen FSR Krampf, noch mit dem DLSS Mod. Ehrlich, es kann nur reine Geldmacherei sein. Ich will gar nicht wissen was da an Kohle geflossen ist.
Habe null Probleme damit, wenn ein Studio mit einem Hersteller einen Deal macht, um letztendlich über den Release mehr Hardware zu verkaufen. Ergo, kauf das Mainboard, die GPU und bekomme Starfield für umme. Warum man aber vorhandene Technologien, auch wenn sie nur "tricksen", wie DLSS FG3 komplett ausschließt? Mir kann kein Mensch erzählen das hier nicht AMD...die Chairman hinter einem solchen Deal nicht die Daumen auf der Entscheidung hatten.
Klar, FG erzeugt im Prinzip nur Zwischenbilder. Aber so what? Ist Standard in jeder modernen Bildwiedergabe am TV und funktioniert einwandfrei mit leichten Bildartefakten. Das ist doch genial, gerade wenn man mit so einer Grafik an den Start geht, bzw. die Engine halt eben solche hohen Anforderungen stellt. Hat man die Möglichkeit etwas zu implementieren, was unter Umständen FPS Zahlen verdoppelt und dazu noch einwandfrei aussieht, wieso bietet man das nicht seinen Kunden? Da kann nur Geld- und Marktpolitik der Grund sein. Ob man nun NV mag oder nicht, AMD hinkt einfach hinterher...und mich als Enthusiast in Sachen PC Gaming, f...t sowas nur ab :daumen2:
 
???
Läuft doch für nen Launch seeehr rund.
Patche werden da kaum noch Was ändern und NV+AMD haben bereits gameready Treiber.
Denke auch, für ein Release ist hier ziemlich viel richtig gut gelaufen! (Leider muss man das heute schon hervorheben).

Denke Patch/Update und oder auch noch weitere Treiber Verbesserungen werden nochmal 10% raus holen, mehr nicht.

Das ist aber alles auch in Ordnung.

AMD Titel, das der bei AMD etwas besser läuft ist doch ok. Aber generell für ein neues Spiel, mit der Otpik finde ich es in Ordnung.

Und ein jeder kann Regler bedienen.

Wenn ich lese, wenn Spiel XY, auf Karte xy nicht mit mindestens xy Fps läuft, dann ohne mich, bekomme ich einen Kotzkrampf. Welche Erwartungshaltung haben manche...
 
Wenn überhaupt, liegt der Ball bei NV, die nochmal bezgl. Ampere ihren Treiber anschauen sollten.
(obwohl 3080=4070 net sooo ungewöhnlich ist)

Bei Intel bin ich auch mal gespannt, .... da wirds drauf ankommen das FSR2 rund läuft.
(derzeit noch net gameready)

Bei Beiden dann vllt. auch nochmal rBar wichtig?
(kann sein, das Viele gar kein rBar mit NV nutzen)
 
Zuletzt bearbeitet:
Was ich bis dato an Benchmarks in der Richtung entdeckt habe, spricht nicht für diese FPS Zahlen
das war eher ein Sollte..
bei der Optik und dem gebotenen erwarte ich Nativ mit ner RTX4080 in 1440p so um die 144 fps.. man kann allerdings froh seín wenns 80 sind..
ergo performt das spiel mindestens nur halb so gut wie es aufgrund der optik sollte.. eher sogar nur ein drittel
 
sagt sich immer leicht mit dicker HW @derneuemann :-D
Das Wort " okay" , lasse ich so gerade eben durchgehen, wenn es denn sonst keine größeren Schnitzer hat. Aber ich warte noch auf die PCGH Benchmarks. Das Steam Forum ist aufjedenfall mal wieder sehr hilfreich. :ugly:

@blu3fire
wir sind hier auch verwöhnte Buben, wobei ich als erstes meistens ein 60 fps lock setze, solange nicht "geballert" wird. :-)
 
Wenn ich lese, wenn Spiel XY, auf Karte xy nicht mit mindestens xy Fps läuft, dann ohne mich, bekomme ich einen Kotzkrampf. Welche Erwartungshaltung haben manche...
Stört mich auch oft, aber ein bisschen kann ichs nachvollziehen. Ich setze schon auch Optik/FPS in Relation zur geforderten Hardware.

Beispiel: Wenn ein Game wie Jedi Knight 2 aussieht im Jahre 2023 und dabei auf ner 4090 in FHD nur 25fps drückt hab ich ein Problem damit. Wenn ein Game fully pathtraced ist und aussieht wie Cyberpunk² und denselben Wert hat ist das wie Crysis für mich einfach zukunftsorientiert.
Ich finde es lustig, dass sich hier manch einer so krampfhaft an FPS Zahlen aufhängt. Warum müssen es immer 100+ FPS sein? Tester haben bestätigt, dass es auch mit 50-60 FPS smooth läuft.
Weil 50fps alles sind nur nicht smooth.

Wenn du selbst mal an einem 240Hz OLED gezockt hast mit FPS 180-240 und dann auf einmal 50 präsentiert bekommst wirst sofort sehen und spüren wie schlecht das ist. Meine Mum hat immer zu mir gesagt wenn ich relativiert hab: wir orientieren uns nach oben, nicht nach unten. Schlechter gehts immer irgendwem, das ist nicht das Ziel.
 
das war eher ein Sollte..
bei der Optik und dem gebotenen erwarte ich Nativ mit ner RTX4080 in 1440p so um die 144 fps.. man kann allerdings froh seín wenns 80 sind..
ergo performt das spiel mindestens nur halb so gut wie es aufgrund der optik sollte.. eher sogar nur ein drittel
Da stimme ich dir zu. Zudem, was soll bitte diese Farbgebung bei einem Sci-Fi Spiel? Gut, das ist Geschmackssache, aber die braun-orange Tönung als Stilmittel, sehe ich eher in einem Western Titel. Ganz zu schweigen von dem "Schleier" dem sie mal wieder dem Spiel verordnet haben, welcher jeglichen Kontrast obsolet macht. Ach, HDR wird auch nicht unterstützt. Nenene...haben den Schuß nicht gehört meiner Meinung nach. Ein klarer Fall für "lass mal die Modder machen". Ohne Reshade / NV Freestyle (gibts ja eh nicht) würde ich das wahrscheinlich nicht spielen, weil mir die Optik insgesamt überhaupt nicht gefällt. ...und wer spielt bitte mit ´nem künstlichen Film-Rauschfilter? Was hat das überhaupt in Games zu suchen? Maybe in einem Indie-FilmNoir Titel. Aber einem Sci-Fi NextGen RPG? Braucht kein Mensch :devil:
 
Ich mach ein dickes rotes Kreuz in den Kalendar, wenn ich von dir auch nur 1x in meinem Leben einen kritischen Kommentar zu AMD lese.
bitte schön:

Es gibt genug Games, wo RDNA3 relativ schlecht ggü. RDNA2 abschneidet, aufgrund von double Issue und schlechter Auslastung.

Es gab Letztens einige Games wo die 3080 in 4k überdurchschnittlich gut lief.
(besser als ne 6900)

Ich werde der Letzte sein, der Pauschalurteile abgibt.
Da sind derzeit die Architekturen zu unterschiedlich.
 
Weil 50fps alles sind nur nicht smooth.

Wenn du selbst mal an einem 240Hz OLED gezockt hast mit FPS 180-240 und dann auf einmal 50 präsentiert bekommst wirst sofort sehen und spüren wie schlecht das ist. Meine Mum hat immer zu mir gesagt wenn ich relativiert hab: wir orientieren uns nach oben, nicht nach unten. Schlechter gehts immer irgendwem, das ist nicht das Ziel.

Das kann man nicht pauschalisieren. Ist von vielen Faktoren abhängig, Anzeigegerät etc. und da spielt unter anderem auch die Gameengine eine Rolle. Faktisch sind 60Hz sprich 60 FPS für die menschliche Wahrnehmung bei über 90% der Menschen voll flüssig. Und da Starfield jetzt kein schneller Shooter ist, ist es denke mit 60 FPS gut spielbar, dass haben übrigens die Tester so bestätigt.
Ich behaupte mal, der ein oder andere bildet sich da ab und zu mal was ein bzgl. FPS. Ich benutze übrigens ein 165hz Display und über 100 FPS sehe ich da absolut keinen unterschied mehr, auch bei schnellen Games.
 
Zurück