News Starfield und AMD: Warum Bethesda und Nvidia keine Partner wurden [Gerücht]

nein, Upscaling ist bei 85%, aber die Zielauflösung im Spiel ist nicht nochmal irgendwie reduziert, sondern ich spiele IMMER auf der nativen Auflösung des verwendeten Bildschirms, auch wenn ich beim Rendern dank DLSS+FG etwas niedrigere Auflösungen als Berechnungsgrundlage "erzwinge". Irgendwo muss der Performancezuwachs durch Upsampling-Techniken ja herkommen...

Achso, es dürften nahezu alle genau so machen, deshalb war ich überrascht, weil du speziell "native Auflösung" gesagt hast.
 
Um nochmal was ist falsch daran ein altes Gerüst weiter zu nutzen als alles neu zu erfinden?
Oder trifft das nur auf die Creation Engine zu bei der alter schlecht ist im Gegensatz zb zu der Unreal oder der IdTech Engine?

Ich kanns jetzt noch fünf Mal hinschreiben... es gibt immer noch Physikbugs in deren Gamebryo Abkömmling, eben weil die nie richtig angepackt wurden. Sie scheinen wohl inhärent zu sein.

Bethesda hat sicherlich mehr als genug Geld mit ihren Spielen gemacht. Schlussendlich kann uns das aber auch alles egal sein, wir sehen das Ergebnis mit schlechter Performance und den immer gleichen Bugs.
 
Ich finde es echt lustig, wie sehr dieses Thema angegangen wird, Nvidia geht Partnerschaft mit DiCE ein, man hört kein gejammer, amd geht Partnerschaft mit x ein und alle weinen rum.
Diese Partnerschaft ist halt ein Witz. Ich meine auf Nvidia Karten läuft es out of the box eher schlecht, keine 12 Stunden nach Release gibt es dann bereits ein DLSS/FG Mod, die alle AMD Karten aber mal sowas von verprügelt, dann sind auch Intels CPUs besser als AMDs hier in dem Spiel. Nachteile für alle, mehr nicht. Nicht mal AMD Hardware selber hat ja profitiert. Die Mod sorgt für FPS, von denen man auf AMD Karten nur träumen kann und die CPUs sind auch langsamer als die der Konkurrenz, super. :fresse:
 
Ich verstehe solche Aussagen irgendwie nicht richtig. Ich zocke Starfield auf einem im Vergleich leistungsschwächeren System (AM4-Plattform: R7-5800X3D und RTX4080) mit aktivem DLSS und FG in der nativen Monitorauflösung von 3440x1440 und bin zu 95% des bisher erlebten Contents (Lvl.25) am Monitorbedingten FPS-Limit von 99. Also zumindest aus Performance-Sicht kann hier m.E. keine Rede von "unspielbar" sein (von den anderen "Eigenheiten" Starfields, wie Instanzen-Show, fehlende Map, hölzerne NPC, unsinniges Crafting und Basenbau udgl. mal abgesehen, aber das wird sich mit Leistungsoptimierungen ja auch erst mal nicht so schnell bessern...)
Ich hab keine Lust auf das Frickel DLSS + FG. Daher warte ich auf eine saubere Implementierung vom Entwickler. Dann sehe ich weiter.
 
Ich kanns jetzt noch fünf Mal hinschreiben... es gibt immer noch Physikbugs in deren Gamebryo Abkömmling, eben weil die nie richtig angepackt wurden. Sie scheinen wohl inhärent zu sein.
Und du kannst es auch 100mal wiederholen, ich habe und werde nie widersprechen das da einige Fehler mitgeschleppt wurden.
Das einzige wo ich halt drauf hinauf will, ist das es nicht zwangsläufig an dem alter der Engine liegt.
Wenn dem so wäre müssten die IdTech und Unreal Engine die selbe Symptomatik haben.
 
Hier spielt Nvidia schlicht eine verschwindend geringe Rolle.
Nicht auf dem PC und dort ist das Spiel eben auch erschienen. Wenn ihnen der PC nicht wichtig wäre, hätten sie es dort gar nicht veröffentlicht, also hört auf die Zahlen kleinzureden. Das sind doch nur Strohmänner, um das heißgeliebte AMD zu verteidigen.

Ich hab keine Lust auf das Frickel DLSS + FG. Daher warte ich auf eine saubere Implementierung vom Entwickler. Dann sehe ich weiter.
Da kannste lange warten ;)
Es ist auch kein Gefrickel. Einbauen und läuft.
 
Diese Partnerschaft ist halt ein Witz. Ich meine auf Nvidia Karten läuft es out of the box eher schlecht, keine 12 Stunden nach Release gibt es dann bereits ein DLSS/FG Mod, die alle AMD Karten aber mal sowas von verprügelt, dann sind auch Intels CPUs besser als AMDs hier in dem Spiel. Nachteile für alle, mehr nicht. Nicht mal AMD Hardware selber hat ja profitiert. Die Mod sorgt für FPS, von denen man auf AMD Karten nur träumen kann und die CPUs sind auch langsamer als die der Konkurrenz, super. :fresse:
FG ja, da wird AMD mit echt Leistung verprügelt.
Wie sieht es denn mit nativ aus, mit der besten Bildqualität, oder macht custom DLSS mit FG jetzt auch schon besser als nativ
 
Warum macht es dann NVidia nicht, wenn es sooo einfach ist?

Kassieren Premium und lassen die Modder die Arbeit machen, läufft bei NV. :daumen:

Was redest Du da für einen Unfug? Wie soll Nvidia denn an den Source Code vom Spiel kommen um DLSS "richtig" zu implementieren? Die werden sich hüten als Hersteller eine "offizielle" Mod für ein Exklusiv-Partner-Spiel des Mitbewerbers rauszubringen. Die Suppe müssen Bethesda und AMD schön selbst auslöffeln.

Die Nvidia Leute haben sich bestimmt kaputt gelacht als 2-3 Stunden nach Release der DLSS Mod rauskam und besser aussieht als FSR2.

FG ja, da wird AMD mit echt Leistung verprügelt.
Wie sieht es denn mit nativ aus, mit der besten Bildqualität, oder macht custom DLSS mit FG jetzt auch schon besser als nativ
DLSS macht auf jeden Fall besser als FSR2, und mittlerweile, bei guter Integration, auch oft besser als nativ.
 
Hi,

bei mir läufts ohne Probleme

ok.. ich hab den DLSS Mod drauf aber dafür läuft es Butter mit meiner RTX 4070 ti + Ryzen 7 5800X3D in QWQHD 3440x1440
starfield 1.jpg
starfield 2.jpg
 
Du hast noch Luft nach oben in punkto Bildqualität, setz die Auflösung via DLDSR auf 4857*1920, und die Skalierung auf 67% (entspricht DLSS Quality).
Die Bildrate dürfte nicht viel geringer sein, aber die Bildqualität wird immens besser.
 
Ich hab es von Anfang an gesagt...

Jetzt sagt sogar Moores Law es auch so...

Und wie viele haben hier im Forum herumgejammert, da wäre Geld geflossen und AMD würde Nvidia verbieten DLSS in das Game zu packen... alles Vorurteile und Blödsinn.

Weil ein Youtuber das sagt ist es also wahr? MLID ist ein bekannter AMD Fan und Nvidia Hater. Come on...

Und wenn dann hat AMD Bethesda untersagt DLSS einzubauen, nicht Nvidia. Was stimmt werden wir nie erfahren, die Abläufe und andere Beispiele sprechen aber eindeutig gegen AMD.
 
Zurück