News Starfield × AMD: Systemanforderungen reichen von heroisch bis legendär

Mein Gamepass läuft noch bis Januar 24, werde es mal ausprobieren. Hauptsache keine 30 fps wie auf den Konsolen, dann bin ich schon zufrieden. 60 würden mir in 4k mit FRS 2 Quality reichen. Ist noch Luft nach oben wird alles hochgedreht was geht?
 
Zuletzt bearbeitet:
Hat wer Erfahrung damit wenn die CPU 4% schwächer ist als die vorgegebene CPU
wenn der Rest des Systems alles übertrifft
könnte es zum Problem werden?
 
Hat wer Erfahrung damit wenn die CPU 4% schwächer ist als die vorgegebene CPU
wenn der Rest des Systems alles übertrifft
könnte es zum Problem werden?
Ja, dann wird das Spiel unspielbar werden....:schief:
Ist schon Wahnsinn, was hier wegen so ner verkackten Herstellerfolie abgeht. Aber das spiegelt genau den Wahnsinn wieder, der auch außerhalb der Haustür seit paar Monaten gelebt wird. :stupid:
 
Verstehe die Angaben einfach Null. Das fängt bei den Namen wie epic und legendär an und hört dann bei der unsinnigen Hardware aus. Warum genau muss die CPU denn soviel besser sein für 4k? Test abwarten und dann wird es wahrscheinlich nicht gekauft. Ich bin mir fast sicher, dass es nach 5-6 Monaten auf einmal auch DLSS2/DLSS3 in das Spiel schafft. Zusätzlich sind dann die Bugs weg und das Spiel deutlich günstiger.

Ein Singleplayerspiel muss ich nicht zum Start spielen...
 
Spieler mit Intel und Nvidia Komponenten werden das Spiel auch spielen können und werden mit diesem Marketing-Gag entfrremdet.
Glaube ihr seht das zu eng. AMD unterstützt dieses Spiel mit vielen $. Es ist damit auch deren gutes Recht eigene Produkte darin zu bevorzugen + zu vermarkten durch diese Vorgaben. Intel+NV User müssen einfach nur coolen Kopf bewahren, den Release abwarten und im Netz schauen wie Starfield dann mit NV/Intel läuft. Wer damit nicht zufrieden ist kauft einfach kein Starfield. Ist doch nicht schlimm, es gibt 1 Mio anderer Spiele. War doch schon immer so dass eigentlich jedes Spiel mal mit AMD mal mit Intel oder/und NV besser läuft. Spiele sind immer für einen bestimmte Hardware optimiert, ich sag nur 3d Cache. Mit anderer Hardware läuft es auch immer, nur meist etwas schlechter.
 
Verstehe die Angaben einfach Null. Das fängt bei den Namen wie epic und legendär an und hört dann bei der unsinnigen Hardware aus. Warum genau muss die CPU denn soviel besser sein für 4k? Test abwarten und dann wird es wahrscheinlich nicht gekauft. Ich bin mir fast sicher, dass es nach 5-6 Monaten auf einmal auch DLSS2/DLSS3 in das Spiel schafft. Zusätzlich sind dann die Bugs weg und das Spiel deutlich günstiger.

Ein Singleplayerspiel muss ich nicht zum Start spielen...
Mit Dlss würde ich auch gut finden, muss aber nicht sein, gibt leider viele andere Beispiele wo immer nur eine der beiden Technologien vorhanden sind.
Bzgl. CPU wird sich zeigen wobei natürlich die rx7900xt eine wahnsinns GPU ist die sicher viele CPU's bei manchen Games auch in hohen Auflösungen auslasten könnte. Hohe Auflösung hat zwar weniger fps was die CPU massiv entlastet. Auf der anderen Seite hat man natürlich teilweise bei höheren Auflösungen auch größere Bildausschnitte mit einiges an mehr Objekten was die CPU wiederum mehr belastet. Meist ist es jedoch so wie du sagst das in 4k fast im gpu das Bottelneck ist. Denke einfach abwarten bis zum Release und im Youtube+pcgh die vielen CPU+gpu Tests schauen. Vorher ist alles nur wildes Spekulatius-Keks.
Gefühlt würde ich auch eher vermuten dass ein ryzen 7700x in 4k selbst eine rx7900xtx befeuert könnte.
 
... Ich bin mir fast sicher, dass es nach 5-6 Monaten auf einmal auch DLSS2/DLSS3 in das Spiel schafft. Zusätzlich sind dann die Bugs weg und das Spiel deutlich günstiger.

Ein Singleplayerspiel muss ich nicht zum Start spielen...

Ich tippe auch, das Nvidias DLSS irgendwann nachgereicht wird, ich kann warten... Immer dieses Theater um Exclusivität oder Bevorzugung eines bestimmten Herstellers ist schon verdammt nervig heutzutage. Wenn kein DLSS, weiß ich nicht, ob ich Starfield überhaupt spielen will, da DLSS mir pers hilft die Rechenleistung meines PC selbst bei aufwendigen Spielen unterhalb der Turbo Grenze zu halten. Spiele die über 300 Watt an Strom aus der Dose ziehen sind iMo Tabu und Geldverschwendung.
 
Zuletzt bearbeitet von einem Moderator:
Wft, mit meinem X570 kann ich das dann nicht mal in Full HD spielen!?! :o

Nee, jetzt mal im Ernst: Wie bei Baldurs Gate 3, je mehr ich davon und vom Marketing mitbekomme, desto weniger Lust habe ich auf das Spiel. Und diese "Systemanforderungen" sind einfach nur unseriös. Starfield gegenüber ist echt höchste Skepsis angebracht.
 
Verstehe die Angaben einfach Null. Das fängt bei den Namen wie epic und legendär an und hört dann bei der unsinnigen Hardware aus. Warum genau muss die CPU denn soviel besser sein für 4k? Test abwarten und dann wird es wahrscheinlich nicht gekauft. Ich bin mir fast sicher, dass es nach 5-6 Monaten auf einmal auch DLSS2/DLSS3 in das Spiel schafft. Zusätzlich sind dann die Bugs weg und das Spiel deutlich günstiger.

Ein Singleplayerspiel muss ich nicht zum Start spielen...

Das ist nur Verkaufsmarketing. Ich halte die Prozessorangaben für kompletten Bullshit. Man wohl Nutzern wie mir, mit einem 5900X oder Intel Prozessor einreden, man brauchen einen AMD 7800X3 Minimum. Das ist Quatsch. Ich bin in noch keinem einzigen Spiel von der CPU limitiert worden, da wird Starfield keine Ausnahme sein.

Einzig Schade ist der fehlende DLSS3 Support. Aber tragisch ist das jetzt auch nicht, eine 4090 wird das locker auch ohne DLSSS stemmen. Wird die Karte dann 100 Watt mehr Leistung weg nuckeln, aber was solls.
 
Ich würde mir ja bei dem bereits auf Konsolen angekündigten CPU bottleneck weniger Gedanken um die verwendete Grafikkarte machen.

Ob da jetzt ne rx7900xt oder eine rtx4070 steht für heroisch ist relativ egal
(darunter verstehe ich übrigens 4k@nativ @max Details +RT @60+FPS )

wenn beide nicht voll ausgelastet sind weil die CPU nicht hinterher kommt.
Dann ist es auch relativ scheißegal ob nur FSR vorhandenen ist oder nicht.. da upacaling in dem Fall die Renderauflösung nur verringert und das CPU bottleneck vergrößert.

Jedi survivor hatte weniger GPU Probleme.. die Karten wurden nur nicht ausgelastet wegen massiver CPU Problemen wo selbst ein 7800x3d nicht gelangt hat.

Einzig framegeneration würde hier was bringen.. aber AMD bekommt das diese Generation nicht mehr gebacken
 
Wenn kein DLSS, weiß ich nicht, ob ich Starfield überhaupt spielen will, da DLSS mir pers hilft die Rechenleistung meines PC selbst bei aufwendigen Spielen unterhalb der Turbo Grenze zu halten.
Etwas das FSR ja nicht kann?

Einzig Schade ist der fehlende DLSS3 Support. Aber tragisch ist das jetzt auch nicht, eine 4090 wird das locker auch ohne DLSSS stemmen. Wird die Karte dann 100 Watt mehr Leistung weg nuckeln, aber was solls.
FSR?
Dass Mainboards mit unterschiedlichen Chipsätzen die Performance sehr wohl beeinflussen können, haben mehrere Tests schon gezeigt.
Es ist ja schon ein Unterschied, ob man DDR4 oder DDR5 verwendet.
Ja, aber das wird da ja nichtmal geschrieben, nich dazu werden nur AM5 Boards genannt, die allesamt DDR5 unterstützen und ich denke nicht, dass sich Systemempfehlungen auf getunte Systeme beziehen, daher halte ich diese Angabe auch eher für unnötig und falsch.
 
wenn beide nicht voll ausgelastet sind weil die CPU nicht hinterher kommt.
Dann ist es auch relativ scheißegal ob nur FSR vorhandenen ist oder nicht.. da upacaling in dem Fall die Renderauflösung nur verringert und das CPU bottleneck vergrößert.
Du schaffst auch teilweise die CPU Last zu verringern und vor allem die P1 zu verbessern mit DLSS und FSR, insofern kann das auch im CPU Bottleneck einen Unterschies machen, sicher nicht on dem Ausmaß wie im GPU Limit, aber einen Unterschied schon
 
Mindfactory Bestellung ist raus. Neues Mainboard, RAM, CPU. 800 Euro.
Ach neh ich warte einfach bis der 5800x3d auf 250 fällt.

Außerdem haben die Amateure nichts von CD Projekt Red gelernt? Die brauchen Promis als Zugpferde für's Marketing und Technologie Partnerschaft machst du heimlich.
 
Zurück