Ja, dann wird das Spiel unspielbar werden....Hat wer Erfahrung damit wenn die CPU 4% schwächer ist als die vorgegebene CPU
wenn der Rest des Systems alles übertrifft
könnte es zum Problem werden?
Glaube ihr seht das zu eng. AMD unterstützt dieses Spiel mit vielen $. Es ist damit auch deren gutes Recht eigene Produkte darin zu bevorzugen + zu vermarkten durch diese Vorgaben. Intel+NV User müssen einfach nur coolen Kopf bewahren, den Release abwarten und im Netz schauen wie Starfield dann mit NV/Intel läuft. Wer damit nicht zufrieden ist kauft einfach kein Starfield. Ist doch nicht schlimm, es gibt 1 Mio anderer Spiele. War doch schon immer so dass eigentlich jedes Spiel mal mit AMD mal mit Intel oder/und NV besser läuft. Spiele sind immer für einen bestimmte Hardware optimiert, ich sag nur 3d Cache. Mit anderer Hardware läuft es auch immer, nur meist etwas schlechter.Spieler mit Intel und Nvidia Komponenten werden das Spiel auch spielen können und werden mit diesem Marketing-Gag entfrremdet.
Mit Dlss würde ich auch gut finden, muss aber nicht sein, gibt leider viele andere Beispiele wo immer nur eine der beiden Technologien vorhanden sind.Verstehe die Angaben einfach Null. Das fängt bei den Namen wie epic und legendär an und hört dann bei der unsinnigen Hardware aus. Warum genau muss die CPU denn soviel besser sein für 4k? Test abwarten und dann wird es wahrscheinlich nicht gekauft. Ich bin mir fast sicher, dass es nach 5-6 Monaten auf einmal auch DLSS2/DLSS3 in das Spiel schafft. Zusätzlich sind dann die Bugs weg und das Spiel deutlich günstiger.
Ein Singleplayerspiel muss ich nicht zum Start spielen...
... Ich bin mir fast sicher, dass es nach 5-6 Monaten auf einmal auch DLSS2/DLSS3 in das Spiel schafft. Zusätzlich sind dann die Bugs weg und das Spiel deutlich günstiger.
Ein Singleplayerspiel muss ich nicht zum Start spielen...
Verstehe die Angaben einfach Null. Das fängt bei den Namen wie epic und legendär an und hört dann bei der unsinnigen Hardware aus. Warum genau muss die CPU denn soviel besser sein für 4k? Test abwarten und dann wird es wahrscheinlich nicht gekauft. Ich bin mir fast sicher, dass es nach 5-6 Monaten auf einmal auch DLSS2/DLSS3 in das Spiel schafft. Zusätzlich sind dann die Bugs weg und das Spiel deutlich günstiger.
Ein Singleplayerspiel muss ich nicht zum Start spielen...
Definitiv, der otto-normal NV 0815 Gelegenheitszocker wird dann mit seiner Einsteiger GPU rtx4090 in 4k nur mickrige 180 statt erwartete 200fps bekommen. Damit ist Starfield Definitiv unspielbar!Puh, Schade für die INTEL/NV User, die sind ja dann wohl offensichtlich www.raus.de
Etwas das FSR ja nicht kann?Wenn kein DLSS, weiß ich nicht, ob ich Starfield überhaupt spielen will, da DLSS mir pers hilft die Rechenleistung meines PC selbst bei aufwendigen Spielen unterhalb der Turbo Grenze zu halten.
FSR?Einzig Schade ist der fehlende DLSS3 Support. Aber tragisch ist das jetzt auch nicht, eine 4090 wird das locker auch ohne DLSSS stemmen. Wird die Karte dann 100 Watt mehr Leistung weg nuckeln, aber was solls.
Ja, aber das wird da ja nichtmal geschrieben, nich dazu werden nur AM5 Boards genannt, die allesamt DDR5 unterstützen und ich denke nicht, dass sich Systemempfehlungen auf getunte Systeme beziehen, daher halte ich diese Angabe auch eher für unnötig und falsch.Dass Mainboards mit unterschiedlichen Chipsätzen die Performance sehr wohl beeinflussen können, haben mehrere Tests schon gezeigt.
Es ist ja schon ein Unterschied, ob man DDR4 oder DDR5 verwendet.
Wenn man viele M.2 nVME nutzen will gibt es keine Alternative.Ein x670 board für einen 7800x3d sehe ich als Geldverschwendung, aber man muss ja upselling betreiben.
Du schaffst auch teilweise die CPU Last zu verringern und vor allem die P1 zu verbessern mit DLSS und FSR, insofern kann das auch im CPU Bottleneck einen Unterschies machen, sicher nicht on dem Ausmaß wie im GPU Limit, aber einen Unterschied schonwenn beide nicht voll ausgelastet sind weil die CPU nicht hinterher kommt.
Dann ist es auch relativ scheißegal ob nur FSR vorhandenen ist oder nicht.. da upacaling in dem Fall die Renderauflösung nur verringert und das CPU bottleneck vergrößert.