News Verkehrte Welt in Starfield: Intel Core hängt AMD Ryzen trotz Sponsoring ab

Seht es doch mal so:
Als die ersten älteren Intel-Chips in Eurem Live-Ticker kein Land gegen die älteren Ryzen sahen, gab's hier im Forum schon die ersten an den Haaren herbeigezogenen, verschwörerischen Vorwürfe, dass AMD Intel-CPUs absichtlich ausbremsen lassen würde.
Auf die Idee, dass die Ryzens u.U. einfach besser laufen können, wenn bei ihnen zur Abwechslung mal eine Extra-Runde Optimierung gemacht wird, kommt wohl nicht jeder.
Das wird nun mit der neusten Intel-Gen glatt widerlegt und AMD kann es auch so offenbar nicht recht machen.

Die Resultate sehen für mich eher so aus, dass Bethesta bei allen Ryzens optimiert hat (da Taschengeld dafür bekommen und Zen2 in der X-Box steckt) und bei Intel nur bei der neuesten Gen, weil was will man denn mit dem "alten Ramsch"?
Bethesta ist faul, das weiss man seit Jahren, und macht normalerweise nur das absolute Minimum. Bsw. dass der kostenpflichtige Creation-Content zwar gefördert und minimal fehlerfreier wird. Aber ja nix uralte Bugs in der Engine beheben, trotz Neuauflagen oder Umbau von 32Bit auf 64Bit bsw. Ihre Faulheit sieht man ja sogar in Starfield im Spiel selbst, alleine auf der Sternenkarte oder die Art wie diese gross beworbene Artefakt-Geschichte gehandhabt wird :ugly:

Dass Ryzen 7000 nicht immer schneller wie die 13er sind, ist ja hinlänglich bekannt, dürften aber auch hier massiv effizienter zu Werke gehen und möglicherweise trotzdem das rundeste Paket abliefern. Da bin ich auf die entsprechenden Daten von PCGH gespannt, ob sich das bestätigt oder nicht.
 
Der Leistungsunterschied zwischen i7-12700 und 5900X is identisch zum Unterschied in der L1 Cache Größe beider Prozessoren. Der Hauptunterschied zwischen 12.Gen Intel und 13.Gen Intel ist, dass der L2 Cache der CPU von 1,25MB auf 4MB angehoben wurde.

Ich will auch daran erinnern, dass Leistungszuwächse bei Intel zwischen der 2. Generation Core-i und 10. Generation immer sehr viel auch mit den Cache Größen zu tun hatte, Gamers Nexus hatte dazu ein tolles Video. Gleiches gilt für AMD und Zen. Ryzens mit mehr L3 Cache performen einfach etwas besser, weil die Rechenwerke weniger lange Warten. Das ist ja der ganze Gedanke hinter X3D Chips.

Jetzt kann man entweder sagen, dass AMD beim L1 und L2 Cache zu geizig ist aktuell und Starfield darauf reagiert. Oder man kann sagen, Starfield wäre einfach noch nicht durchoptimiert und der Code noch zu klobig. Dann läuft der Code bei Intel besser, weil dort der L1 und L2 Cache weniger oft überquillt.

Die "Partnerschaft" zwischen AMD und Bethesda will ich mal nicht überbewerten. Denn ob hier wirklich ein fundamentaler technologischer Austausch stattfindet wage ich mal zu bezweifeln, das klingt alles sehr nach einer reinen PR-Nummer zwischen zwei Marketingabteilungen. Besonders wenn man bedenkt, dass Bethesda zu Microsoft gehört, eine Konsolenentwickler-Lizenz hat, in diesen Konsolen AMD Chips stecken und der technische Support den Bethesda darüber erhält bereits alles abdecken sollte was Ryzen Architektur ausmacht.

Momendens .. die leistungsstärkste AMD X3D CPU hat doch genug Cache und performt trotzdem nicht.
Es wurde auch bereits die Vermutung geäußert, dass es auch auf IPC ankäme und da scheinen die Intel Core wohl immer noch effizienter zu arbeiten.
Auch das Chiplet design scheint hier für AMD ein Problem darzustellen, es haben nicht alle Cores Zugriff auf den größeren Cache, wenn ich das richtig verstanden habe.

Insgesamt einfach enttäuschend, egal ob AMD oder Intel, beide Hersteller liefern recht gut performende Produkte. Hier sollte der Hersteller eines Spiels einfach bemüht sein, sein Produkt auch entsprechend zu optimieren.
 
. Kein Raytracing
- Kein DLSS
- keine Frame Generation
- unfassbar miese GPU Performance (eine 4070 hält in WQHD Low Details nicht einmal die 60 FPS konstant)
- keine frei begehbaren Planeten ohne Grenzen
- tonnenweise generischer Sammelkram und 08/15 Piratenlager auf den Planeten, kaum Besonderheite zu entdecken
- keine Flüge zwischen Planeten mit dem Raumschiff möglich, alles läuft über Schnellreise
- Gesichts- und Charakteranimationen aus 2010
- wie immer miese NPC/Gegner-Ki
Kein HDR.. selbst SDR ist schlecht weil das Game Probleme mit dem Gammawerten hat und rundherum verwaschen aussieht.

Man geht dahingehend übrigens mittlerweile von einer absichtlichen Design entscheidunt aus um den Look 80er Jahre SciFi Filme wieder zu Spiegeln..

Weltraumspiel und keine vernünftigen Schwarzwerte.


Ansonsten wundert man sich das Nvidia Karten zwar voll ausgelastet scheinen.. aber nur die hälfte an Strom verbrauchen in Relation zu anderen Spielen mit ähnlicher Auslastung
 
Für die realen Grafikeinstellungen finde ich die Überschrift übertrieben. Wer bitte Spielt in 720p? Die meisten Spielen sicher WQHD Aufwärts. In meinem Fall ist ein Ryzen 5800X3D gegen meinen Ryzen 3700X (4Jahre alt) etwas 5 FPS schneller in UHD. Ich muss dazu sagen das die CPU auch nicht wirklich voll belastet wird. Max 75%. Meistens weniger. Ansonsten geht eigentlich nur GPU die Puste aus. Also das Spiel limitiert bei den meisten sicher die GPU. Ja man kann ja gerne die CPU Benchen mit dem Spiel. Aber in Realität hat jeder von euch ein anderes Ergebnis in dem Spiel. Weil wie gesagt die GPU der Bremsklotz ist. Es sei man Zockt gerne im Pixelbrei bei 720p.
 
Für die realen Grafikeinstellungen finde ich die Überschrift übertrieben. Wer bitte Spielt in 720p? Die meisten Spielen sicher WQHD Aufwärts. In meinem Fall ist ein Ryzen 5800X3D gegen meinen Ryzen 3700X (4Jahre alt) etwas 5 FPS schneller in UHD. Ich muss dazu sagen das die CPU auch nicht wirklich voll belastet wird. Max 75%. Meistens weniger. Ansonsten geht eigentlich nur GPU die Puste aus. Also das Spiel limitiert bei den meisten sicher die GPU. Ja man kann ja gerne die CPU Benchen mit dem Spiel. Aber in Realität hat jeder von euch ein anderes Ergebnis in dem Spiel. Weil wie gesagt die GPU der Bremsklotz ist. Es sei man Zockt gerne im Pixelbrei bei 720p.
Gibt es echt immernoch Leute, die nicht verstehen warum man CPUs in 720p testet? Meine Güte...
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

So der Framegen Mod ist auch live.. und gibt dem Game einen massiven boost
 
Denke ich da zu einfach, wenn für mich weiterhin gilt: Beste Spieleperformance gewünscht, dann Intel kaufen.
Beste Anwendungsleistung gewünscht, AMD kaufen? Für Spieler zahlt sich der tecnologische Vorsprung von AMD doch gar nicht aus, man kann den Gamingrechner mit nem Ryzen ausstatten, aber ein i7 tut es genausogut.
Intel verbraucht viel zu viel
 
RT ist erst eine Aufwertung wenn es zwischen mit und ohne RT keinen Performance Unterschied gibt. Bis dahin ist es einfach nur eine Verarsche.
Raytracing frisst Leistung und ist sicherlich nicht jedermanns Sache, aber das ist Quatsch.
Das hat man früher bei Ambient Occlusion und Tesselation auch gesagt.
Auch das Chiplet design scheint hier für AMD ein Problem darzustellen, es haben nicht alle Cores Zugriff auf den größeren Cache, wenn ich das richtig verstanden habe.
Seit Zen 3 / Ryzen 5000 sind bis zu 8 Kerne nativ auf einem Chiplet zusammen.
 
CPU, GPU.. Bei mir limitiert einfach alles. Komme nicht mal auf 40FPS konsistent. War abzusehen. Ich hatte eh eingeplant für Starfield endlich mal aufzurüsten, aber leide sehe ich nicht wirklich viel, was diesen Leistungshunger rechtfertigen würde.

Zum "Glück" kommt noch Cities: Skylines 2. Dafür brauch ich auf jeden Fall ne neue Kiste. Aber nur für Starfield würde ich zu diesem Zeitpunkt nicht aufrüsten. Dafür ist das Spiel einfach nicht gut genug. Weder visuell noch inhaltlich. Und bis gute Mods kommen dauert es viele Monate/Jahre.
So der kostenpflichtige Patreon-Abo-Abzock-Framegen Mod ist auch live.. und gibt dem Game einen massiven boost
FTFY.
 
Der Leistungsunterschied zwischen i7-12700 und 5900X is identisch zum Unterschied in der L1 Cache Größe beider Prozessoren. Der Hauptunterschied zwischen 12.Gen Intel und 13.Gen Intel ist, dass der L2 Cache der CPU von 1,25MB auf 4MB angehoben wurde.

Ich will auch daran erinnern, dass Leistungszuwächse bei Intel zwischen der 2. Generation Core-i und 10. Generation immer sehr viel auch mit den Cache Größen zu tun hatte, Gamers Nexus hatte dazu ein tolles Video. Gleiches gilt für AMD und Zen. Ryzens mit mehr L3 Cache performen einfach etwas besser, weil die Rechenwerke weniger lange Warten. Das ist ja der ganze Gedanke hinter X3D Chips.

Jetzt kann man entweder sagen, dass AMD beim L1 und L2 Cache zu geizig ist aktuell und Starfield darauf reagiert. Oder man kann sagen, Starfield wäre einfach noch nicht durchoptimiert und der Code noch zu klobig. Dann läuft der Code bei Intel besser, weil dort der L1 und L2 Cache weniger oft überquillt.

Die "Partnerschaft" zwischen AMD und Bethesda will ich mal nicht überbewerten. Denn ob hier wirklich ein fundamentaler technologischer Austausch stattfindet wage ich mal zu bezweifeln, das klingt alles sehr nach einer reinen PR-Nummer zwischen zwei Marketingabteilungen. Besonders wenn man bedenkt, dass Bethesda zu Microsoft gehört, eine Konsolenentwickler-Lizenz hat, in diesen Konsolen AMD Chips stecken und der technische Support den Bethesda darüber erhält bereits alles abdecken sollte was Ryzen Architektur ausmacht.
Bis jetzt wirkt das ganze wirklich als eine PR-Nummer ! Auch wenn ich Aktuell kein AMD Setup haben finde ich es aus der Sicht einer AMD Kunden sehr schade das die Vorteile einer AMD CPU kaum zum tragen kommt.
 
Das ist eben die Gefahr, wenn man CPUs auch bei Spielen mit offiziellen RAM Specs testet (wofür es freilich gute Gründe gibt), nämlich das die falschen Schlüsse gezogen werden könnten.

Mich würde es jedenfalls nicht sonderlich wundern, wenn ein 7xx0x/7800x3D mit 5600er RAM bei diesem Spiel/Engine, plötzlich, vor allem bei den Lows, nicht mehr ganz so weit von einem 13600K/13700K weg ist.
Oder aber ein 9900k mit 3600er RAM, plötzlich fast auf Augenhöhe mit einem 5800 mit 3600er RAM wäre.

Ich hatte das bereits im Zusammenhang mit FO4 in einem anderen Thread erwähnt. DDR3 1333 zu DDR3 2400 führten zu einem Performancezuwachs von gut 66% bei den MINs und ~47% bei den Averages. Der Apfel fällt enginetechnisch vermutlich nicht weit vom Stamm.

Gestern befand jemand aufgrund der Daten hier, seinen 9900k bereits für untauglich für Starfield.

Ich hoffe diesbezüglich kommt bei den CPU Tests noch etwas, vielleicht auch, ab wann die Skalierung nicht mehr so groß ausfällt.
 
Zuletzt bearbeitet von einem Moderator:
Irgendwie Ironie oder ? Das Modder es schaffen DLSS einzufügen und FSR in denn Schatten stellt ! So viel schlechter ist FSR eigentlich nicht aber irgendwie haben die es geschafft FSR völlig zu verhauen xD
 
Der Framegen Mod mit FG gibt dem ganzen schon einen enormen FPS Boost.
Aber wie siehts aus wenn Updates/Patches für Starfield kommen ?? Läuft die Mod dann noch ??
Oder muss die Framegen Mod ebenso geupdated werden.
Und wie siehts aus falls Bethesda doch noch selbst DLSS implementiert ?? Konflikte wegen der Dateien ??
Die Mod hat zwar Ihren Nutzen,und das ein Modder das in 24h auf die Beine bekommt sollte Bethesda doch zu denken geben.
 
Irgendwie Ironie oder ? Das Modder es schaffen DLSS einzufügen und FSR in denn Schatten stellt ! So viel schlechter ist FSR eigentlich nicht aber irgendwie haben die es geschafft FSR völlig zu verhauen xD
Eigentlich ist man auf reddit der Meinung das Starfield mit zu den besten FSR Implementierungen gehört..
Unter anderen Wegen der freien Renderauflösung
 
Aber FSR (wobei starfield als eine der besten FSR Implementierungen gilt) wird geradezu richtig von dlss deklassiert.. geschweige denn das es ein Modder in nichtmals 24std geschafft hat alles einzuflegen und lauffähig zu machen..
Der Modder macht das nicht zum ersten Mal, hat daraus quasi ein Geschäftsmodell gemacht und auch vorher glaube ich angekündigt DLSS ab Tag 1 zu supporten.

Das Bethesda es nicht selber getan hat liegt nicht daran, dass sie unfähig sind, sondern an der AMD-Partnerschaft.
Der Framegen Mod mit FG gibt dem ganzen schon einen enormen FPS Boost.
Aber wie siehts aus wenn Updates/Patches für Starfield kommen ?? Läuft die Mod dann noch ??
Oder muss die Framegen Mod ebenso geupdated werden.
Das ist die Frage, und das Problem mit diesem Patreon-Abo's. Eine Mod kaufen zu müssen ist schon extrem grenzwertig, aber für jedes Mod-Update via Patreon-Abo zahlen zu müssen ist in meinen Augen schlicht abartig. Mich wundert einfach immer wieder, wie viele Leute darauf reinfallen, und das selbst hier auf PCGH Werbung für sowas gemacht wird.
 
Bis jetzt wirkt das ganze wirklich als eine PR-Nummer ! Auch wenn ich Aktuell kein AMD Setup haben finde ich es aus der Sicht einer AMD Kunden sehr schade das die Vorteile einer AMD CPU kaum zum tragen kommt.
Selbst vor so eine Denkweise würde ich einen Riegel schieben. "Vorteile einer AMD CPU", das ist etwas das nur in unseren Köpfen existiert.

Ich spiele so, dass meine GPU bei 100% ist. Ich will sehen was die kann und brauche keine nackten Polygone bei 500fps. Im Umkehrschluss bedeutet das bei den aktuellen Spielen, dass selbst wenn eine AMD CPU 30% langsamer ist, dann ist sie halt bei 26% CPU Auslastung anstatt bei 20% in einem typischen Spiel. Starfield wird etwas mehr CPU Leistung brauchen, aber ich gehe jede Wette, die typische GPU eines Spielers in diesem Forum wird bei 99% sein und die CPU weit davon entfernt.

Intel hat sogar ein hervorragendes Tool dafür veröffentlicht, fast besser als der Afterburner. Das Tool läuft mit jeder GPU und mit jeder CPU und wertet für jedes Frame aus wieviel ms die GPU und die CPU dafür gebraucht hat. So sieht man sehr leicht, ob ein Lagspike wirklich nur aus der GPU kam, oder ob die CPU mit involviert war.

Links zum Tool:


Auf die Aussagen einer Co-Marketing Kampagne würde ich nichts geben.
 
Selbst vor so eine Denkweise würde ich einen Riegel schieben. "Vorteile einer AMD CPU", das ist etwas das nur in unseren Köpfen existiert.

Ich spiele so, dass meine GPU bei 100% ist. Ich will sehen was die kann und brauche keine nackten Polygone bei 500fps. Im Umkehrschluss bedeutet das bei den aktuellen Spielen, dass selbst wenn eine AMD CPU 30% langsamer ist, dann ist sie halt bei 26% CPU Auslastung anstatt bei 20% in einem typischen Spiel. Starfield wird etwas mehr CPU Leistung brauchen, aber ich gehe jede Wette, die typische GPU eines Spielers in diesem Forum wird bei 99% sein und die CPU weit davon entfernt.

Intel hat sogar ein hervorragendes Tool dafür veröffentlicht, fast besser als der Afterburner. Das Tool läuft mit jeder GPU und mit jeder CPU und wertet für jedes Frame aus wieviel ms die GPU und die CPU dafür gebraucht hat. So sieht man sehr leicht, ob ein Lagspike wirklich nur aus der GPU kam, oder ob die CPU mit involviert war.

Links zum Tool:


Auf die Aussagen einer Co-Marketing Kampagne würde ich nichts geben.
Das Tool werde ich mir mal ansehen Danke

Denn Vorteil denn ich anspielte war der 3D Cache ! Der scheint diesmal kein Vorteil zu bieten.
 
Zurück