News Verkehrte Welt in Starfield: Intel Core hängt AMD Ryzen trotz Sponsoring ab

Der Modder macht das nicht zum ersten Mal, hat daraus quasi ein Geschäftsmodell gemacht und auch vorher glaube ich angekündigt DLSS ab Tag 1 zu supporten.

Das Bethesda es nicht selber getan hat liegt nicht daran, dass sie unfähig sind, sondern an der AMD-Partnerschaft.

Das ist die Frage, und das Problem mit diesem Patreon-Abo's. Eine Mod kaufen zu müssen ist schon extrem grenzwertig, aber für jedes Mod-Update via Patreon-Abo zahlen zu müssen ist in meinen Augen schlicht abartig. Mich wundert einfach immer wieder, wie viele Leute darauf reinfallen, und das selbst hier auf PCGH Werbung für sowas gemacht wird.
Für die Framegen Mod zu bezahlen halte ich auch für Fragwürdig,und hält mich davon ab das zu machen.
Zudem hab ich gelesen das viele auch Probleme mit Starfield inkl. der Mod haben.Grössenteils die Steam Version.
Da warte ich lieber die nächste Zeit mal ab ob da evtl. doch noch was von Bethesda selbst kommt.
 
Meine Theorie ist ja, dass es eine Wechselwirkung aus Nummerierung und Leistungsaufnahme ist, was die Performance beeinträchtigt. Die 13 kommt vor der 7 und die 12 vor der 5, wenn da aber die Leistungsaufnahme nicht hoch genug ist, dann mischt sich das noch einmal durch und am Ende kommt das Bild hier zustande. Alles unterhalb von 130W TDP wird eh erst einmal abgewertet. Natürlich spielt auch die Nummerierung der Chipsets auf dem verwendeten Board eine Rolle. Je höher die Nummer, umso höher die Leistung.:ugly:
 
CPUs arbeiten schon komplex da müssten die entwickler von Anfang an dabei gewesen sein also lange vor dem ersten Ryzen. Gerade Starfield arbeitet komisch wie wir an den Cpu Benchmarks von PCGH gut sehen konnten.

Wenn so etwas passiert dann wohl eher Gpu Technisch und selbst da eher unwahrscheinlich.

RDNA ist generell stark in Starfield nicht nur RDNA 3.

Siehe Rx 5700XT gegen 1080TI der Unerschied ist enorm.

Rx 6800XT zu 3080.

7900XTX zu 4090

Gerade die 4080 ist extrem lahm in Starfield in relation gesetzt. Bei Gamers Nexus war die 6800XT gar nicht so weit weg von der 4080 und die 7900XT ist um einiges schneller was auch eher unüblich ist.

Das heißt die 7700XT und 7800XT wissen bestimmt zu gefallen in Starfield.

Ist das nun eine großverschwörung seitens AMD gegen Nvidia oder schmeckt der Architektur die neuen AMDs einfach mehr, denn die alten sind genauso lahm wie Pascal Wir werden es wohl nie erfahren aber die Klientel einer gewissen Partei im Forum wird es bestimmt nicht müde zu erwähnen ;-)
 
Zuletzt bearbeitet:
Ich denke, im Vordergrund ging es um "AMD vs. NVIDIA" nicht "AMD_CPU vs. Intel_CPU". Denn das sieht man auch in Benches wie nah die XTX zur 4090 ist. (kann man auch bei GN sehen)
Wahrscheinlich wird es dann später noch Patches geben die sich auf AMD Cpus konzentrieren.
 
Na Gott sei Dank ist Intel mal endlich wieder schneller, sonst bekommen die Intel Anhänger ja noch Depressionen wenn der Platzhirsch mehr und mehr das Schwächeln anfängt :P

Ich sehe eher bei der Spielenginge Optimierungspotential...das wird so gehen wie bei Hogwarts Legacy. Nach 3-4 Patches und Treiberupdates, wird das Game schon einigermaßen rund laufen.
Es ist halt wie jedes rießige "open world" Spiel einfach noch verbuggt bzw unoptimiert. Gebt dem Titel noch 1-2 Monate, dann taugt er sicher auch.
 
Ich denke, dass es da in der Partnerschaft eher um Grafikkarten ging.

Nichtsdestotrotz hoffe ich, dass da ein Patch kommt. Die Engine ist eben auch schon betagter und damals (TM) gabs halt auch noch keine 8-Kerner, aber IPC gabs halt schon immer. Starfield scheint da eher von einer hohen IPC auf einem Kern zu profitieren.
 
Denke ich da zu einfach, wenn für mich weiterhin gilt: Beste Spieleperformance gewünscht, dann Intel kaufen.
Beste Anwendungsleistung gewünscht, AMD kaufen?
Das ist doch schon völlig überholt seitdem es X3D Prozessoren von AMD gibt...aber ich beiße mal an:

Welche Intel CPU ist denn aktuell besser/schneller/effizienter unterwegs als 7800X3D/7950X3D?
Tipp: Geh mal hier die ganzen Reiter durch, dürfte der aktuellste CPU Test sein und such mal ein paar Spiele raus wo du eine Intel CPU vorne siehst:

1693647855199.png
 
Zuletzt bearbeitet:
Wahrscheinlich wird es dann später noch Patches geben die sich auf AMD Cpus konzentrieren.

Zusammen mit FSR3. Bei AMD kommt immer alles... später™

Die Assoziation drängt sich mir inzwischen auf. Die Intels fahren derweil Schlitten mit der sponsoring company und DLSS 3.5 ist ad hoc per Mod verfügbar und hebt die FPS derbe an. Hätte ich auf die Slides gehört und würde jetzt die Benchmarks sehen, käme ich mir als Käufer ein wenig..ääh.. legendär betuppt vor.

Screenshot_20230902_113903_Samsung Internet.jpg
 
Jetzt ist Ihre Meinung gefragt zu Verkehrte Welt in Starfield: Intel Core hängt AMD Ryzen trotz Sponsoring ab
Aber daran erkennt man doch, das Sponsering scheinbar nicht dazu führt, eigenen Produkten einen Vorteil zu verschaffen. Oder wie interpretiert ihr das?`Und wenn ich weiter interpretiere, ist das Spiel doch massiv über die Grafikkarte limitiert, die CPU interessiert weniger.
 
Denn Vorteil denn ich anspielte war der 3D Cache ! Der scheint diesmal kein Vorteil zu bieten.

Rechenwerk -> L1 Cache -> L2 Cache -> L3 Cache

der 7800X3D ist immer noch der schnellste AMD Chip, also ist davon auszugehen, dass sich der größere L3 Cache bei AMD Prozessoren positiv bemerkbar macht.

Intel hat jedoch den größeren L1 Cache und das macht sich wiederum ebenfalls positiv bemerkbar.

Hier bei Starfield skaliert die Software halt stärker nach L1, als nach L3 Cache. Dennoch wirkt sich beides positiv aus. Das ist absolut was wir als Kunden sehen wollen.
 
Leistungskrone dank Leistungsaufnahme?

Oder andersrum: Wieviel weniger Watt braucht eine AMD-CPU, um mit Intel trotzdem konkurrieren zu können?
Der 5800x3d braucht im PCGH-Bench ~85 Watt. Das ist viel im Vergleich zu anderen Spielen. Das ist wenig, im Vergleich zum 11900K, der braucht mehr als das Doppelte (geschätz 190-200).

In einem 65 TDP Bench, wären die X3D vermutlich vorne.

Die Mehrkernskalierung bzw. Multithreadoptimierung ist überigens hervorragend. Alle 12 Threads sind sehr hoch gleichmäßig ausgelastet.

Alder Lake wird mit DDR5-4400 getestet. Das ist für DDR5 sehr langsamer Ram. Trotzdem schneidet Alder Lake sehr gut ab.

Eingefügt: MMn liegt es nicht am Ram, sondern an der IPC.

Wenn im Titel steht Intel tötet AMD ab, stimmt das auch nicht. Es sind nur die neuen Gens, die vorne liegen, die Alten kacken komplett ab. Angeführt von Coffee Lake.

Desweiteren im Artikel falsch sind die Prozentabständer, es sind nicht 135% Abstand, sondern 35% vom 5800X3d zum 13600K.

Komischerweise läuft es bei mir sehr gut mit 8700K und 6700XT, aber ich spiele auch mit der kompletten Voreinstellung vom Spiel, hab nicht eine Option geändert. Hab hohe FPS, sieht aber nicht besonders gut aus.

David schrieb:" Des Weiteren liefern wir Ihnen eine Effizienz-Analyse (Fps pro Watt), sobald wir die Daten vom externen System ausgelesen haben.".

Da bin ich mal gespannt, ob da noch was kommt. Oft schon was angekündigt worden und nichts mehr gekommen.
 
Krass find ich auch, dass der 12900K im Vergleich so schlecht abschneidet. Der 13900K ist einfach 40% schneller, die Min FPS sind sogar fast doppelt so hoch.

Im End Effekt läuft das Spiel nicht generell auf Intel CPUs besser, sondern einfach nur auf Raptor Lake extrem viel schneller.
 
Joa. Es sind ja nun keine unspielbaren Bildraten. Ist mir im Endeffekt wurscht; läufts halt auf Intel CPUs besser.
Ach ja - DLSS(2?) ist ja nun auch an Board. Also alles halb so schlimm .. das ganze Gezerre vorher war mir auch zu viel.
AMD hat mit Bethesda, oder wie die heißen, halt irgend eine Werbezusammenarbeit gemacht. Sollen sie halt machen. BG3 ist auch NVidia Gameworks. Sollen sie halt auch machen. Läuft alles trotzdem, von daher ist mir das egal!
 
Zurück