News Starfield: Digital-Foundry-Analyse spricht für starke AMD-Optimierung

Die FG-Mod nutze ich nicht, ausnahmslos alle Versionen von Puredark sind bei mir instabil und lassen früher oder später das Spiel abstürzen. Heute hat er wieder eine neue Version veröffentlicht (Beta 07), die probier ich schon gar nicht mehr aus. Ohne Source-Zugriff ist und bleibt es eben Gepfusche in der Hoffnung es irgendwie zum Laufen zu bekommen.

wow mir gehts genauso wie dir, hatte durch FG von Puredark immer wieder Abstürze hab beta 01 bis beta 05 probiert und du hast vollkommen Recht, alle instabil früher oder später. Und weil mich die Crashes nerven spiel ich jetzt mit CAS
 
Ja, wenn Punkt 1 stimmt, dann ist das ein anderer Punkt.

Aber nochmal zu der Ineffizienz: Jedes Programm, das unnötige Arbeit macht oder weiterleitet, ist nicht gut programmiert. Egal ob Spiel oder Treiber.
Jeder Programmierer weiß, dass die erste Aufgabe in einer Funktion ist, zu prüfen, ob überhaupt etwas zu tun ist. Und wenn nicht, zum nächsten Superbefehl zu springen. Wer die Prüfung weglässt, wodurch der Rechner unnötige Arbeit macht, hat seinen Job einfach nicht gemacht.

Das stimmt, nur ist bei der Programmierung immer der Verursacher zu fixen, nicht die Middleware oder der Endpoint. Man fängt IMMER vorne an, bei der Quelle, und das ist nunmal die Engine und nicht der Treiber.
 
Das Spiel wurde für AMD Optimiert?
FP16 statt FP32 ist das Wunder dahinter, dann noch Verarbeitungsfehler an den Treiber.
Für ein Spiel das weniger Open World ist als alle anderen Spiele davor.
Es sind Level, die mies laufen und nicht besonders aussehen.
Die haben ja nicht mal DLSS zum hinbekommen, was nicht gerade für neutrale Unterstützung steht!

Wie war das bei Game works! Da war es schlimm hier aber ist es das nicht.
Das ganze Strotz nur so vor Absichtlichen Leistungsunterschieden, bei einem Spiel das auch noch bei AMD dabei ist.

Wäre es ein SC könnte man ja noch sagen das ist Technisch gut.
Aber es braucht eigentlich gar keinen Weltraum. Das Spiel ist ein Mittelmäßiges Spiel, das Technische alles andere als gut läuft.
Wäre es ein Sc könnte man darüber hinwegsehen, aber da wirkt ja No Mans Sky ja Brillant dagegen.
 
Und weil mich die Crashes nerven spiel ich jetzt mit CAS
Ganz so verzweifelt war ich dann doch nicht :D. Mit DLSS läuft das Spiel einwandfrei und ist mir noch kein einziges Mal abgestürzt. Um ehrlich zu sein ist von den Dateien her noch die FG Mod installiert, habe bloß in der Config FG ausgeschaltet. Dadurch verhält es sich wie die normale DLSS Mod und es läuft bestens.
 
Bei mir läuft es ohne Probleme. Hast du irgendwelche Mods installiert? Die DLSS Mod soll ja viele Probleme verursachen, unter anderem abstürze.

Alles gecheckt, war die DLSS-G Mod v1.11 , welche vor dem Hotfix bei mir sauber lief.

v1.20 ist gerade erschienen:
1694627924405.png


Edit: Installiert, läuft wieder.
 
Zuletzt bearbeitet:
Das ganze Strotz nur so vor Absichtlichen Leistungsunterschieden, bei einem Spiel das auch noch bei AMD dabei ist
Das ist das, was du glaubten sollst. Es mehren sich hinweise, dass Nvidia schlicht ihre Ressourcen aus dem Treiber Teams hin zur AI Abteilung verlegt hat, weshalb die Starfield tag eins Optimierungen auf der strecke blieben.

1694629575272.png


Also streut Nvidia Falschinformationen um von der eigenen Prioritäten-verschiebung abzulenken.

1694629673451.png

Quelle

Ist wohl ganz schön nach hinten los gegangen. Wir werden in Zukunft anscheinend weniger Partnerschaften zw. Publisher und Hardwareherstellern sehen.
 
Das ist das, was du glaubten sollst. Es mehren sich hinweise, dass Nvidia schlicht ihre Ressourcen aus dem Treiber Teams hin zur AI Abteilung verlegt hat, weshalb die Starfield tag eins Optimierungen auf der strecke blieben.

Anhang anzeigen 1437403

Also streut Nvidia Falschinformationen um von der eigenen Prioritäten-verschiebung abzulenken.

Anhang anzeigen 1437404
Quelle

Ist wohl ganz schön nach hinten los gegangen. Wir werden in Zukunft anscheinend weniger Partnerschaften zw. Publisher und Hardwareherstellern sehen.

MLIDs Quelle: Trust me bro... Der Typ lag schon oft falsch und ist ein bekannter Team Red Fan, wie kommst Du darauf aus seinen Aussagen FAKTEN zu machen? Er behauptet irgendwas, ohne Quelle, und Du gibst ihn als vertrauenswürdige Quelle an? :lol:

Weniger Partnerschaften sind aber meiner Meinung nach zu begrüssen, ob das zu beider Seiten Nachteil oder Vorteil führt werden wir sehen. Zumindest gibt es dann keine (oder weniger) Fan-Wars mehr.

Edit: Passend dazu gab es vor wenigen Tagen diesen Tweet:

1694637410454.png


Also wenn etwas am Nvidia Gerücht stimmt, dann wohl auch dieses hier für AMD, oder? :lol:
 
Zuletzt bearbeitet von einem Moderator:
Das stimmt, nur ist bei der Programmierung immer der Verursacher zu fixen, nicht die Middleware oder der Endpoint. Man fängt IMMER vorne an, bei der Quelle, und das ist nunmal die Engine und nicht der Treiber.
Man kann das auf verschiedene Arten sehen. Aus meiner Sicht soll jede Codeeinheit in sich stimmig sein, völlig unabhängig davon, ob vorher in der Kette jemals irgendetwas ausgeschlossen wurde. Und jede Einheit sollte einen Test haben, der sicherstellt, dass keiner diese Funktion verändert.
 
Man kann das auf verschiedene Arten sehen. Aus meiner Sicht soll jede Codeeinheit in sich stimmig sein, völlig unabhängig davon, ob vorher in der Kette jemals irgendetwas ausgeschlossen wurde. Und jede Einheit sollte einen Test haben, der sicherstellt, dass keiner diese Funktion verändert.

Lass mich raten, Du bist kein Developer, richtig?

Wenn der Treiber die "kaputten" Anfragen der Engine einfach verwerfen würde, glaubst Du dass das Spiel dann überhaupt laufen würde? Ich denke nicht...

Man muss primär die Ursache fixen (Engine), nicht den Übertragungsweg (Treiber) oder den Endpunkt (DirectX / GPU). Ein Treiber-Team kann schlecht für alle Spiele dieser Welt das Bugfixing übernehmen...
 
Ja, normalerweise sind es 10%. Aber hier im Forum sagen mehrere Leute sie haben gestern durch den neuen Nvidia-Treiber 40% mehr Leistung bekommen. Und der hat ja nur rBAR freigeschaltet.

Ich hab jedenfalls gestern durch den den Treiber gar keine FPS bekommen. Und ich hab es dann auch aufgegeben. Das Spiel ist schlicht unspielbar wenn man ein System mit älterer Nvidia-GPU und AMD-CPU hat. Man ist dann quasi doppelt ge*****.
Bei mir hat der Treiber keine zusätzlichen FPS gebracht.
RBar muss nicht erst freigeschaltet werden, im Treiber kann aber der Datentransfer darübe optimiert werden. Was hier auch passiert ist.
 
Man muss primär die Ursache fixen (Engine), nicht den Übertragungsweg (Treiber) oder den Endpunkt (DirectX / GPU). Ein Treiber-Team kann schlecht für alle Spiele dieser Welt das Bugfixing übernehmen...
Primär klar, aber wenn man die Ursache behoben hat, überschattet man die anderen Bugs. Es erscheint also sinnvoll, die Ursache zuletzt zu beheben.

So, und im Bezug auf dieses Problem ist es, nachdem ich es nochmal kurz überflogen habe, wohl so, dass oft leere Kommandopuffer für indirekte Renderbefehle erstellt werden, und es durch eine Optimierung im Abstraction Layer nur weniger problematisch wird, aber nicht ganz behoben werden kann.

Der Vorteil des Puffers ist gerade, dass man beim Programmieren nicht weiß, wie viele Befehle da drin sein werden. Das heißt, er kann eben auch leer sein.
Wenn es eine Möglichkeit gibt, das vorher zu wissen, und das Spiel diese doch erstellt, ist es natürlich ein Bug im Spiel.
Dass Gebrauch von indirekten Renderbefehlen gemacht wird, spricht allerdings meiner Meinung nach tendenziell für die Engine, weil es die CPU-Last verringert und weniger CPU-GPU-Kommunikartion nötig ist, da die CPU Draw Calls als Paket übergeben kann. Das spricht eigentlich dafür, dass Resizeable Bar durch die verringerte CPU-GPU-Kommunikation durch die Nutzung der indirekten Calls weniger positive Auswirkung haben sollte, als wenn es nur direkte Calls gibt, wie man sie bei unoptimierten Spielen erwarten würde.
 
Primär klar, aber wenn man die Ursache behoben hat, überschattet man die anderen Bugs. Es erscheint also sinnvoll, die Ursache zuletzt zu beheben.

Sorry, aber das disqualifiziert Dich als Dev. Die Ursache zuletzt beheben? :stupid:

FYI: Wegen solchen Aussagen von "Kollegen" in anderen Teams habe ich zum Jahresende gekündigt und wechsel die Firma. Die wollen ihr System nämlich auch nicht fixen, obwohl sie die Source sind. Wir sollen allen Müll den sie uns übertragen im Endpoint fixen. Mein Teamlead, und jeder andere Developer, sagt dazu einfach nur bullsh*t.
 
Im Grunde zeigt Starfield nur auf, dass in AMD Produkten viel Potenzial nicht genutzt wurde, über Jahre.

Ich schätze so ist Intel und Nivid groß geworden, durch solche Berichterstattung.

Deshalb ist der Treiber und Performance bis heute besser, hust.

Hab immer noch den Jinggle von Intel im Kopf und Nvidia´s

THE WAY IT'S MEANT TO BE PLAYED”​

Man muss als Mensch immer wieder aus der geschaffenen Bubble und immer wieder alles neu validieren.

Was möchtest du unterm Strich mit der Aussage zum ausdruck bringen?

Das eine 7900XTX eigentlich das Potential hat, eine 4090 auszustechen?

Im Leben nicht.

Schau mal einfach alle Tests die du finden kannst. In Summe kommt immer das selbe raus.

IM Raster eine Frage der Spielauswahl, ob die 7900XTX etwas schneller ist als die 4080. Bei RT ist es dann keine Frage mehr. Da ist nur die Frage wie weit die 7900XTX abgeschlagen ist.

Je intensiver RT zum Einsatz kommt umso weiter verliert die 7900XTX den Anschluss.

Einfach wegen der Speichermenge, hätte ich mir gerne eine 7900XTX gekauft. Aber das fehlen von FSR 3, der im Schnitt etwas schlechtere Eindruck von FSR, die schwache VR Vorstellung und auch die RT Leistung habne daüfr gesorgt das ich erstmal eine Nvidia gekauft habe.
 
Was möchtest du unterm Strich mit der Aussage zum ausdruck bringen?

Das eine 7900XTX eigentlich das Potential hat, eine 4090 auszustechen?

Im Leben nicht.

Schau mal einfach alle Tests die du finden kannst. In Summe kommt immer das selbe raus.

IM Raster eine Frage der Spielauswahl, ob die 7900XTX etwas schneller ist als die 4080. Bei RT ist es dann keine Frage mehr. Da ist nur die Frage wie weit die 7900XTX abgeschlagen ist.

Je intensiver RT zum Einsatz kommt umso weiter verliert die 7900XTX den Anschluss.

Einfach wegen der Speichermenge, hätte ich mir gerne eine 7900XTX gekauft. Aber das fehlen von FSR 3, der im Schnitt etwas schlechtere Eindruck von FSR, die schwache VR Vorstellung und auch die RT Leistung habne daüfr gesorgt das ich erstmal eine Nvidia gekauft habe.
Schau mal damals hatte AMD mehr Shadereinheiten in den Grafikkarten als Nvidia zu dem Zeitpunkt, und dennoch waren Nvidia Karten schneller. Jetzt hat die Nvidia Karte mehr shader auch weil die Shader bischen anders aufgestellt wurden seit der 3000Serie.

Im ideal Fall sind es 16384 Shader der 4090 die stehen den 6144Shader der 7900xt gegenüber.

Und man beachte, die Nvidia Karte hat 37,5% Mehr Shadereinheiten und laut PCGH Index liegt sie nur 16,1% hinter der 4090. Hätet die AMd Karte die dopplete Anzahl an shadern oder gleich viel, wäre ein Sieg nicht 100% sicher, da der treiber am Ende die Shader auch ordentlich auslasten muss.

Was man jedoch aus der Logik schließen kann ist, wenn die Engine auf eine Arhcitektur optimiert wurde, kann der Treiber natürlich mehr leistung von der Karte abrufen. Das wäre so mein Gedankengang.

In Blender sieht man das auch, open Blender Datebase, die 4090 ist auf Platz eins mit einem Median Score von 13109.56 und die 7900xtx liegt bei 3945.47 (ohne HIPRT) nur HIP.

Da sieht man wie viel die optimierung ein eine Architektur bingt. Und daher ein großes Ja. Wenn man optimiert kann man große Sprünge sehen. Man sieht es ja an Konsolen ganz gut, was machbar ist.

1694670510395.png
 
Da sieht man wie viel die optimierung ein eine Architektur bingt. Und daher ein großes Ja. Wenn man optimiert kann man große Sprünge sehen. Man sieht es ja an Konsolen ganz gut, was machbar ist.

Anhang anzeigen 1437441

Und dabei ignorierst Du völlig dass wenn auf BEIDE Architekturen optimiert wurde, die 4090 trotzdem fast 3 mal so viele Shader hat und bei entsprechender Auslastung auch immer noch deutlich vorne wäre.

Anzahl Shader skaliert auch schon lange nicht mehr mit Performance, unabhängig vom Spiel und der Optimierung. Deswegen geht man ja jetzt andere Wege (RT, Upscaling, FG).
 
Und dabei ignorierst Du völlig dass wenn auf BEIDE Architekturen optimiert wurde, die 4090 trotzdem fast 3 mal so viele Shader hat und bei entsprechender Auslastung auch immer noch deutlich vorne wäre.

Anzahl Shader skaliert auch schon lange nicht mehr mit Performance, unabhängig vom Spiel und der Optimierung. Deswegen geht man ja jetzt andere Wege (RT, Upscaling, FG).

Und du ignorierstm, das fast alles auf Nvidia optimiert ist und die Karte trotzdem nur 16,% schneller ist als die 7900XTX, daher bezweifel ich, dass dies viel ausmachen würde.

Ich tendiere eher Richtung gleichstand, aber es macht keinen Sinn sich hier aufzuspielen, finde die 4090 ist eine großartige Karte und ggf wechsel ich von meiner 3090 auf die 4080 oder 4090 mal schauen.

Mir ist Nvidia scheiß egal, aber die Karten finde ich größenteils sehr gut. Und das schon seit der Geforce 2.

Abgesehen davon wird auch keiner von einer 4090 auf eine 7900xtx wechseln nur weil 1 von 10000 spielen deutlich besser läuft.

Mal schauen was da noch geht, ich hoffe, die Entwickler optimieren es noch Richtung Nvidia, damit alle Glücklich sind und gut ist.

Auch meine Vermutung ist im Grunde nur ne Hypothese die so nie 100% belegt werden kann, außer Besheda fügt einen optimierten Shaderpfad für Nvidia hinzu.
 
Zuletzt bearbeitet:
Eine RTX 4090 hat 82.58 TFLOPS FP32.
Eine 7900 XTX hat 61.44 TFLOPS FP32.

Das sieht nach ca. 30% mehr Leistung in Single Precision Workloads aus und wenn die Karte dann manchmal "nur" 16% schneller ist, dann sehe ich nicht, wo das nicht passen soll.

Edit: Zumal geschätzt 70% der Spiele auf einer Unterklasse-Karte genau so mies laufen wie auf einer Topkarte, da sie eine Grütze-Grafik haben und deshalb zu 100% im CPU-Limit landen, sodass man am besten fährt, die FPS zu limitieren, um die Frametimes konstant zu halten.
 
Zuletzt bearbeitet:
Schau mal damals hatte AMD mehr Shadereinheiten in den Grafikkarten als Nvidia zu dem Zeitpunkt, und dennoch waren Nvidia Karten schneller. Jetzt hat die Nvidia Karte mehr shader auch weil die Shader bischen anders aufgestellt wurden seit der 3000Serie.

Im ideal Fall sind es 16384 Shader der 4090 die stehen den 6144Shader der 7900xt gegenüber.

Und man beachte, die Nvidia Karte hat 37,5% Mehr Shadereinheiten und laut PCGH Index liegt sie nur 16,1% hinter der 4090. Hätet die AMd Karte die dopplete Anzahl an shadern oder gleich viel, wäre ein Sieg nicht 100% sicher, da der treiber am Ende die Shader auch ordentlich auslasten muss.

Was man jedoch aus der Logik schließen kann ist, wenn die Engine auf eine Arhcitektur optimiert wurde, kann der Treiber natürlich mehr leistung von der Karte abrufen. Das wäre so mein Gedankengang.

In Blender sieht man das auch, open Blender Datebase, die 4090 ist auf Platz eins mit einem Median Score von 13109.56 und die 7900xtx liegt bei 3945.47 (ohne HIPRT) nur HIP.

Da sieht man wie viel die optimierung ein eine Architektur bingt. Und daher ein großes Ja. Wenn man optimiert kann man große Sprünge sehen. Man sieht es ja an Konsolen ganz gut, was machbar ist.

Anhang anzeigen 1437441
Ich denke auch, du kannst die Shaderzahl nicht mehr wirklich vergleichen.
Aber selbst wenn, du spielst dabei hätte, hätte, Fahrradkette. Wenn die AMD die doppelten Shader hätte, dann läge die Leistungsaufnahme wohl bei rund 700W, statt die 430W der 4090.

Dazu hast du zum Vergleich für die 7900XTX auch den Bestcase raus gesucht.
Altmodisch im Rasterszenario.

In deutlich moderneren Szenario mit RT schafft die 7900XTX nichtmal einen Gleichstand mit der 4080. Genau deswegen kostet die 4080 auch schon mehr.


Bei all dem nicht falsch verstehen, auch die 7900XTX ist eine super Karte, aber man muss schon die Unterschiede anerkennen.

Wenn AMD mit FMF und FSR am Start ist, kann ein jeder sicher auch mit RT bei AMD herausragend gut fahren. Aber noch nicht. Achja und auch dann höchst wahrscheinlich noch nicht besser.
 
Ich denke auch, du kannst die Shaderzahl nicht mehr wirklich vergleichen.
Aber selbst wenn, du spielst dabei hätte, hätte, Fahrradkette. Wenn die AMD die doppelten Shader hätte, dann läge die Leistungsaufnahme wohl bei rund 700W, statt die 430W der 4090.

Dazu hast du zum Vergleich für die 7900XTX auch den Bestcase raus gesucht.
Altmodisch im Rasterszenario.

In deutlich moderneren Szenario mit RT schafft die 7900XTX nichtmal einen Gleichstand mit der 4080. Genau deswegen kostet die 4080 auch schon mehr.


Bei all dem nicht falsch verstehen, auch die 7900XTX ist eine super Karte, aber man muss schon die Unterschiede anerkennen.

Wenn AMD mit FMF und FSR am Start ist, kann ein jeder sicher auch mit RT bei AMD herausragend gut fahren. Aber noch nicht. Achja und auch dann höchst wahrscheinlich noch nicht besser.
Die Nvidia Karten kosten mehr, weil der Konsument bereit ist für Nvida mehr zu bezahlen, aus unterschiedlichen Gründen.

Das wiederum weis man und nutzt es als Gewinnorientiertes Unternehmen aus. Bis zur 4070TI bekommt man schnelle Karten mit relativ wenig Ram im Vergleich performance / ram.

Und für die anderen gibt es die 4080 / 4090. Die kommen dann von der Leistung und Ram voll auf Ihre Kosten.

Was auch nicht wild ist, den viele Zocken in Full HD.

Ein Freund von mir hat die 3090TI und zockt auf einem 32 Zoll Full HD Monitor mit 166 Herz.

Mittlerweile liegt die 4090 bei 1500EUR und die 4080 zwischen 1000-1300EUR.

Für mich persöhnlich wären das bei einer 4080 1300/5J. = 260EUro im Jahr. Was ok ist. Kenne leute die wechseln jedes Jahr Ihre Mittelklasse. Kommt am Ende aufs selbe raus. würd eich stumpf behaupten.
 
Zuletzt bearbeitet:
Zurück