News Starfield und AMD: Warum Bethesda und Nvidia keine Partner wurden [Gerücht]

Ich hab es von Anfang an gesagt...

Jetzt sagt sogar Moores Law es auch so...

Und wie viele haben hier im Forum herumgejammert, da wäre Geld geflossen und AMD würde Nvidia verbieten DLSS in das Game zu packen... alles Vorurteile und Blödsinn.
Habs auch von Anfang an gesagt. Alles nur absoluter Blödsinn, wahrscheinlich noch von Nvidia selber gestreut..
Klar, guck dir das Video dazu mal bei Digital Foundry an. DLSS Mod sieht um ein Vieldaches besser aus als FSR.
Digital Foundry. :lol: Die stehen doch auf der Gehaltsliste von Nvidia.
 
Oh, vielen lieben Dank für die Erwähnung @PCGH_Oliver :kuss:

Viel Konditional :) So muss das bei Geflüster aus dritter Hand :daumen:

Ja, genau werden wir es wohl nie wissen. Glaube nicht, dass da Bethesda und AMD vor's Rednerpult treten und mal Tacheles von hinter der Bühne reden.
Wir können nur auf die Insider-Quellen setzen und schauen, was sich da mit der Zeit für ein Bild mutmaßlich zusammenfügt.

Ich fand interessant, dass auch Nvidia-Iinsider bestätigt haben sollen, dass auf sie genauso zugegangen wurde und hier letztendlich Nvidia den Ball gedropped hat.

Ich verstehe das so, dass Bethesda so Anfang des Jahres irgendwo zwischen Januar bis März auf AMD zuging mit der Bitte, ihnen mit ihrer Expertise bei Vulkan und DX12 zu helfen, ihre API von Vulkan auf DX12 umzuziehen und den Spielcode lauffähig zu bekommen.
Aus meiner Projekterfahrung ist das super spät und "fast lane". Da wird nur noch auf Prio 0 geschaut und alles unnötige hinten angestellt. Erst mal Brände löschen - voll fire-fighter mode. Das heisst überhaupt irgendwie erst mal zum laufen kriegen mit Ach und Krach.
Würde auch erklären, warum da nicht ein noch so einzelner Programierer auch nur einen Gedanken an DLSS-Implementierung verschwenden wollte und durfte (egal wie angeblich einfach das umzusetzen gewesen ist). Da gab es viel wichtigere Themen. All Hands on Deck.
Für AMD heisst das auch mit dem eigenen Wissen "überhaupt lauffähig zu bekommen", dass man da die Expertise bei der eigenen Hardware voranstellt: zunächst muss die Krücke überhaupt mal auf den eigenen Karten (gut) laufen.

Aus diesem Vorabzugang und Support-Verhältnis ist dann eine Partnerschaft erwachsen. Diese wurde glaub so im Juni in der Presse kommuniziert - auch recht spät! Das sind gerade mal knapp 3+ Monate für ein Partnerprogramm.
API portieren, Code fixen, ein bisschen optimieren mit der Expertise zur eigenen Hardware und Techniken im Blick, die möglichst vielen Plattformen zugute kommen - nicht nur NVIDIA.
Ungeachtet, ob DLSS qualitativ einen Deut besser ist.

Klingt alles sehr plausibel und nachvollziehbar für mich - wenn das alles so stimmen sollte.

Und würde sich auch mit dem weiteren Vorgehen und Ereignissen decken: Treiber-patches von Nvidia und Intel mit großen Performance-Zuwächsen, von AMD mit kleineren Performance-Zuwächsen. Patches von Bethesda am Spiel-Code selbst und default DLSS-support, etc.

Zusammen mit den Hinweisen aus den Proton/VKD3D-Entwicklerblogs scheint Bethesda (nicht unüblich) echt Code in desolatem Zustand gehabt zu haben.
Kommt auch wenig überraschend und passt voll ins Bild das man so von Bethesda seit Jahrzenten hat.

Auch interessant, wie schlecht AMD mal wieder Bedenken gehandhabt und in seiner Kommunikation aufgetreten ist.
Das können die echt überhaupt nicht. Die PR-Abteilung würde ich feuern
 
Zuletzt bearbeitet:
Und was hat das alles mit einer Partnerschaft zu tun( wobei ich sagen muss Treiber? Ja bin voll und ganz zufrieden mit den Treibern). Nur weil jemand nicht so einen hohen Marktanteil hat wie die Konkurrenz darf er keine Partnerschaft eingehen?

Na dann hoffen wir mal das Intel keine Partnerschaft eingeht.

Ich habe nichts davon gesagt. Leg mir keine Worte in den Mund, danke.
 
Ich halte das mit den Treiber für Schwachsinn.
Bei Nvidia könnte ich einen 1-2 Jahre alten Treiber haben und ein neues Spiel läuft mit +/-10% FPS wie mit dem neuen Treiber.
Aber bei Starfield ist es ca 40% unter der erwarteten Performance. Das hat nichts mit dem Treiber zu tun, sondern weil es ein Problem mit dem Spiel gibt. MLID der AMD Fanboy will hier wieder Nvidia etwas anhängen.
Es gibt halt wie immer nicht nur EINE Ursache, nicht schwarz oder weiß, sondern viele Graustufen.
Klar hat es auch was mit den Treibern zu tun, aber eben nur zum Teil, nicht ausschließlich und nicht einmal hauptsächlich.
Das erklärt z.b. auch nicht warum AMD CPUs auch unterhalb der normal erwarteten Performance liegen.
Siehe von mir früheren Kommentar weiter vorne.
Ein halbes Jahr ist nicht viel Zeit, irgendetwas Fremdes glatt zu bügeln. Glaub da ist noch viel nicht Optimal und läufte gerade mal so halbwegs.

In Starfield läuft meine 4090 mit 100% Last laut RTSS und HWiNFO, verbraucht dabei aber nur 150-200W, was 25-50% weniger ist als wie in anderen Titeln. Wie kann also eine GPU 100% Last haben und trotzdem "idlen", ohne das das CPU Limit erreicht ist in dem Moment? Wenn es der Treiber ist, sollte das in mehrere Spielen der Fall sein und nicht NUR in Starfield.
Schlechter Code, schlechte Speicherverwaltung, Missbrauch von Predictions, die ins Leere gehen ...

->
1.) Gardiner Bryant : "Starfield follows in Bethesda's tradition of broken game engines" (Youtube)
2.) GamingOnLinux : "VKD3D-Proton v2.10 brings various game fixes, DirectStorage additions and lots more"
3.) Github : vkd3d-proton v2.10 - Workaround Starfield memory corruption issue

Es gibt halt wie immer nicht nur EINE Ursache, nicht schwarz oder weiß, sondern viele Graustufen.
Klar hat es auch was mit den Treibern zu tun! Aber eben nur zum Teil, nicht ausschließlich und nicht einmal hauptsächlich.
 
Der liebe Leaker Moore's Law ist 100 % sicher, das Nvidia das Game unterschätzt hat und lieber in KI investiert und dann von der nächsten Sekunde sich nicht mehr sicher ist, ob es stimmt.

Ich glaube, der liebe Youtuber hat eine Schizophrenie? Er widerspricht sich an dauernd selbst.
Nvidia hat plötzlich vergessen zu programmieren, wie die Raumfahrt nicht mehr mit Besatzung auf den Mond fliegen kann von heute auf morgen.

Ich vermute mal das DLSS blockiert wurde durch AMD Money wegen dem Druck anderer Spieler versucht man jetzt andere für sich sprechen zulassen sehr schlecht Bethesda schämt euch.

Sobald ich fertig bin mit Diablo4 werde ich Starfield im GP spielen, aber nicht kaufen, so was unterstütze ich nicht, sollte niemand.

Den es ist einfach alles viel zu auffällig ein X3D wird beworben, läuft aber langsamer wie ein 13600K mit Nvidia kann man sich anlegen, aber mit Intel nicht.
Ich finde es echt lustig, wie sehr dieses Thema angegangen wird, Nvidia geht Partnerschaft mit DiCE ein, man hört kein gejammer, amd geht Partnerschaft mit x ein und alle weinen rum.
Niemand meckert über eine Partnerschaft, ist jedem sein recht, aber wie schlecht Geforce Karten performen ist schon ein wenig auffällig, in keiner Welt ist die 7900XTX (1000 Euro) einer RTX 4090 (1600 Euro) überlegen es sein, den man hilft, nach. Ich sage dir mal was die 4090 ist seiner zeit voraus es gibt aktuell keinen Prozessor, der die Geforce zu 100 % befeuert. Meiner 4070Ti wird sehr wahrscheinlich in 4 Jahren die Luft ausgehen, kann ich verkraften, da ich jede Generation aufrüste, aber eine 4090 ist dann immer noch nicht am Ende.


lg
 
Zuletzt bearbeitet:
Ja und hier wurde alles auf AMD geschoben und auf die Unfähigkeit vom Entwickler.....
Bleibt auch dabei ;)

Wer hat aus welchen Gründen, welche Gerüchte gestreut.

Weder das eine, noch das andere ist sicher und da du bei den ersten Gerüchten ja drauf gepocht hast, das es nicht bewiesen sei, kannst du auch jetzt nicht so schreiben, als wenn eines von beidem sicher wäre.
Bin froh über die Zusammenarbeit von AMD und Bethesda, hab eigentlich immer 60+ FPS in QHD und allen Einstellungen auf high. Viel mehr als 70 sind, ohne FSR aber auch nicht drin.
Ich bin auch sehr zufrieden und komme mit DLSS in QHD, in Drops auf knapp über 60Fps und im Mittel des Spiels auf um 80Fps. Natürlich gibt es auch Abschnitte in denen man länger auch auf 120Fps kommt.

Aber der Worstcase läuft auch mit über 60Fps ( Auch bei lvl 21, also auch schon viele Welten gesehen)
Ich halte das mit den Treiber für Schwachsinn.
Bei Nvidia könnte ich einen 1-2 Jahre alten Treiber haben und ein neues Spiel läuft mit +/-10% FPS wie mit dem neuen Treiber.
Aber bei Starfield ist es ca 40% unter der erwarteten Performance. Das hat nichts mit dem Treiber zu tun, sondern weil es ein Problem mit dem Spiel gibt. MLID der AMD Fanboy will hier wieder Nvidia etwas anhängen.

Das erklärt z.b. auch nicht warum AMD CPUs auch unterhalb der normal erwarteten Performance liegen.

In Starfield läuft meine 4090 mit 100% Last laut RTSS und HWiNFO, verbraucht dabei aber nur 150-200W, was 25-50% weniger ist als wie in anderen Titeln. Wie kann also eine GPU 100% Last haben und trotzdem "idlen", ohne das das CPU Limit erreicht ist in dem Moment? Wenn es der Treiber ist, sollte das in mehrere Spielen der Fall sein und nicht NUR in Starfield.
Das mit der Auslastung könnte schon am Treiber liegen, aber dennoch glaube ich auch nicht daran.

Und es sind alles nur Gerüchte!
Es verwundert mich immer wieder das immer wieder gesagt wird das das an dem alter der Engine liegen soll.

Nur ist die ach so tolle Unreal Engine auch schon 25 Jahre alt.

Ob die Creation2 Engine Müll ist oder nicht, da kann man drüber diskutieren, aber das allein am Alter fest zu halten, ist wohl etwas daneben.
Kann eine Engine nicht auch technisch veraltet sein, ohne unfassbar alt zu sein?
Ich meine ja.
Das ist ja etwas anderes, aber bei dem einen ist es ok Partnerschaft einzugehen, bei dem anderen ist es da unverschämt?
Nein, das war von Anfang an nicht das Problem.
Mods die nicht mal fürs Spiel optimiert sind und eben nicht bug und fehlerfrei funktionierten in Test. Auch lt. PCGH
Es steckt schon etwas mehr dahinter als eine DLL einzufügen. Das wird nur gern vergessen.
Dabei geht es nicht um die Integration von DLSS. Es geht um die Performance die weit unt er dem zu erwartenden liegt, schon ganz ohne Upscaling.
Ich schaffe die 60 FPS in UHD teilweise nicht mal mit 75% Auflösungsskalierung. Und ehrlich, 60 FPS sind mir in einem eigentlichen Shooter auch nicht ausreichend. Mein Target ist UHD bei 75% Skalierung mit 120 FPS
Dann nutze DLSS und FG, oder reduziere die Settings. Sieht fast genauso aus und lässt sich super zocken.
 
Zuletzt bearbeitet:
Ich hab es von Anfang an gesagt...

Jetzt sagt sogar Moores Law es auch so...

Und wie viele haben hier im Forum herumgejammert, da wäre Geld geflossen und AMD würde Nvidia verbieten DLSS in das Game zu packen... alles Vorurteile und Blödsinn.
Ok, du bewertest dieses Gerücht also anders, als andere Gerüchte.

Weil dir das Ergbenis besser gefällt?
Bitte nicht falsch verstehen, aber so kommt das rüber. Keines der Gerüchte wurde bewiesen, außer das Moore Law es schon bewiesen hat, auch mal Grütze zu verbreiten.

Ich denke weiter, das es wahrscheinlicher ist, das AMDs Partnerschaft der Grund ist, warum es wohl noch einige Zeit dauern wird bis DLSS von Entwickler implementiert wird.
Auch das geht am Thema der Partnerschaft vorbei.
Es wurde/wird sich dadrüber aufgeregt das es eine Partnerschaft gibt. Bei Nvidia ist das ok bei AMD nicht? Wie diese Partnerschaft dann ist, ist ein anderes Thema.
NEIN
Oder einfach mal die Brille absetzen.

Woran hast du den einen AMD Fanboy erkannt? :lol:
Das man für Neutralität echt als Fanboy abgestempelt wird ist ja alleine schon ein unding.
Bitte einfach weniger Vorurteile und nein es ist nicht einfach so nur weil du es sagst...
Du warst ab dem Moment nicht neutral, ab dem du einem Gerücht mehr glauben schenkst, als einem anderen.
Damit hat das für mich alles angefangen.

Sofern sie ungeändert weitergenutzt wird definitiv.
Auch mit Änderungen kann die technisch veraltet programmiert sein.
 
Zuletzt bearbeitet:
Digital Foundry. :lol: Die stehen doch auf der Gehaltsliste von Nvidia.
Und deswegen sind die jetzt schlecht? Hast du das denn selber mal getestet? Ich habe hier ein System mit einer 6800XT und eins mit einer RTX 4080. Vollkommen egal ob nativ oder FSR auf AMD oder Nvidia, es sieht erheblich beschissener aus als mit der DLSS Mod. Und ich sage ganz bewusst beschissen, denn die Qualität von FSR in Starfield will ich mir 2023 nicht mehr antun müssen.
 
Den Artikel habe ich durch zufall gefunden,
der könnte erklären warum die 7900xtx so gut in Starfield performt und an die 4090 rankommt

Sehr interessant. Ich selber stecke da zu wenig in der Materie, sprich kein Plan ;)

Aber für mich könnte der das nicht erklären, sondern erklärt das schon ziemlich genau!
Für mich bleibt an der Stelle nur die Frage (Weil mir da tiefere Kenntnis zu fehlt)
liegt das an der Engine selbst, oder kann ein Treiber das für die verwendete Hardware noch weiter aufdröseln, um die Rechenwerke wieder sinnvoller zu füllen.
 
Ich halte das mit den Treiber für Schwachsinn.
Bei Nvidia könnte ich einen 1-2 Jahre alten Treiber haben und ein neues Spiel läuft mit +/-10% FPS wie mit dem neuen Treiber.
Aber bei Starfield ist es ca 40% unter der erwarteten Performance. Das hat nichts mit dem Treiber zu tun, sondern weil es ein Problem mit dem Spiel gibt. MLID der AMD Fanboy will hier wieder Nvidia etwas anhängen.

Exakt das Selbe habe ich mir auch gedacht. Mir war es garnicht bewusst, dass Studios heute zwingend Technologiepartnerschaften mit GPU-Herstellern eingehen müssen, damit ihre Spiele halbwegs passabel performen. Wenn das stimmen würde, müsste ja absolut jedes Spiel auf den GPUs von zwei der drei Hersteller (NVidia/AMD/Intel) unter aller Sau laufen, weil man ja nur mit einem so einen "Superdeal" abschließen kann...

Bethesda hat also DLSS nicht blockiert... Implementiert haben sie es aber auch nicht... Na woran lags denn? Hat NVidia es vergessen wie ein Köter darum zu betteln? Man sollte fast glauben andere Studios implementieren solche Technologien aus Eigenantrieb um dem Spieler das Bestmögliche Erlebnis zu bieten. Und v.A. warum hat man es denn partout vermieden im Vorfeld darüber zu reden? Warum hat man im Vorfeld als empfohlene Hardwareanforderung eine RTX 2080 angegeben, die in Wirklichkeit nicht einmal auf Low Details mit 50% Resolution Scale die 60 FPS halten kann?

Jetzt, nachdem der Shitstorm da ist, wird DLSS auf einmal nachgereicht. War ja auch überhaupt nicht absehbar, dass NVidia Kunden (die mal eben 80% des Marktes ausmachen) sauer sein werden, wenn so ein Rotzspiel unter einer 4070Ti kaum anständig spielbar ist und gleichzeitig DLSS/FG nicht implementiert ist.

Was die Treiber angeht muss ich Dir auch Recht geben, in der Hinsicht ist NVidia eigentlich sehr zuverlässig. Zu jedem größeren Release gibt es frühzeitig Game Ready Treiber, die auch immer gut performen. Probleme in der Hinsicht, wie bei AMD üblich, kenne ich nicht und ich bin treuer NVidia Kunde seit der Geforce 2.

Ich finde es einfach nur frech nach diesem hingerotzten Release einer kostenpflichtigen Werbeveranstaltung für AMD und Microsoft Produkte die Schuld auch noch auf Andere schieben zu wollen. Wenn Bethesda die Absicht gehabt hätte DLSS in das Spiel zu implementieren, hätte sie das auch ohne großen Aufwand tun können. Das schaffen selbst kleine Indie-Studios.

Und für die miese Performance auf NVidia Karten ist man dann wohl auch selbst verantwortlich, oder sind wir jetzt schon so weit, dass die GPU-Hersteller das für die Studios machen müssen?
In Starfield läuft meine 4090 mit 100% Last laut RTSS und HWiNFO, verbraucht dabei aber nur 150-200W, was 25-50% weniger ist als wie in anderen Titeln. Wie kann also eine GPU 100% Last haben und trotzdem "idlen", ohne das das CPU Limit erreicht ist in dem Moment? Wenn es der Treiber ist, sollte das in mehrere Spielen der Fall sein und nicht NUR in Starfield.

Es liegt ganz klar am Spiel. Und das ist auch keine schlampige Programmierung, sondern Vorsatz. Das Spiel sollte auf Nvidia Karten zu Release so furchtbar schlecht laufen. Zeitgleich gab es Bundles von AMD-Karten mit dem Spiel zu kaufen.... Noch Fragen? Ich denke noch eindeutiger geht es nicht mehr.
 
Zuletzt bearbeitet:
Es liegt ganz klar am Spiel. Und das ist auch keine schlampige Programmierung, sondern Vorsatz. Das Spiel sollte auf Nvidia Karten zu Release so furchtbar schlecht laufen. Zeitgleich gab es Bundles von AMD-Karten mit dem Spiel zu kaufen.... Noch Fragen? Ich denke noch eindeutiger geht es nicht mehr.
Der verlinkte Artikel von Chips and Cheese zeigt das Problem relativ gut auf.
Klar geht es auf die Unterschiede in der Architektur von AMD und Nvidia zurück. Aber letztendlich kann es nur zum Problem werden, weil die Engine die Möglichkeiten der Hardware gar nicht richtig anspricht.

Und in den Architekturunterschieden findet sich auf der Basis dann warum AMD überproportional gut läuft, im Vergleich.

Wenn Starfield anders programmiert worden wäre, dann würde es auf AMD und Nvidia hardware besser laufen, aber bei Nvidia deutlicher und der gewohnte Abstand dürfte wieder erreicht werden.

Am Ende bleibt, da für mein Verständnis das Problem in der Engine liegt, wird sich daran auch nichts ändern.

Zum Glück läuft es auch so schon ausreichend gut und DLSS wird noch offiziell, so dass es wenigstens Workarounds gibt.
 
Der verlinkte Artikel von Chips and Cheese zeigt das Problem relativ gut auf.
Klar geht es auf die Unterschiede in der Architektur von AMD und Nvidia zurück. Aber letztendlich kann es nur zum Problem werden, weil die Engine die Möglichkeiten der Hardware gar nicht richtig anspricht.

Und in den Architekturunterschieden findet sich auf der Basis dann warum AMD überproportional gut läuft, im Vergleich.

Wenn Starfield anders programmiert worden wäre, dann würde es auf AMD und Nvidia hardware besser laufen, aber bei Nvidia deutlicher und der gewohnte Abstand dürfte wieder erreicht werden.

Am Ende bleibt, da für mein Verständnis das Problem in der Engine liegt, wird sich daran auch nichts ändern.

Zum Glück läuft es auch so schon ausreichend gut und DLSS wird noch offiziell, so dass es wenigstens Workarounds gibt.

Ausreichend gut? Eine 4070 kann in Kämpfen nicht einmal die 60 FPS halten in WQHD nativ und das bei Low Details. Und das auch noch bei der Optik... Schlimmer gehts eigentlich kaum noch.
 
Ausreichend gut? Eine 4070 kann in Kämpfen nicht einmal die 60 FPS halten in WQHD nativ und das bei Low Details. Und das auch noch bei der Optik... Schlimmer gehts eigentlich kaum noch.
In Low, also ich kann die 60Fps mit der 4070ti in 1440p sehr gut halten und das auf Max Details. Klar, mit DLSS aber das sieht sowieso besser aus. (Ohne FG)

Das ist doch für eine obere Mittelklasse Karte sehr gut. (die 4070 ist Mittelklasse mMn)

Das die 4070 auf low die 60fps nicht halten kann, liegt vielleicht an der CPU, weil sonst kann ich mir das kaum vorstellen.

Kann nur sagen, das Spiel spielt sich auf der 4070ti wie Butter, auch wenn es schlecht umgesetzt wurde.
 
In Low, also ich kann die 60Fps mit der 4070ti in 1440p sehr gut halten und das auf Max Details. Klar, mit DLSS aber das sieht sowieso besser aus. (Ohne FG)

Das ist doch für eine obere Mittelklasse Karte sehr gut. (die 4070 ist Mittelklasse mMn)

Das die 4070 auf low die 60fps nicht halten kann, liegt vielleicht an der CPU, weil sonst kann ich mir das kaum vorstellen.

Kann nur sagen, das Spiel spielt sich auf der 4070ti wie Butter, auch wenn es schlecht umgesetzt wurde.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Hier wird die 4070 in WQHD Low getestet, als CPU wird ein Ryzen 5 5600X verwendet. Die GPU liegt in den Momenten mit niedriger Framerate zwischen 90 und 99% Auslastung, die CPU nur bei 50-60%.

Für meine Begriffe ist die 4070 auch nicht Mittelklasse, sondern obere Mittelklasse bei einer UVP von 659,-- €, die 4070ti würde ich als untere Oberklasse einordnen, sie sollte ja ursprünglich sogar als 4080 12GB released werden.

Die 4070 ist auf WQHD Gaming ausgelegt und eine Framerate unter konstanten 60 FPS auf Low Details ist einfach nur lächerlich. Das RE 4 Remake rennt mit Max Settings in WQHD nativ mit konstant über 100 FPS, nur als kleines Beispiel.

Sicherlich macht es DLSS mit FG deutlich besser, das ändert aber nichts daran, dass die Performance auf NVidia Karten unter aller Sau ist.
 
Zurück