News Drama um Starfield-Performance: Todd Howard rät Spielern zum Aufrüsten ihres PCs

Aha.. weiß jetzt nicht was es mit der xbox zu tun hat?
Also du meinst ernsthaft das einer die ssd in der xbox austauscht gegen eine grosse HDD... äh ja, klar

Du denkst also nicht nur kleinkariert, sondern interpretierst auch noch bzw. drehst mir Worte um - nee, sowas machen wir nicht.

Es ging um die PC Perfromance aufgrund der veralteten Engine und deren schlechter Optimierung, da die Engine ihren Zenit erreicht hat - ist einfach so.

Wegen SSD/HDD nochmal: klar braucht man dafür ne SSD und klar zockt sich das damit besser, aber es könnte dennoch auch vom Streaming her besser optimiert sein.

Weiß nicht, was du immer von mir mit der Box willst jetzt, das war lediglich beispielhaft erwähnt. Aber nix, um sich das rauszupicken und sich daran aufzugeilen. Wenn du das willst, mach halt nen Xbox Thread auf. Aber hier gehts am Thema und auch meinen Kernaussagen leider vorbei.
 
Du denkst also nicht nur kleinkariert, sondern interpretierst auch noch bzw. drehst mir Worte um - nee, sowas machen wir nicht.

Es ging um die PC Perfromance aufgrund der veralteten Engine und deren schlechter Optimierung, da die Engine ihren Zenit erreicht hat - ist einfach so.

Wegen SSD/HDD nochmal: klar braucht man dafür ne SSD und klar zockt sich das damit besser, aber es könnte dennoch auch vom Streaming her besser optimiert sein.

Weiß nicht, was du immer von mir mit der Box willst jetzt, das war lediglich beispielhaft erwähnt. Aber nix, um sich das rauszupicken und sich daran aufzugeilen. Wenn du das willst, mach halt nen Xbox Thread auf. Aber hier gehts am Thema und auch meinen Kernaussagen leider vorbei.
Noch einmal, du hast doch EXTRA die Xbox mit Ihrer 500 GB großen SSD argumentiert, das es blöd ist, dass die HDD Performance schon bescheiden ist, da ja vielen die 500 GB nicht ausreichen würden...

Wie soll ich diesen den Verstehen, außer das einer mit einer HDD aufrüstet, was sicher nicht passiert

Edit: Wer die Mindestanforderungen Ignoriert und zwar gewaltig (SSD zur HDD), der braucht sich auch nicht beschweren, meine Meinung..

punkt
 
Assassins creed valhalla enter the chat
Den Overhead in DX12 allgemein reduzieren ist was anderes als für einen einzelnen Titel zu optimieren.

klar braucht man dafür ne SSD und klar zockt sich das damit besser, aber es könnte dennoch auch vom Streaming her besser optimiert sein.
Entwickelt werden Multiplattformer immer für den kleinsten gemeinsamen Nenner, der ist aktuell die Xbox Series S mit NAND Speicher. HDDs werden in Zukunft immer weiter hinten runterfallen weil sie den steigenden Datenmengen nicht gewachsen sind, die anspruchsvolle Spiele beim Laden oder im Hintergrund abrufen.

HDDs dürften bei zufälligen Zugriffen bestenfalls bei 80-100 MB/Sek. sein + die ewig lange Zugriffszeit. Beides zusammen ist Gift für aktuelle und kommende Titel. Beim kommenden Cyberpunk DLC ist der HDD Support auch schon offiziell weggefallen, empfohlen wird sogar bereits eine NVMe SSD.

Die Tage der HDD sind gezählt.
 
Zuletzt bearbeitet:
Dafür brauch ich den Source-Code nicht sehen. Es reicht, wenn ich das Ergebnis sehe. Ich stehe ja nun wirklich nicht als einziger mit meiner Erfahrung da. Außerdem gibt es Reviews und Tests bzgl. der Technik.

Das Ergebnis ist, dass ich auf FullHD flüssige 60 FPS bei hohen (nicht Ultra) Grafikeinstellungen habe. Ohne Upscaling. Und das mit 5 Jahre alter Hardware. Wenn das schlechte Technik sein soll, weiß ich auch nicht weiter.

Ähm...nein. Optimierung heißt nicht "möglichst viel alten Schund lauffähig halten". Optimierung heißt "die maximal mögliche Performance herausholen." Also eine Verbesserung eines Zustandes. Wie das vonstatten geht, steht auf einem anderen Blatt. Das kann von Kompromissen wie Detailreduzieren reichen, bis hin zu Arbeiten unter der Haube, wie Multi-Core-Skalierung etc.

Optimieren für "maximal mögliche Performance" kann man aber nur, wenn man sich auf genau eine Hardware-Konstellation festlegt (Konsolen beispielsweise). Ansonsten heißt Optimieren "die maximal mögliche Performance herausholen" für alle geläufigen Hardware-Konstellationen. Man optimiert also in die Breite, damit möglichst viele das Spiel gut spielen können (und kaufen) und nicht in die Höhe, damit man mit ner RTX 4090 die 1000 FPS-Marke bricht. Und ja, dazu gehört Multi-Core-Skalierung, Shader, etc. Aber ohne Quellcode kann man relativ schlecht beurteilen, wie "gut"/ob solche Sachen umgesetzt sind.

Und darum ging es nie. Sondern darum, dass das Spiel a.) viel zu hohe Anforderungen hat für das, was es optisch bietet und b.) Performanceprobleme hat. Bevor du das nicht verstanden hast, brauchen wir nicht weiter diskutieren. :)

Welche hohen Anforderungen hat das Spiel denn? Und wo ist das Spiel denn optisch so unterirdisch wie du es andeutest? Welche Performanceprobleme hat das Spiel denn?
Bevor du hier keine Beispiele oder belegbare Zahlen lieferst, brauchen wir nicht weiter diskutieren. :)

Ich persönlich finde Starfield sehr gelungen von der Grafik. Klar, es ist jetzt nicht so superkrass umwerfend, aber die Atmosphäre beim Spielen ist da und fängt mich ein. Bis auf die Charaktere ist mir auch noch nichts aufgefallen, was ich bei längerem Nachdenken als "störend" oder gar "hässlich" einstufen würde (und auch die Charaktere sind nicht ganz so schlimm. Mass Effect hatte da deutlich mehr Probleme). Und wie gesagt, auf meiner 5 Jahre alten Mühle läuft es ohne zu Ruckeln und schaut gut aus.

Nochmal, um es klipp und klar zu machen. Ja, Starfield ist kein "Next-Gen"-Spiel wie es angepriesen wurde (Marketing mal wieder), aber es ist (in meinen Augen) kein schlechtes Spiel. Es macht Spaß, sieht gut aus, fängt mich ein, lässt mich die Umgebung ein Stück weit vergessen und läuft problemlos. Was anderes wäre es, wenn ich auf ner RTX 4070 nur 20 FPS hätte. Oder es auf meiner Hardware nicht starten würde. Es ständig ruckelt oder Texturen fehlen. Dann würde ich das Gemecker verstehen. Nur... das tut es nicht.
 
Hmmm was soll man dazu noch sagen ...

Klassischer Toddster halt. :ugly: Weißt schon, "16 times the detail" und "it just works"!
 
Klassischer Toddster halt. :ugly: Weißt schon, "16 times the detail" und "it just works"!
Nicht wirklich unerwartet, oder irgendwie verwunderlich.
Wie ich schon an anderer Stelle geschrieben hatte, meine RTX 2060 Super erreicht in Cyberpunk 2077, FullHD, ohne RT, sonst alles maximal, stabile 50FPS.

Bei Starfield hingegen krebst die Karte, die meiste Zeit, in FullHD, bei um die 30 FPS (mit FSR2 an) rum, ohne das Starfield aber irgendwie grafisch nennenswert mehr bieten würde, als Cyberpunk 2077.

Wenn Todd Howard entsprechend meint Starfield sei "bestens" optimiert und schlechte Performence läge alleine an zu alter Hardware, entspricht das einfach schlicht nicht den Tatsachen.
 
Nicht wirklich unerwartet, oder irgendwie verwunderlich.
Wie ich schon an anderer Stelle geschrieben hatte, meine RTX 2060 Super erreicht in Cyberpunk 2077, FullHD, ohne RT, sonst alles maximal, stabile 50FPS.

Bei Starfield hingegen krebst die Karte, die meiste Zeit, in FullHD, bei um die 30 FPS (mit FSR2 an) rum, ohne das Starfield aber irgendwie grafisch nennenswert mehr bieten würde, als Cyberpunk 2077.

Wenn Todd Howard entsprechend meint Starfield sei "bestens" optimiert und schlechte Performence läge alleine an zu alter Hardware, entspricht das einfach schlicht nicht den Tatsachen.
Der Toddster ist einfach ein chronischer Lügner. Kennt das hier noch jemand?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Noch einmal, du hast doch EXTRA die Xbox mit Ihrer 500 GB großen SSD argumentiert, das es blöd ist, dass die HDD Performance schon bescheiden ist, da ja vielen die 500 GB nicht ausreichen würden...

Wie soll ich diesen den Verstehen, außer das einer mit einer HDD aufrüstet, was sicher nicht passiert

Edit: Wer die Mindestanforderungen Ignoriert und zwar gewaltig (SSD zur HDD), der braucht sich auch nicht beschweren, meine Meinung..

punkt

Das hab ich gar nicht in dem Zusammenhang geschrieben, bzw. gemeint. Das ist das, was du nicht kapierst.

Aber ich bin aus der Diskussion mit dir raus, weil das wird mir zu doof.
 
Das hab ich gar nicht in dem Zusammenhang geschrieben, bzw. gemeint. Das ist das, was du nicht kapierst.

Aber ich bin aus der Diskussion mit dir raus, weil das wird mir zu doof.
Moment mal, du schreibst in einem Beitrag, dass es scheiße ist, dass das Spiel nicht auf einer Hdd läuft, im gleichen Beitrag sagst, du, die 500 GB SSD einer XBOX ist ür das Spiel zu klein, viele müssen aufrüsten, aber das sind komplett getrennte Themen, naja
 
Haste doch schon mit dem Kauf Deiner Nvidia - also Geld ins Klo gespült :ugly:

Glaube ich kaum. Mit meiner 4070 spiele ich Cyberpunk dank DLSS Quality und Frame Generation in WQHD mit max Details und Path Tracing. Da liefert mir NVidia gut 60 FPS - eine 7900XTX schafft bei den Settings mit FSR Quality ganze 11 FPS und das auch noch bei schlechterer Bildqualität :lol:

Denke ich mir auch immer, bei Nvidia-Sponsored Titeln. :D

Bei Nvidia sponsored Titeln gibt es auch eine anständige Implementierung der hauseigenen Techniken, man schafft als einen Mehrwert ohne die Konkurrenz auszuschließen. Starfield bietet ja nichts, es gibt den Standard 08/15 FSR 2 Support und das wars. Das Spiel performt obendrein auf AMD CPUs besonders mies, auch die Performance auf AMD GPUs ist alles andere als gut, nur eben besser als bei Nvidia.

Hauptsache man konnte DLSS und Frame Generation aus dem Spiel raus halten, obwohl gerade Starfield mit seiner Holzengine es so dringend gebraucht hätte. Solche Exklusivdeals braucht kein Mensch.
 
Glaube ich kaum. Mit meiner 4070 spiele ich Cyberpunk dank DLSS Quality und Frame Generation in WQHD mit max Details und Path Tracing. Da liefert mir NVidia gut 60 FPS - eine 7900XTX schafft bei den Settings mit FSR Quality ganze 11 FPS und das auch noch bei schlechterer Bildqualität :lol:



Bei Nvidia sponsored Titeln gibt es auch eine anständige Implementierung der hauseigenen Techniken, man schafft als einen Mehrwert ohne die Konkurrenz auszuschließen. Starfield bietet ja nichts, es gibt den Standard 08/15 FSR 2 Support und das wars. Das Spiel performt obendrein auf AMD CPUs besonders mies, auch die Performance auf AMD GPUs ist alles andere als gut, nur eben besser als bei Nvidia.

Hauptsache man konnte DLSS und Frame Generation aus dem Spiel raus halten, obwohl gerade Starfield mit seiner Holzengine es so dringend gebraucht hätte. Solche Exklusivdeals braucht kein Mensch.​
Ach ja? Dann erklär mir mal, wie ich DLSS und GSync bei AMD- oder Intel-Karten oder einer Playstation nutze?

Deine Argumente sind schlicht übertrieben oder falsch.
Dass Starfield "nichts" bietet stimmt nicht. Auch die Optimierungen von AMD-Seite sind nicht ohne, wie gerade auch erst Digital-Foundry analysiert hat.
Also schon einiges mehr, als nur Standard FSR2-support.
"Besonders mies" auf AMD CPU's kann ich auch nicht nachvollziehen. Das läuft doch recht gut? Auch wenn da die Intel-Oberklasse ganz leicht die Nase vorne hat im CPU-limit.
Performance auf AMD-GPU's? Also ich kann nicht klagen. Aber das liegt auch viel an Bethesda und ihren eigenen Engine-Entscheidungen.
Hast Du einen echten "Case" oder suchst Du nur Rage-Aussagen im Netz zusammen? Komm mal aus der Blase raus. ;) Teste selber und mach eigene Erfahrungen.

Alles in allem lese ich in Deiner Antwort sehr viel Polemik und verallgemeinernde Stammtisch-Weisheiten.

"jaja, es ist das schlechteste Spiel, aller Zeiten, darum gehört Bethesda und AMD auf den Scheiterhaufen und Nvidia die Adelskropne verliehen. Das zeigt sich auch in den Reviews auf Steam. Das Spiel ist schlimmer als Redfall ..."

Aber in einem Punkt gebe ich Dir Recht:

"Solche Exklusivdeals braucht kein Mensch."

:daumen:
Absolut! Ich mag auch Exklusivität und Elitarismus in keinster Weise - ich HASSE sie geradezu. Soll doch jeder mit was auch immer in den Genuss kommen.
Sony-Spiele auf dem PC, Nintendo-Spiele auf nem Emulator, Spielsupport und Optimierungen für ALLE, Windows, Linux, ... was auch immer.
Ich brauch kein DirectX12 Windows-vendor-login, ich brauch kein "läuft nur mit Nvidia / anderer Name", Windows-12-Voraussetzung, Sony-Exclusiv, Epic-Games-Store-Exclusiv ...
PC ist besser als Konsole, Playstation ist besser als Xbox, Master-Race-ich-bin-der-Geilste-Schw**z-Vergleich. Kindergarten.
 
Zuletzt bearbeitet:
Finde diese AMD vs nVidia auch nur nervig und unnötig.
Stimme euch aber ebenfalls zu bei der Aussage, dass exklusiv-deals scheiße sind. :-D
 
Ach ja? Dann erklär mir mal, wie ich DLSS und GSync bei AMD- oder Intel-Karten oder einer Playstation nutze?

DLSS überhaupt nicht, denn es setzt Tensor Kerne voraus, die weder AMD noch Intel aus seinen GPUs verbaut hat. So ist das nun mal, wenn man Technologieführer ist und Andere immer nur 2 Jahre später schlecht kopieren. Das kann man NVidia wohl kaum zum Vorwurf machen.

AMD bietet FSR und Intel als Newcomer Xess, dass erstaunlicherweise schon bessere Ergebnisse liefert als FSR. Jedes Spiel sollte alle 3 Techninken unterstüzen, damit Alle bestmöglich versorgt sind, die Implementierung ist einfach genug.

Was GSync angeht: Auch hier war NVidia wie immer Vorreiter und es setzt nunmal einen Monitor mit Gsync Modul voraus. Als gute Alternative gibt es ja GSync compatible / Freesync Monitore, die auch ohne GSync Modul auskommen und AMD-Karten unterstüzen.


Deine Argumente sind schlicht übertrieben oder falsch.
Dass Starfield "nichts" bietet stimmt nicht. Auch die Optimierungen von AMD-Seite sind nicht ohne, wie gerade auch erst Digital-Foundry analysiert hat.
Also schon einiges mehr, als nur Standard FSR2-support.

Stimmt nicht. Schon das auf die Schnelle reingemoddete DLSS bietet eine bessere Bildqualität als das spielinterne FSR 2. Obendrein ist Frame Generation in dem Spiel Gold wert bei der furchtbaren Performance. Aber man muss dem zahlenden Kunden diese Techniken ja aus Marketinggründen vorenthalten...

"Besonders mies" auf AMD CPU's kann ich auch nicht nachvollziehen. Das läuft doch recht gut? Auch wenn da die Intel-Oberklasse ganz leicht die Nase vorne hat im CPU-limit.

Das sagt sich leicht, wenn man selbst eine der schnellsten Gaming CPUs am Markt im Rechner stecken hat. Gemessen an dem, was ein 7800X3D in anderen, anständig optimiereten Spielen leistet, ist die Performance in Starfield eine Katastrophe. Auch die Performance mit Intel CPUs ist alles andere als gut, nur eben besser als bei AMD.


Performance auf AMD-GPU's? Also ich kann nicht klagen. Aber das liegt auch viel an Bethesda und ihren eigenen Engine-Entscheidungen.
Hast Du einen echten "Case" oder suchst Du nur Rage-Aussagen im Netz zusammen? Komm mal aus der Blase raus. ;) Teste selber und mach eigene Erfahrungen.

Hammer Aussage...Du spielst in 1080p (also in Low-End Auflösung) mit einer 7900XT, der zweitschnellsten AMD-Karte am Markt und das auch noch in einem Spiel, das AMD sponsored ist. Guck Dir doch mal an wie das Spiel z.B. auf einer RTX 4070 oder auf AMD Karten der 6000er Reihe performt und zwar in Auflösungen, die für GPUs jenseits der 600 Euro eigentlich üblich sind (1440p+). Intel Kunden können sich ja gleich die Kugel geben lt. Bethesda...

Da ist überhaupt nichts optimiert, die miese Performance steht in absolut Keinem Verhältnis zur gebotenen Grafik.


Alles in allem lese ich in Deiner Antwort sehr viel Polemik und verallgemeinernde Stammtisch-Weisheiten.

"jaja, es ist das schlechteste Spiel, aller Zeiten, darum gehört Bethesda und AMD auf den Scheiterhaufen und Nvidia die Adelskropne verliehen. Das zeigt sich auch in den Reviews auf Steam. Das Spiel ist schlimmer als Redfall ..."

Wenn Du das so siehst... Es ist nunmal leider sehr eindeutig, dass es bei Starfield nicht darum ging dem Kunden das bestmögliche Spielerlebnis zu präsentieren, sondern darum AMD und Microsoft auf Kosten der Qualität gut dastehen zu lassen. Ein Support für DLSS + Frame Generation wäre in dem Gurkentitel absolute Pflicht gewesen bei der katastrophalen Performance. Das hat man ja sogar bei Gollum hinbekommen und die haben sonst wirklich absolut nichts auf die Reihe gekreigt.
 
DLSS überhaupt nicht, denn es setzt Tensor Kerne voraus, die weder AMD noch Intel aus seinen GPUs verbaut hat. So ist das nun mal, wenn man Technologieführer ist und Andere immer nur 2 Jahre später schlecht kopieren. Das kann man NVidia wohl kaum zum Vorwurf machen.
Du weisst schon, dass meine Frage sarkastisch war und darauf abzielete, dass Nvidia-Tech halt meist nur von Nvidia genutzt werden kann.
Es ist nebenbei Blödsinn zu glauben, dass nur weil jemand bei einer Technologie vorne weg schreitet alle genau die gleichen Lösungsansätze verfolgen müssen wie dieser.
Man kann Ziele auf ganz viele unterschiedliche Weise erreichen. Viele Wege führen nach Rom.
Tensor cores ist Nvidias Idee. Sollen sie machen. Andere machen es anders und haben dadurch andere Vorteile und Nachteile. KEINER kopiert den Tensor core Ansatz.
Und wenn es um Superresolution geht: das ist nicht auf Nvidia Mist gewachsen. Die Idee gibt es schon länger. Wie gesagt, verschiedene Ansätze, wie man sowas verwirklichen könnte. Und auch versciedene Einischätzungen wann der richtige Zeitpunkt ist, dass die Technik tatsächlich gefragt und genutzt wird und man da draufspringen sollte. Und sooo toll und ein Alheilmittel ist diese Technik auch nicht.


AMD bietet FSR und Intel als Newcomer Xess, dass erstaunlicherweise schon bessere Ergebnisse liefert als FSR. Jedes Spiel sollte alle 3 Techninken unterstüzen, damit Alle bestmöglich versorgt sind, die Implementierung ist einfach genug.

Was GSync angeht: Auch hier war NVidia wie immer Vorreiter und es setzt nunmal einen Monitor mit Gsync Modul voraus. Als gute Alternative gibt es ja GSync compatible / Freesync Monitore, die auch ohne GSync Modul auskommen und AMD-Karten unterstüzen.

Wie immer? Gläubiger, Jünger oder was? sagt Dir TressFX und Hairworks was?
GSync und Modul: das ist knallhartes Vendor Lockin.
GSync compatible gab es erst später, als Nvidia das Wettrennen verloren hat und sich öffnen musste.

Stimmt nicht. Schon das auf die Schnelle reingemoddete DLSS bietet eine bessere Bildqualität als das spielinterne FSR 2. Obendrein ist Frame Generation in dem Spiel Gold wert bei der furchtbaren Performance. Aber man muss dem zahlenden Kunden diese Techniken ja aus Marketinggründen vorenthalten...

Warum ist Framegeneration Gold wert? Als ob das der heilige Gral wäre. Wenn doch die "Preformance so furchtbar" ist, sollte man dann nicht an der Perfomrance arbeiten, anstatt Pflaster drauf zu tun?
"Vorenthalten" ist reine Spekulation, dafür gibt es keine Beweise und nur Vermutungen.
Wo bist Du denn nun der zahlende Kunde in dem Spannungsfeld? (Frag mal so aus Neugierde).
Marketinggründe?

Das sagt sich leicht, wenn man selbst eine der schnellsten Gaming CPUs am Markt im Rechner stecken hat. Gemessen an dem, was ein 7800X3D in anderen, anständig optimiereten Spielen leistet, ist die Performance in Starfield eine Katastrophe. Auch die Performance mit Intel CPUs ist alles andere als gut, nur eben besser als bei AMD.

Erst unterstellst Du,, dass AMD-CPU's grottig schlecht performen und Intel sooo viel besser ist und nun hab ich plötzlich wieder eine der schnellsten CPU`s? Ja was denn nun?
Die schnellste iist die 7800X3D niicht. Aber siie ist Peris-Leistungs-Technisch im Gaming-Bereiich schon sehr stark.
Hat halt nur 8 Kerne und es gibt andere, die stärker sinid zu viel teurer. Für mich overkill, mir reicht sie.

Hammer Aussage...Du spielst in 1080p (also in Low-End Auflösung) mit einer 7900XT, der zweitschnellsten AMD-Karte am Markt und das auch noch in einem Spiel, das AMD sponsored ist. Guck Dir doch mal an wie das Spiel z.B. auf einer RTX 4070 oder auf AMD Karten der 6000er Reihe performt und zwar in Auflösungen, die für GPUs jenseits der 600 Euro eigentlich üblich sind (1440p+). Intel Kunden können sich ja gleich die Kugel geben lt. Bethesda...

Da ist überhaupt nichts optimiert, die miese Performance steht in absolut Keinem Verhältnis zur gebotenen Grafik.
Uha, low-End-Auflösung. Der Prophet hat gesprochen.
Sorry, ich kaufe mir nicht alle 2 Jahre neue Moniitore für 500 bis 1000 Euro - zumal wenn Hinitergrundbeleuchtung und HDR immer noch zu wünschen übrig lassen. So lange tut es noch mein alter.

Ja, der Monitor steht als nächstes an aber erst, wenn 21:9 1440p+ auchbei 140Hz+ größere Vertikalen und mehr als DisplayHDR 400 bieten.

Wenn Du das so siehst... Es ist nunmal leider sehr eindeutig, dass es bei Starfield nicht darum ging dem Kunden das bestmögliche Spielerlebnis zu präsentieren, sondern darum AMD und Microsoft auf Kosten der Qualität gut dastehen zu lassen. Ein Support für DLSS + Frame Generation wäre in dem Gurkentitel absolute Pflicht gewesen bei der katastrophalen Performance. Das hat man ja sogar bei Gollum hinbekommen und die haben sonst wirklich absolut nichts auf die Reihe gekreigt.

Und nun nochmal neuer Hinweise von Kontakten am Ball:

(scheinbar berichten Kontakte bei den Firmen)
- Nividia hat anscheinend echt zu wenig Weitsicht gehabt, einzuschätzen, wie wichtig der Titel werden könnte
- Nvidia ist auch gefragt worden, zu unterstützen und zu optimieren. Sie haben aber den Aufwand unterschätzt, den das erfordern würde. Resourcenaufstockungen sind abgelehnt worden und in KII geflossen, da Nvidia derzeit partout nichts aug gaming gibt (so viel mal nochmal an den Zahlen Kunden)
- auch AMD ist sehr spät erst gerfagt worden hat aber diei Vision gesehen. Sie hatten ein klein bisschen mehr Zeit zu optimieren, aber auch da hat es wohl gerade mal so gereicht, sicherzustellen, dass das Spiel überhaupt läuft (auf jeder Karte) und auf jeden Fall granatiert auf AMD-Karten
- zu Erwarten, dass Bethesda etwas großartiges zum Release abliefert, das super optimiert ist, entbehrt jeglicher Erfahrung und Vernunft

Nebenbei auch interessant für jeden, der glaubt, Nvidia hätte doch nur gefragt werden müssen, dann wären die schon mit ihrer Armee angerückt und hätten alles gerichtet.
 
Zurück