News Verkehrte Welt in Starfield: Intel Core hängt AMD Ryzen trotz Sponsoring ab

Joa. Es sind ja nun keine unspielbaren Bildraten. Ist mir im Endeffekt wurscht; läufts halt auf Intel CPUs besser.
Ach ja - DLSS(2?) ist ja nun auch an Board. Also alles halb so schlimm .. das ganze Gezerre vorher war mir auch zu viel.
AMD hat mit Bethesda, oder wie die heißen, halt irgend eine Werbezusammenarbeit gemacht. Sollen sie halt machen. BG3 ist auch NVidia Gameworks. Sollen sie halt auch machen. Läuft alles trotzdem, von daher ist mir das egal!
Genau, Rum drüber :cool:
 
Spannend ist nur wie die sogenannte Fachpresse von einer guten gleichmäßig Core Auslastung geschrieben hat. Alle samt gekaufte und gesponsert Presse.
Damit beweist es wiederum, kein Preorder und erst nach ein paar Monaten kaufen wenn die Spiele fertig sind.
 
Das ist problematisch für mich... da ich einen 5800X3D habe. :D
Ohne DLSS3 oder FSR3 werde ich nicht auf die 120FPS kommen...
 
Zuletzt bearbeitet:
Warum entwickelt AMD und NVIDIA einfach nicht selbst Spiele die dann nur auf ihrer Hardware laufen und bei der Konkurrenz nicht ? Das würde doch auch neue Käufer anlocken wenn der eine Hersteller dann bessere Games als der andere hätte ? :D :D Außerdem wären die Spiele perfekt optimiert.
 
Wer braucht schon Fail Tracing ?
huhuhu
hahaha
das Erfinden neuer Wörter um Dinge zu verunglimpfen, der Wahnsinn. Deshalb sind due Deutschen international für ihren Humor so bekannt...

So oder so: was such immer mit "Fail Tracing" gemeint sein soll:
-wirst du in mittlerer und längerer Zukunft nur noch Spiele mit Hybrid Rendering haben
-hat selbst AMD schon qngekündigt in den zukünftigen GPU Generationen mehr RT Performance reinzupacken weil es die Zukunft ist.

Was also "Fail" ist an einer Technologie der eindeutig der Zukunft gehört ist mir nicht klar
Warum entwickelt AMD und NVIDIA einfach nicht selbst Spiele die dann nur auf ihrer Hardware laufen und bei der Konkurrenz nicht ? Das würde doch auch neue Käufer anlocken wenn der eine Hersteller dann bessere Games als der andere hätte ? :D :D Außerdem wären die Spiele perfekt optimiert.
die 90er haben angerufen, sie wollen ihre exklusiven APIs zurück
 
Der Modder macht das nicht zum ersten Mal, hat daraus quasi ein Geschäftsmodell gemacht und auch vorher glaube ich angekündigt DLSS ab Tag 1 zu supporten.

Das Bethesda es nicht selber getan hat liegt nicht daran, dass sie unfähig sind, sondern an der AMD-Partnerschaft.

Grüße gehen an der Stelle raus an diejenigen, die meinten, es wäre ja mit erheblichem Mehraufwand verbunden, DLSS zu implementieren.. ???

War doch von Anfang an klar, dass es aufgrund der Partnerschaft nicht nativ von Bethesda kommt.
 
Und wenn man fast immer im GPU-Limit ist, und eine top Grafik hat, dann ist die CPU-Leistung sowieso völlig egal. Die meisten Leute stehen ja nicht auf Counterstrike-Grafik sondern wollen AAA-Grafik.
Soll sich das auf Starfield beziehen? Denn erstens ist das keine AAA-Grafik sondern der übliche Bethesda Augenkrebs. Und zweitens ist das eine Engine die eben ein Paradebeispiel für CPU Limit darstellt.

Der Beweis? Der heute erschienene DLSS 3.5 Mod samt FG —> 120 fps stabil, da eben die CPU nicht mehr limitiert.

Um damit Deinen Vorwurf an PCGH mal auf Deinen Kommentar anzuwenden: wenn man keine Ahnung hat und nur blindes Fanboy-Bashing betreiben will, lieber mal die Flunder halten.
 
Selbst vor so eine Denkweise würde ich einen Riegel schieben. "Vorteile einer AMD CPU", das ist etwas das nur in unseren Köpfen existiert.

Ich spiele so, dass meine GPU bei 100% ist. Ich will sehen was die kann und brauche keine nackten Polygone bei 500fps. Im Umkehrschluss bedeutet das bei den aktuellen Spielen, dass selbst wenn eine AMD CPU 30% langsamer ist, dann ist sie halt bei 26% CPU Auslastung anstatt bei 20% in einem typischen Spiel. Starfield wird etwas mehr CPU Leistung brauchen, aber ich gehe jede Wette, die typische GPU eines Spielers in diesem Forum wird bei 99% sein und die CPU weit davon entfernt.

Intel hat sogar ein hervorragendes Tool dafür veröffentlicht, fast besser als der Afterburner. Das Tool läuft mit jeder GPU und mit jeder CPU und wertet für jedes Frame aus wieviel ms die GPU und die CPU dafür gebraucht hat. So sieht man sehr leicht, ob ein Lagspike wirklich nur aus der GPU kam, oder ob die CPU mit involviert war.

Links zum Tool:


Auf die Aussagen einer Co-Marketing Kampagne würde ich nichts geben.
danke, ein wirklich schönes tool
 
Weis nicht wo ist da eine Aufwertung wenn das Spiel dann nur noch unterirdisch läuft? RT ist erst eine Aufwertung wenn es zwischen mit und ohne RT keinen Performance Unterschied gibt. Bis dahin ist es einfach nur eine Verarsche.
Wenn RT "unterirdisch" läuft... hast du zum falschen Hersteller gegriffen:P

Zu Thema: wer warten kann, ist oft besser dran;)

Gruß
 
Wie sieht es außerhalb von 720p aus
Z.B,

1080p
1440p
2160p

Sind da die Abstände genau so gravierend ?
Wenn die GPU oder etwas anderes nicht limitiert, natürlich. Für den Prozessor existiert keine Auflösung. Bei Starfield wirst du aber, trotz der teils Morrowind-Grafik, in ein GPU-Limit geraten. Dann helfen aber immer noch schnellere CPUs, wegen der geringen Frametimes, die sonst auftreten. Generell bewerte ich den technischen Zustand des Spiels jedoch als desolat, da müssen dringend Patches und erste Mods her.
 
Zuletzt bearbeitet:
War das nicht von Anfang an eine Mär von denen die sich darüber aufgeregt haben DLSS nicht offziell zu bekommen?
Nee, die die sich "aufgeregt" haben, hatten argumentativ genau das Gegenteil gesagt, eben dass es leicht zu implementieren sei (und Recht behalten, wie sich jetzt rausstellt).

Die Mär stammt von den Usern, die den Nvidia Nutzern DLSS zum Verrecken nicht gegönnt haben. Dass genau diese Leute nach dem AMD Debakel und dem Siegeszug der DLSS Mods jetzt durch vornehme Abwesenheit glänzen und sich nicht trauen zu posten spricht Bände.
 
Nee, die die sich "aufgeregt" haben, hatten argumentativ genau das Gegenteil gesagt, eben dass es leicht zu implementieren sei (und Recht behalten, wie sich jetzt rausstellt).

Die Mär stammt von den Usern, die den Nvidia Nutzern DLSS zum Verrecken nicht gegönnt haben. Dass genau diese Leute nach dem AMD Debakel und dem Siegeszug der DLSS Mods jetzt durch vornehme Abwesenheit glänzen und sich nicht trauen zu posten spricht Bände.
Meinte damit eher, jemand mit ein paar Posts hat das wohl mal erwähnt und von da an hieß es dann AMD'ler würden es uns (Nvidianer) nicht gönnen. Mir ist jedenfalls nichts derartiges aufgefallen, vielleicht habe ich es aber auch einfach überlesen.
 
War das nicht von Anfang an eine Mär von denen die sich darüber aufgeregt haben DLSS nicht offziell zu bekommen?
Mär würd ich das nicht ansatzweise nennen. Man merkt aber doch schon, dass die Partnerschaft dem wohl im Wege steht, wenns jemand in einem Tag schafft, das zu implementieren.

Den Tag hätte man halt auch gehabt, was hier so einige aber leider nicht wahr haben wollten ??
 
Verstehe nicht wie DLSS in dem Spiel funktionieren kann, ich meine hat Nvidia den Algorithmus schon mit Bildern aus dem Spiel gefüttert oder braucht es das gar nicht mehr ?. Am Anfang meinte man doch mal der Algorithmus wird für DLSS mit 1000000 von Bildern aus dem Spiel gefüttert um ihn zu tranieren.
 
Zurück