News Starfield: Digital-Foundry-Analyse spricht für starke AMD-Optimierung

Die Nvidia Karten kosten mehr, weil der Konsument bereit ist für Nvida mehr zu bezahlen, außer unterschiedlichen Gründen. Das wiederum weis man und nutzt es als Gewinnorientiertes Unternehmen aus. Bis zur 4070TI bekommt man schnelle Karten mit relativ wenig Ram im Vergleich performance / ram.

Die Nvidia Karten kosten mehr weil sie leistungsstärker sind und das bessere Feature Set mitbringen. Das lässt sich jedes Unternehmen bezahlen. Miele kostet mehr als die Konkurrenz, ein Iphone ist teurer im Vergleich, das trifft auf so ziemlich jede Produktkategorie zu.
 
Die Nvidia Karten kosten mehr weil sie leistungsstärker sind und das bessere Feature Set mitbringen. Das lässt sich jedes Unternehmen bezahlen. Miele kostet mehr als die Konkurrenz, ein Iphone ist teurer im Vergleich, das trifft auf so ziemlich jede Produktkategorie zu.
Naja, das Verhältnis Leistung = Preis ist nicht optimal. Muss aber jeder für sich selbst entscheiden.

Dennoch entscheidet der Kunde wie teuer es wird.
 
Die Nvidia Karten kosten mehr, weil der Konsument bereit ist für Nvida mehr zu bezahlen, aus unterschiedlichen Gründen.
Was meinst du wohl, woran das liegt, das jemand für eine 4080 bereit ist mehr zu zahlen. Weil der mehr bekommt, in Summe aller Eigenschaften.
Das wiederum weis man und nutzt es als Gewinnorientiertes Unternehmen aus. Bis zur 4070TI bekommt man schnelle Karten mit relativ wenig Ram im Vergleich performance / ram.

Und für die anderen gibt es die 4080 / 4090. Die kommen dann von der Leistung und Ram voll auf Ihre Kosten.

Was auch nicht wild ist, den viele Zocken in Full HD.
12GB sind auch für 1440p noch vollkommen in Ordnung. Ein verbugtes Spiel, oder Spiel mit Buggy Treiber ist da jetzt keine echte endzeitstimmungsmachende Wende.
Ein Freund von mir hat die 3090TI und zockt auf einem 32 Zoll Full HD Monitor mit 166 Herz.
Der ist aber schon hart im Nehmen.
Mittlerweile liegt die 4090 bei 1500EUR und die 4080 zwischen 1000-1300EUR.

Für mich persöhnlich wären das bei einer 4080 1300/5J. = 260EUro im Jahr. Was ok ist. Kenne leute die wechseln jedes Jahr Ihre Mittelklasse. Kommt am Ende aufs selbe raus. würd eich stumpf behaupten.

Immer eine Frage wie man rechnet.

Aber grundsätzlich finde ich PC Gaming auch nicht so teuer... Sobald man eine Basis sich angeschafft hat.

Beispiel:
Jetzt eine 4080 für 1300€, dann jede Gen eine neue 80iger für sagen wir jeweils 200€ mehr.
Dann kann man erwarten das man bei Relese der 5080 (ca. 1500€) für eine gebrauchte 4080 ( noch ca. 830€ bekommt).

Das sind genauso gut etwa deine 260€/a, bei mir jetzt etwa 268€/a und man ist jede Gen am Nabel der Zeit.

Sind im Monat nur 23€. Wenn man das etwas aufbläht für den ganzen PC, kommt man auf 40-50€ im Monat für einen starken PC. Sofern man die Basis einmal angeschafft hat.


Ich bin dieses Jahr erstmal mit der 4070ti wieder eingestiegen, beabsichtige wenn ich nicht zwischendurch schon noch auf eine 7900XTX, 4080, oder 4090 wechsle spätestens bei der RTX5000/RX8000 eher in der 80iger Klasse einzukaufen.
Naja, das Verhältnis Leistung = Preis ist nicht optimal. Muss aber jeder für sich selbst entscheiden.

Dennoch entscheidet der Kunde wie teuer es wird.
Das unterscheidet sich nicht , von dem der Konkurrenz!
 
Die Nvidia Karten kosten mehr, weil der Konsument bereit ist für Nvida mehr zu bezahlen, aus unterschiedlichen Gründen.
Nein, so sehe ich das nicht. Es stimmt zwar, dass es viele Fans von Nvidia-Karten gibt, und das liegt auch an einem ziemlich guten Marketing, während AMD marketingtechnisch lange Zeit quasi gar nicht präsent war.
Aber faktisch ist eine RTX 4090 auf einem komplett anderen Level als eine 7900 XTX. Der Die der 4090 ist größer und monolithisch. Die Architektur ist völlig anders. Alleine diesen Die herzustellen kostet viel mehr als die Chiplets der 7900 XTX. Der Preis ist deshalb genauso völlig anders als der der 7900 XTX.

Du vergleichst hier Äpfel mit Birnen, wenn Du eine 7900 XTX mit einer 4090 vergleichst. Die 4090 ist von der Hardware her auf dem Papier deutlich besser und wenn beide perfekt ausgelastet werden, wird die 4090 die 7900 XTX immer schlagen.

Bei der RTX 4080 sieht es anders aus. Die ist eigentlich klar schwächer als die 7900 XTX (außer im Raytracing). Warum die 7900 XTX im Schnitt nur leicht besser als die 4080 performt, ist ein Mysterium. Aber das war bei AMD schon vor 10 Jahren ein Mysterium. Sie haben mittlerweile anscheinend weniger CPU-Overhead im Treiber als Nvidia und trotzdem bringt die Karte nicht 1:1 mehr Leistung, so wie es den technischen Daten entspricht.
Also faktisch muss AMD daran weiter arbeiten.

Aber rein von der Hardware kann man eigentlich die 7900XTX beim Rasterizing klarer zwischen RTX 4080 und 4090 erwarten, als sie sich in der Realität zeigt. Deshalb kann es durchaus sein, dass man mit entsprechenden Optimierungen vielleicht die 7900 XTX deutlicher über eine 4080 bekommt, als in anderen Games. Also evtl. bis zu 15-20% mehr FPS. Aber sie über eine 4090 zu bekommen, halte ich für sehr unrealistisch.
 
MLIDs Quelle: Trust me bro... Der Typ lag schon oft falsch
Mehr hast du nicht um zu beweisen, dass er JETZT falsch liegt? Schwach

wie kommst Du darauf aus seinen Aussagen FAKTEN zu machen?
Wo habe ich was von Fakten geschrieben?

Er behauptet irgendwas, ohne Quelle, und Du gibst ihn als vertrauenswürdige Quelle an?

Es sind mehr hinweise als das Haltlose "AMD Blockiert" Gerede. Quellen sind unter seinem Video verlinkt.

Nvidia wirft zurzeit alles in Richtung AI computing, da dort das große Geld gemacht wird. Die schwächelnde gaming GPU Sparte rückt ins Hinterlicht. Außerdem benutzt Starfield die Vulkan API, was ein Mehraufwand für Nvidia bedeutet.

Weniger Partnerschaften sind aber meiner Meinung nach zu begrüssen, ob das zu beider Seiten Nachteil oder Vorteil führt werden wir sehen.

Stimmt, aber Nvidia ist auf solche Partnerschaften mehr angewiesen als AMD. Wenn das mal nicht nach hinten losgeht.

Edit: Passend dazu gab es vor wenigen Tagen diesen Tweet:

Anhang anzeigen 1437428

Also wenn etwas am Nvidia Gerücht stimmt, dann wohl auch dieses hier für AMD, oder? :lol:

Ich bin für Konstruktive Argumente immer offen, leider ist dein Beitrag mehr ein emotional aufgeladener Ablenkungsmanöver voller Strohmänner.
 
Nein, so sehe ich das nicht. Es stimmt zwar, dass es viele Fans von Nvidia-Karten gibt, und das liegt auch an einem ziemlich guten Marketing, während AMD marketingtechnisch lange Zeit quasi gar nicht präsent war.
Aber faktisch ist eine RTX 4090 auf einem komplett anderen Level als eine 7900 XTX. Der Die der 4090 ist größer und monolithisch. Die Architektur ist völlig anders. Alleine diesen Die herzustellen kostet viel mehr als die Chiplets der 7900 XTX. Der Preis ist deshalb genauso völlig anders als der der 7900 XTX.

Du vergleichst hier Äpfel mit Birnen, wenn Du eine 7900 XTX mit einer 4090 vergleichst. Die 4090 ist von der Hardware her auf dem Papier deutlich besser und wenn beide perfekt ausgelastet werden, wird die 4090 die 7900 XTX immer schlagen.

Bei der RTX 4080 sieht es anders aus. Die ist eigentlich klar schwächer als die 7900 XTX (außer im Raytracing). Warum die 7900 XTX im Schnitt nur leicht besser als die 4080 performt, ist ein Mysterium. Aber das war bei AMD schon vor 10 Jahren ein Mysterium. Sie haben mittlerweile anscheinend weniger CPU-Overhead im Treiber als Nvidia und trotzdem bringt die Karte nicht 1:1 mehr Leistung, so wie es den technischen Daten entspricht.
Also faktisch muss AMD daran weiter arbeiten.

Aber rein von der Hardware kann man eigentlich die 7900XTX beim Rasterizing klarer zwischen RTX 4080 und 4090 erwarten, als sie sich in der Realität zeigt. Deshalb kann es durchaus sein, dass man mit entsprechenden Optimierungen vielleicht die 7900 XTX deutlicher über eine 4080 bekommt, als in anderen Games. Also evtl. bis zu 15-20% mehr FPS. Aber sie über eine 4090 zu bekommen, halte ich für sehr unrealistisch.
Bin ja bei dir, hab das nur nicht alles aufgebröselt, sondern unter Zitat", [...]aus unterschiedlichen Gründen." Zusammengefasst.
 
Mehr hast du nicht um zu beweisen, dass er JETZT falsch liegt? Schwach
Mehr hast du auch nicht wirklich gebracht.
Wo habe ich was von Fakten geschrieben?
Zuerst hast du von Hinweisen geschrieben, um gleich einen Absatz weiter unten selbst zu schreiben, als wären es Fakten. Man konnte das schon so verstehen, als wenn das für dich Fakten sind.
Es sind mehr hinweise als das Haltlose "AMD Blockiert" Gerede. Quellen sind unter seinem Video verlinkt.
Naja, das AMD der Grund ist, das DLSS zum Beispiel bisher nicht in Starfield drin ist (also direkt vom Entwickler), ist schon mehr als nur etwas naheliegend.

Da sind mir dann auch erstmal ein paar eingestreute Theorien egal, ob Nvidia die Manpower verschiebt.

Keiner wird das genau klären!
Nvidia wirft zurzeit alles in Richtung AI computing, da dort das große Geld gemacht wird. Die schwächelnde gaming GPU Sparte rückt ins Hinterlicht. Außerdem benutzt Starfield die Vulkan API, was ein Mehraufwand für Nvidia bedeutet.
Das Nvidia deswegen schlechtere Treiber für Spieler bringt, ist noch weniger als ein Gerücht, bis Heute. Kann sich ja noch ändern. ;)
Stimmt, aber Nvidia ist auf solche Partnerschaften mehr angewiesen als AMD. Wenn das mal nicht nach hinten losgeht.
Warum?

Den letzten Satz hätte man sich auch sparen können.
 
Mehr hast du nicht um zu beweisen, dass er JETZT falsch liegt? Schwach
Deine Taktik ist jetzt also die Beweislastumkehr. Das funktioniert zum Glück seit Jahren nicht mehr vor den Gerichten, auch nicht bei mir. Zuerst hast Du behauptet dass MLID Fakten liefert, also bitte, her mit den Belegen dazu.


Wo habe ich was von Fakten geschrieben?
Hier:
Also streut Nvidia Falschinformationen um von der eigenen Prioritäten-verschiebung abzulenken.


Es sind mehr hinweise als das Haltlose "AMD Blockiert" Gerede. Quellen sind unter seinem Video verlinkt.
Welcher von den drölfzig Links unter seinem Video soll eine Quelle für diese Behauptung sein? Ich find da nichts.

Nvidia wirft zurzeit alles in Richtung AI computing, da dort das große Geld gemacht wird. Die schwächelnde gaming GPU Sparte rückt ins Hinterlicht. Außerdem benutzt Starfield die Vulkan API, was ein Mehraufwand für Nvidia bedeutet.
AMD anscheinend auch, siehe mein geposteter Tweet von irgendwem. Wissen wir das genau? Nein.

Stimmt, aber Nvidia ist auf solche Partnerschaften mehr angewiesen als AMD. Wenn das mal nicht nach hinten losgeht.
Ist das so? Warum? Die Developer werden weiterhin eher mit Nvidia ins Bett hüpfen bei ~80% Marktanteil im dGPU Bereich. Ich find das nicht toll oder so, es ist einfach Fakt.

Ich bin für Konstruktive Argumente immer offen, leider ist dein Beitrag mehr ein emotional aufgeladener Ablenkungsmanöver voller Strohmänner.
Kollege, Du hast hier angefangen mit dicken Kanonen (riesige Screenshots von wilden Gerüchten) auf Spatzen zu schießen. Und diese als Fakt dargestellt. Und Dein Ablenkungsmanöver weiter oben trifft auf den Strohmann wohl mehr zu. Quelle liefern oder zugeben dass es nur Gerüchte sind, was anderes akzeptiere ich nicht. :D
 
Das haben diverse Seiten mit ihren benches (inkl PCGH) bestätigt
So ist es, und ich habe es bereits neulich geschrieben: Digital Foundry ist keine gute Anlaufstelle in Sachen PC. Die haben nicht einmal ein aktuelles Testsystem! Und ich finde es ziemlich schräg, dass PCGH die jetzt zitiert ohne überhaupt auf die völlig konträren eigenen Testergebnisse aus dem 24-CPU-Marathon zu verweisen.

DF testet Starfield auf Ryzen 3600 und 12900K und will dann generelle Aussagen in Sachen Performance machen ... :what: Ihre empfohlenen Settings sind auch immer wieder der reinste Käse. Was von DF in Bezug auf PC kommt ist immer mit Vorsicht zu genießen.
 
So ist es, und ich habe es bereits neulich geschrieben: Digital Foundry ist keine gute Anlaufstelle in Sachen PC. Die haben nicht einmal ein aktuelles Testsystem! Und ich finde es ziemlich schräg, dass PCGH die jetzt zitiert ohne überhaupt auf die völlig konträren eigenen Testergebnisse aus dem 24-CPU-Marathon zu verweisen.

DF testet Starfield auf Ryzen 3600 und 12900K und will dann generelle Aussagen in Sachen Performance machen ... :what: Ihre empfohlenen Settings sind auch immer wieder der reinste Käse. Was von DF in Bezug auf PC kommt ist immer mit Vorsicht zu genießen.
Wieso?
DF bewertet das ja mit Screenshots und Videosequenzen die jeder sehen kann, verstehe die Kritik da nicht.
 
Zurück