News Starfield ohne Sterne: Radeon-Grafikkarten lassen Himmelskörper weg

Echt verrückt. Ich habe mal amd Karten bevorzugt, die letzte war eine hd6850, danach gab’s nur noch Nvidia, auch wenn sie teurer sind, sie halten einfach deutlich länger durch. Warum? Keine Ahnung das weiß ich nicht. aber was ich weiß ist, das in 3 Jahren meine 4090 immer noch relevant ist, während kein Mensch mehr von irgend einer amd Karte aus diesem Jahr überhaupt noch den Namen erwähnt.
Meine alte 1080 reicht heute noch für das meiste und schafft meistens etwas mehr Optik raus zu holen wie eine ps5 oder XSX.
Mit einer rx 480 wird aber heute kein Mensch mehr ansatzweise glücklich und die Relevanz ist gleich 0.
Dazu kommt das deutlich bessere drum rum, und ja da muss ich sagen , das amd vielleicht im Max Preis Momentum günstiger ist, aber Nvidia im Preis Leistung und Service deutlichst gewinnt.
warum auch immer , wollte das nur mal los werden, wo es wieder Ärger mit einen AMD Sponsor spiel gibt, die Nerven langsam
vergiss auch nicht das bald kommende DLSS 3.5. So haben die Grafikkarten eine längere Zockerdauer.
 
Der Todd patcht uns die Sonne noch rein.
Wieso, liegt doch an deinem System, kauf die halt was gescheites :wall:

sie halten einfach deutlich länger durch. Warum? Keine Ahnung das weiß ich nicht. aber was ich weiß ist, das in 3 Jahren meine 4090 immer noch relevant ist, während kein Mensch mehr von irgend einer amd Karte aus diesem Jahr überhaupt noch den Namen erwähnt.
Gerade das Gegenteil ist oftmals der Fall, in der Vergangenheit war es zumeist so, dass die AMDs besser gealtert sind. Nehmen wir mal die aktuelle Gen und da vieleicht nicht das Flagschiff, aber es ist doch schon absehbar, dass die 4070Ti viel schlechter altern wird als die 7900XT, alleine der VRAM Ausbau ist so enorm unterschiedlich, dass AMD hier einfach nur Vorteile in der Zukunft hat. Nimm mal bspw. eine RX480 8GB und eine 1060 6GB wirst du schnell feststellen, dass Nvidia teurer war und heute nicht mehr nutzbar ist, während AMD zumindest noch was auf die Beine bekommt, dank 8GB Speicher.


Meine alte 1080 reicht heute noch für das meiste und schafft meistens etwas mehr Optik raus zu holen wie eine ps5 oder XSX.
Mit einer rx 480 wird aber heute kein Mensch mehr ansatzweise glücklich und die Relevanz ist gleich 0.
Ja nee is klar, du vergleichst gerade eine 600 EUR Karte mit einer 250 EUR Karte, macht absolut Sinn so etwas in den Ring zu werfen, die 1060 war der Gegenspieler einer RX480 und war teurer. Oder anders ausgedrückt, ich bin mir sicher, in 8 Jahren läuft nichts mehr mit der RTX4050, aber die 7900XTX wird sicher noch FPS auswerfen.
Ja, ne, so einfach ist das nicht.
Schöner Kommentar, jemand der sich ein paar Gedanken macht. Ich hab auch die Testszene mal angeschaut und kann da eben keinen Unterschied entdecken. Daher würde ich (nach einem kurzen anfänglichen Gedanken) auch dazu übergehen und behaupten, dass dies nicht der Grund der guten Performance ist. Diesen vermute ich auch nachwievor eher in dem schlechten Antreiben der NVs, da diese allesamt unter ihrem Powerlimit laufen und nicht richtig ausgelastet werden.

AMD hechelt schon ewig nur noch hinterher,
Ja und Nein, AMD hat jahrelang kein High End gehabt und ist bis mind. zur RX590 deutlich hinterhergehechelt, die 5700XT war aber schon gut, die 6xxxer Serie war den Nvidias sogar recht deutlich überlegen (was irgendwie jeder schon vergessen hat; Nvidia konnte mit der 3090Ti nur die Benchmarkspitze halten weil sie die Wattkeule rausgeholt haben; AMD hatte mit der 6900XT das deutlich rundere Paket). So wird halt die 2 Jahre alte Vergangenheit vergessen und zugunsten eines Herstellers gedreht.

Es funktioniert auf Konsolen, Intel und Nvidiakarten, aber auf AMDs mal wieder nicht, also ist Bethesda schuld? Was eine strange Logik.
Als AMD-Nutzer sind scheinbar immer die anderen schuld und man lässt sich von AMD alles gefallen. :ugly:
Naja, du solltest ja wissen, dass in Konsolen auch eine AMD verbaut ist. Also schon etwas seltsam. Aber bisher ist glaube ich nicht raus, wieso es diesen Bug gibt, oder? Ob AMD oder Bethesda werden wir sicherlich noch erfahren.
vergiss auch nicht das bald kommende DLSS 3.5. So haben die Grafikkarten eine längere Zockerdauer.
Was ja mit deiner Karte (sorry, aber soviel zu NVs Haltbarkeit) dann schon wieder nicht vollumfänglich funktioniert.
 
Wichtig wie immer: Die selbst hergestellte 4090 auch in jedem Thema zu erwähnen.
(Mein Boot, meine Villa, meine Rollex)-um was ging´s in der Werbung eigendlich?
Zur Sonnenthematik: Wir AMD-ler sitzen immer auf der Sonnenseite, da brauchen Wir so künstlichen Kram garnicht.
Wird aber echt spannend, wenn irgendwann mal ne Erklärung kommt!
Gruß Yojinbo, Der sich vor dem nächsten Patch eincremt
 
Ein Gegenbeispiel widerlegt jetzt meine ganze Aussage? Aha.
Ja na klar. :D
Ich denke das Spiel wird noch gut reifen.
Ob da jetzt AMD Schuld hat oder der Entwickler oder oder oder...ist doch im Endefekt egal. Fakt ist das viele Spiele Fehler haben wenn sie auf den Markt kommen. Da ist das eigentlich egal ob da Sponsoring von Grün ,Blau oder Rot ist. ;)
Das ist der Kern meiner Aussage.
Das Beispiel Cyberpunk war da jetzt zu verführerisch.... ;)
 
Ist schon peinlich für AMD, aber der nächste Grafktreiber wird es schon richten. Auch wenn ich eine RTX 3090 besitze und voll zufrieden in Starfield bin, hoffe ich für alle Radeon-Grafikkarten Besitzer dass das Problem bald behoben wird.:top:
 
Nimm mal bspw. eine RX480 8GB und eine 1060 6GB wirst du schnell feststellen, dass Nvidia teurer war und heute nicht mehr nutzbar ist, während AMD zumindest noch was auf die Beine bekommt, dank 8GB Speicher.
Ist natürlich kompletter Blödsinn. Auch mit der 1060 kann man noch ganz gut zocken. Nvidia hat wohl einfach die bessere Speicherverwaltung. Ich würde da gerne mal einen extra Artikel von Raff zu sehen, aber ich zitiere ihn noch mal:

Nvidia versteht es mithilfe einer aggressiven Speicherverwaltung wirklich gut, Mangelsymptome hinauszuzögern. Doch aufgeschoben ist nicht aufgehoben. Aus meinen letzten Tests kann ich ungefähr herleiten, dass sich 10 "Geforce-GiByte" in etwa so verhalten wie 12 "Radeon-GiByte".
Ja und Nein, AMD hat jahrelang kein High End gehabt und ist bis mind. zur RX590 deutlich hinterhergehechelt, die 5700XT war aber schon gut, die 6xxxer Serie war den Nvidias sogar recht deutlich überlegen (was irgendwie jeder schon vergessen hat; Nvidia konnte mit der 3090Ti nur die Benchmarkspitze halten weil sie die Wattkeule rausgeholt haben; AMD hatte mit der 6900XT das deutlich rundere Paket). So wird halt die 2 Jahre alte Vergangenheit vergessen und zugunsten eines Herstellers gedreht.
Ja, die 5700 XT war echt gut und hatte auch nur wie viele Monate mit Blackscreens zu kämpfen? Oder waren es Jahre? Wollte sie mir eigentlich holen, aber ich hab dann doch lieber eine funktionierende GPU und zur 2070 gegriffen.

Auch wenn RDNA3 (bis auf den Verbrauch, vor allem im Leerlauf/Desktop) konkurrenzfähig ist würde ich auch heute eher zu Nvidia greifen, alleine schon wegen DLSS, selbst ohne FG. Schade, dass FSR3 scheinbar die Qualität nicht verbessert, aber dafür war keine Zeit. Es hat ja auch nur ein schlappes Jahr Verspätung.
 
Wieso, liegt doch an deinem System, kauf die halt was gescheites :wall:


Gerade das Gegenteil ist oftmals der Fall, in der Vergangenheit war es zumeist so, dass die AMDs besser gealtert sind. Nehmen wir mal die aktuelle Gen und da vieleicht nicht das Flagschiff, aber es ist doch schon absehbar, dass die 4070Ti viel schlechter altern wird als die 7900XT, alleine der VRAM Ausbau ist so enorm unterschiedlich, dass AMD hier einfach nur Vorteile in der Zukunft hat. Nimm mal bspw. eine RX480 8GB und eine 1060 6GB wirst du schnell feststellen, dass Nvidia teurer war und heute nicht mehr nutzbar ist, während AMD zumindest noch was auf die Beine bekommt, dank 8GB Speicher.



Ja nee is klar, du vergleichst gerade eine 600 EUR Karte mit einer 250 EUR Karte, macht absolut Sinn so etwas in den Ring zu werfen, die 1060 war der Gegenspieler einer RX480 und war teurer. Oder anders ausgedrückt, ich bin mir sicher, in 8 Jahren läuft nichts mehr mit der RTX4050, aber die 7900XTX wird sicher noch FPS auswerfen.
Hab für meine 1080 320€ bezahlt ??‍♂️ zu dem Zeitpunkt waren die beiden ca gleich teuer.
Liest du aber meinen gesamten Text und versuchst ihn zu verstehen, macht deine Antwort überhaupt keinen Sinn ? ich bin neutral eingestellt und bevorzuge keine Marke oder Seite, von daher bin ich auch gerne lern fähig, mit zahlen und Fakten belegt, denn glauben kann ich nicht.
Wenn wie ich sage für mich der einmalige Preis keine Rolle spielt, da ich keinen Urlaub , kein teueres Auto usw brauche, welche amd Karte der letzten Jahre, wäre denn da besser gewesen?
Eben keine, die liefern nichts, und welche Karte spielt heute noch eine Rolle die mehr wie 3 Jahre alt ist? Keine. Die rtx 2070 + Karten aber schon.
Ich sag ja, keine Ahnung warum es so ist, ist mir auch egal, Hauptsache man selber ist glücklich, ob nach zahlen oder Überzeugung ist dabei auch egal.
Ich hoffe dennoch sie bekommen das Problem schnell behoben, denn ich wünsche mir nur das möglichst alle einfach spielen können egal wie und wo ?
 
Hab für meine 1080 320€ bezahlt ??‍♂️ zu dem Zeitpunkt waren die beiden ca gleich teuer.
Also bitte. 320 haben die RX480 entweder zu Release gekostet oder bei beginnendem Miningboom. Zu keinem der beiden Zeitpunkte hat die 1080 nur 320 Taler gekostet. Die 1080 hat ca. das doppelte gekostet. Und für 320 war die m.E. nie neu zu erwerben, da der Miningboom dann alles durcheinander gebracht hat. Die 1080 ist glaube ich auf ca. 500 bis 550 gerutscht. Aber dass Du zwei Karten anhand eines (nicht realen?) Preises vergleichst, sagt schon verdammt viel aus.
 
Hab für meine 1080 320€ bezahlt ??‍♂️ zu dem Zeitpunkt waren die beiden ca gleich teuer.
???
Das kann ich mir nicht vorstellen, ne 1080 für 320 EUR muss sehr spät oder gebraucht gewesen sein, dazu kommt, dass im April 2017 gab es schon die RX580 (für unter 250 EUR) und im November 2018 kam die RX590 für unter 300 EUR. Aber ich habe gerade mal geschaut, die 1080 hatte bis März 2017 eine UVP von 600 EUR, dann erfolgte eine Senkung auf 500 EUR und dann kam der Mining Hype, der die GPU Preise anzog, dieser dauerte bis zum Release der Turing Nachfolger und erst dann wurde die Karte wieder günstiger angeboten, aber da reden wir von spät in 2018 und 500 EUR. Also 320 EUR für ne 1080 passt nicht!

Wenn wie ich sage für mich der einmalige Preis keine Rolle spielt, da ich keinen Urlaub , kein teueres Auto usw brauche, welche amd Karte der letzten Jahre, wäre denn da besser gewesen?
Ja nee is klar, sorry aber das ist geschwurbel und mind. so sinnlos wie eine Antwort darauf. Ich kann nicht eine Titan X (die in deinem Fall dann auch ganz klar die bessere Alternative gewesen wäre) mit einer 250 EUR Karte vergleichen, sondern muss um eine gute oder schlechtere Alterung zu besprechen schon eine gleiche Ausgangsbasis wählen. Eine 1080 und eine RX480 sind keine gleiche Ausgangsbasis.

Wenn du bspw. eine Vega 64 hernimmst (keine gute Karte), dann wäre diese im Vergleich nicht schlecht gealtert, liegt sie doch deutliche 26% vor einer 1070!

Ich sag ja, keine Ahnung warum es so ist, ist mir auch egal, Hauptsache man selber ist glücklich, ob nach zahlen oder Überzeugung ist dabei auch egal.
Hierzu sei noch gesagt, die 1080 ist klar die bessere Wahl gewesen! Genauso wie ich aktuell die 4080/4090 als klar die bessere Wahl beurteile, genauso wie ich sage, dass 6800/6900XT die klar bessere Wahl war (trotz DLSS). Aber gerade abseits des High Ends (den früheren Titans, die NV nunmal auch nur umbenannt hat um sie als Gaming Karte zu verkaufen), ist AMD auch mit der deutlich schlechteren Inkarnation RDNA 3 voll dabei und kann oftmals das bessere Stück Hardware anbieten, die 7900XTX bspw. wildert in Preisregionen minimal oberhalb der 4070Ti, kann diese aber im Raster sehr deutlich schlagen, bietet eine riesige Menge VRAM und ist in meinen Augen die deutlich bessere Karte.
 
Einfach Resizable BAR erzwingen über den NVIDIA Profile Inspector und schon hat man im Schnitt 20 FPS mehr.


Code:
Download nvidia profile inspector
Find Starfield in the presets
Find the section "5"
select following:
ReBar feature ENABLED
ReBar options 0x00000001 (Battlefield V, Returnal, Assassin's Creed Valhalla....)
ReBar size limit 0x0000000040000000 (Battlefield V, F1 2022, F1 2021, Assassin's Creed Valhalla...)

In top right, set Apply

DONE!
 
Ist natürlich kompletter Blödsinn. Auch mit der 1060 kann man noch ganz gut zocken. Nvidia hat wohl einfach die bessere Speicherverwaltung. Ich würde da gerne mal einen extra Artikel von Raff zu sehen, aber ich zitiere ihn noch mal:
Was willst du denn mit einer 1060 (gerne auch RX590) noch ernsthaft zocken? Sorry, aber Geschwurbel vom Feinsten, beide Karten können nix mehr und sind hoffnungslos veraltet. Ich kann auch auf der CPU zocken (zumindest mit iGPU), aber ich denke nicht, dass wir davon reden sollten.

Hier mal nur so zur Info, 8GB sind am Ende und tot! Watch Dogs, Full HD! Einmal 16 und einmal 8 GB VRAM! Oder anders ausgdrückt, einmal spielbar, einmal unspielbar. Da kann scheinbar auch die Nvidia Speicherverwaltung nix dran ausrichten.
1694502410980.png


1694502456420.png


Oder hiermal der Nachtest, der Vega Karte gegen eine 1070! In 2022 26% Vorsprung, in 2017 waren es gemittelt 8,25%! Also wenn die Vega dagegen nicht mal gut gealtert ist!

1694502534975.png
 
Hier mal nur so zur Info, 8GB sind am Ende und tot! Watch Dogs, Full HD! Einmal 16 und einmal 8 GB VRAM! Oder anders ausgdrückt, einmal spielbar, einmal unspielbar. Da kann scheinbar auch die Nvidia Speicherverwaltung nix dran ausrichten.
Dann dreh die Settings runter? :lol:
Eine 60er Karte ist nicht für Ultra Settings geeignet und war es auch nie.
Wer die Regler bedienen kann, kann auch mit 8GB VRAM heute noch spielen.
 
Wer die Regler bedienen kann, kann auch mit 8GB VRAM heute noch spielen.
Wie gesagt, ist das unser Anspruch?

Ansonsten ging es ja gar nicht um eine 60er oder nicht, es ging hier explizit um das VRAM Limit und Watch Dogs zeigt eben, dass 8GB in Full HD nicht mehr ausreichend sind, ein Spiel von 2020! Mit 16GB VRAM (und der 60er) kannst du es ja spielen, so wie es am Ende auch vom Hersteller sein soll. Die 60er Karten sind Full HD Karten, die 70er sind WQHD Karten und die 80/90er dann 4K Karten!
 
Sehr kurios. Gab doch bei Nvidia mal die "Tesselation" Verschwörungstheorie, der Fall hier klingt sehr ähnlich.

Zu sagen dass es hier ein Bug ist, früher seitens Nvidia aber extra eingebaut um die Konkurrenz auszubremsen, wäre ja mit zweierlei Maß messen.
 
Zurück