News Starfield: Exklusive Zusammenarbeit mit AMD - "optimiert für Ryzen und Radeon 7000"

Ich wünsch hier manch einem echt, dass er einfach dämlich in sein Nvidia-Monopol läuft und die Früchte erntet die er sät.
Wenn der standard PC-Gamer so dämlich ist, hat er scheinbar nichts besseres verdient, so traurig es auch ist.
Du bekommst eine OpenSource-Technologie gesichert in diesem Game implementiert, die dem proprietären Ansatz des Mitbewerbs, wenn überhaupt, nur geringfügig nachsteht und dann sogar im Besonderen auch noch alten Karten des Mitbewerbs (GTX 1000 etc.) überhaupt die Möglichkeit geben wird, dieses Spiel noch in irgendeiner Form genießen zu können. Früher hättest du sofort neue Hardware gebraucht oder hättest das Spiel auf dem PC niemals zu Gesicht bekommen, weil du wegen Upscaling-Ansätzen am Rechner einfach direkt gesteinigt worden wärst, erinnere den damaligen Konsolen-Hate aus Sicht eines PC-Gamers hinsichtlich Upscaling und hier geht dennoch breitflächig der Groll los, "kein DLSS3, keine FrameGeneration = Weltuntergang"...
Wartet doch erstmal ab, was am Ende wirklich kommt und was womöglich mit FSR3 oder sonstigen Ingame-Features kommt.
In der D4 Beta konnte ich FrameGeneration, oder auch temporale Rekonstruktion genannt, Problemlos mit meiner Arc 770 oder auch Radeon 6900 nutzen.
Hier lassen sich viel zu viele von teuer bezahltem Marketing und Lobbyismus täuschen..
Keinen blassen Schimmer warum die temporale Rekonstruktion in D4 zum Release rausgeflogen ist, scheint auch irgendwie jedes informierende Medium vergessen zu haben, aber eine Vermutung ist meinerseits schon gegeben, nachdem sich die Gerüchte und Bemühungen über eine Raytracing-Implementierung verdichtet und manifestiert haben. Oder soll ich gleich über eine "Nvidia RTX Implementierung" anstatt "DXR-Implementierung" hinsichtlich D4 schreiben?
Setzt euch mal bißchen mehr mit dem Shit auseinander wenn Ihr darüber philosophiert..
Just my2cents..

Hier zwei drei Pics, die zeigen, dass FrameGeneration, aka temporale Rekonstruktion, kein Nvidia eigenes Hexenwerk ist..
Ja wo ist die Schaltfläche nur hin?
In offiziellen Blizzard-Foren werden Nachfragen dazu und entsprechende Threads einfach geschlossen.
Ein Schelm wer böses dabei denkt..
Folge mal weiter deinem Team-Green und proprietären Ansätzen. Das bringt uns alle nach vorn.
Ja ne, ist klar..



D4_Beta_ARC770_temporale_Rekonstruktion.jpg

FrameGeneration disabled auf Arc 770:
D4_Beta_ARC770_temporale_Rekonstruktion_disabled.jpg

FrameGeneration enabled auf Arc 770:
D4_Beta_ARC770_temporale_Rekonstruktion_enabled.jpg
 
Zuletzt bearbeitet:
Zuletzt bearbeitet von einem Moderator:
Wird das nächste Spiel das ne DLSS3 Mod bekommen.
Wenn nicht nativ, dann eben so :D
Ja natürlich, was denn sonst.
Ein echt dummes Gelaber hier drin.

Habe jetzt eine AMD und bin glücklich damit. Auch gut FSR zu bekommen, falls nötig, anstatt nur die Wahl zu haben DLSS an zu wenden, wenn RTX vorhanden. Das Gleiche galt für mich als NV Nutzer vor 5Monaten, als ich noch meine GTX1080 hatte!

Und hier ist der Punkt.
Noch laaaange haben nicht "VIELE" die Möglichkeit DLSS an zu wenden! Nicht viele Gamer können sich für 400-600€ mal schnell eine RTX holen, schon gar nicht ausserhalb Europas, damit Sie zum Club gehören.
Wie egoistisch!

Genau diese Upscaler braucht es bei den alten bis low budget Karten, und genau da wollt Ihr es verwehren?
Kommt dazu, dass es noch nicht in Stein gemeisselt wurde und wenn doch es zu 100% noch nach gemodded wird (kennt jemand Fallout4, Skyrim?).
Aber solche Aussagen heute lassen schon tief blicken.

Die Begründung, "Weil Ihr eine RTX habt" könnt Ihr Euch sparen.
Meiner Meinung nach hätte AMD nicht für alle FSR und FreeSync bringen müssen! Andererseits, wenn NV zum wiederholten Male Spiele für die Konkurrenz sabotiert und Blackboxes in Spiele implementiert, mit deren feinen Sponsorenverträgen ist das ok, ja?
NVidia sind mit massivem Abstand die schlimmsten! Starfield, sieht für mich, wie ein sauberer Vertrag an.
Nochmal, ich meine "2080(nonTi) gegen RX6800xt" , hei was wollt Ihr eigentlich noch?? Das ist doch ein Witz!
 
>Ob Nvidia es schafft, dass Starfield auch DLSS mit integriert, darf zumindest bezweifelt werden - selbiges gilt für XeSS von Intel ...
AMD wird sich schon dafür einsetzen, dass es nicht integriert wird.
Modder werden es allerdings tun. Dafür muss man dankbar sein.
Ich möchte keine schlechtere Technik in Spielen, nur weil andere damit nicht fein sind.
Proprietäre Software für einen Mitbewerber integrieren, die auch nur auf einem teil dessen Hardware läuft? --Sorry, aber das wird niemand machen.
Das wird häufig gemacht, denn es läuft auch auf 5 Jahre alten Karten und damit auf der Mehrheit aktueller Nvidia Karten, siehe Steam.
Das AMD diesen "proprietären Binärblob" aber nicht bei der entwicklung drinn haben will ist eigentlich normal und verständlich.
Ohne diesen "proprietären Binärblob" hätten Spieler heute wahrscheinlich gar nicht die Möglichkeit Spiele intelligent hochzuskalieren ohne dabei an Qualität einzubüßen.
Die Eigenständigkeit dieses Features und die Nicht-Weitergabe an den Konkurrenten ist gleichzeitig der Hauptgrund es zu entwickeln.
Leider ist das so...
In dem Fall scheint es leider so, dass sich AMD diesbezüglich so aufführt, wie man es nVidia immer vorwirft....
Die AMD zugeneigten Nutzer finden es offensichtlich gut. Pharisäertum bzw. Hypokrisie, ohne es selbst zu realisieren und mangelndes Selbstverständnis um frühere Positionen entsprechend zu reflektieren.
 
Zuletzt bearbeitet:
FSR und vernünftige Mengen Raytraching oder gar keins - perfekt.
Vernüftigen Ray Count packen AMDs ja nicht :ugly:

Einfach auf AMD umsteigen, Problem gelöst.
Das Spiel lief auch auf AMD beschissen.

Liegt ja wohl an Bethesda und nvidia, AMD wird dies sicherlich nicht tun.
Proprietäre Software für einen Mitbewerber integrieren, die auch nur auf einem teil dessen Hardware läuft? --Sorry, aber das wird niemand machen.
Doch Nvidia. AMD ignoriert die Konkurrenz und lässt DLSS sogar aktiv ausbauen (siehe SW Jedi Survivor).

Also kann man davon ausgehen, keinerlei Raytracing und DLSS.
Der ganze Hass wird sich über AMD ergießen. Tut es bereits.
Wenn wir schon dabei sind, wo ist eigentlich FSR3?
AMD zeigt halt mal wieder, dass sie den Fortschritt ausbremsen und ihre Jünger feiern es. :wall:
 
Zuletzt bearbeitet:
Genau das hast Du eben NICHT !
Lies doch bitte nochmal Deinen Post.
Oder ich erklär´s Dir im Nächsten, da selbst in Deine eigenen Messages noch was hinein oder fehl interpretierst.
Wow , du weisst besser was Luebke82 meinte als Er selbst. Ne ist klar.
Kurz;
Habe es nach gelesen. Er hat recht, du hast Unrecht. Aber ich schätze deinen Ergeiz.
 
Wow , du weisst besser was Luebke82 meinte als Er selbst. Ne ist klar.
Sonnenklar, nur gebashe.
Kurz;
Habe es nach gelesen. Er hat recht, du hast Unrecht. Aber ich schätze deinen Ergeiz.
Das war seine Aussage bzw. sein Post !
"Aja. Na was AMD derzeit anfässt, glänzt nun mal nicht grade."
Im darauffolgenden Post wurde von ihm behauptet es ginge ihm um Games. Steht da aber nirgends.
Also wenn ihr Beide Recht haben wollt, dann ein ehrgeiziges Bitteschön.

p.s. AMD macht übrigens KEINE Games sondern nur sponsern.
 
Zuletzt bearbeitet von einem Moderator:
Hier zwei drei Pics, die zeigen, dass FrameGeneration, aka temporale Rekonstruktion, kein Nvidia eigenes Hexenwerk ist..
Ja wo ist die Schaltfläche nur hin?
In offiziellen Blizzard-Foren werden Nachfragen dazu und entsprechende Threads einfach geschlossen.
Ein Schelm wer böses dabei denkt..
Folge mal weiter deinem Team-Green und proprietären Ansätzen. Das bringt uns alle nach vorn.
Ja ne, ist klar..
Temporale Rekostruktion ist kein FG, sondern das gleiche was FSR und DLSS2 machen.
Es steht sogar im Tooltip deines Screenshots:
Bei Aktivierung wird das Bild mit halb so vielen Pixeln pro Frame gerendert und verwendet Daten von vorigen Frames um ein Bild in voller Auflösung zu generieren.
Kurz gesagt: interne Auflösung runter um das Bild im Anschluss hochzuskalieren. Die Technik gab es schon lange vor DLSS1, nur war sie beschissen. Vermutlich ist es deswegen auch rausgeflogen.
Du kannst den Aluhut also wieder absetzen und dir den Schaum vom Mund wischen :ugly:
 
Sehe ich anders. Hier werden klar Prioritäten auf einen freien Standard gesetzt den jeder nutzen kann..
Das ist auch das einzige Pulver was du verschießen kannst, ein offener Standard für alle.
Damit macht man aber keine Gewinne und der Anreiz neue, revolutionäre Features zu entwickeln, hält sich auch in Grenzen.

Unterm Strich haben die Nutzer die letzten Jahre nur von solchen Nvidia Alleingängen profitiert und AMD gezwungen eine vergleichbare, offene (Marktanteil!) Technologie zu entwickeln.
G-sync, RTX, DLSS, AI, CUDA, FrameGen, Reflex usw.
Warum man das aus der jüngeren Geschichte resultierend anders sieht, kann nur aus einer Unkenntnis der Zusammenhänge erwachsen.
und auch nur dann, wenn die GPU nicht älter als1, 2 oder 3 Generationen alt ist.
Turing ist mittlerweile 5 Jahre alt. Und ja Nvidia bittet die Kunden für deren Technologien zur Kasse. Das ist richtig. Dafür bekommt man aber auch etwas.
Bei einem Spiel das mit aller Wahrscheinlichkeit noch lange nicht bugfrei laufen wird die einzig richtige Entscheidung keine Entwicklungszeit mit sowas exklusivem zu verschwenden...
Modder integrieren das in wenigen Tagen und du kommst mit dem Argument "keine Entwicklungszeit zu verschwenden"? Widersinnig.
Entwicklungsabteilungen stehen sich nicht gegenseitig im Weg.
und sich erst dann damit zu befassen, wenn das Spiel so läuft wie es laufen soll.
Wieso möchtest du dann FSR2 mit an Board haben?
Was für ein törichtes Gerede.
Da haben die nvidianer einfach mal Pech gehabt.
Also resultiert deine Argumentation nicht aus einer epochalen Unkenntnis der Zusammenhänge, sondern wird von niederen Motiven wie Schadenfreude gespeist?
Da bin ich leider raus, das ist mir zu primitiv.
(...)proprietäre Software(...)
Wenn du entdeckst, dass du ein totes Pferd reitest, steig ab.
 
Zuletzt bearbeitet:
Das ist auch das einzige Pulver was du verschießen kannst, ein offener Standard für alle.
Damit macht man aber keine Gewinne und der Anreiz neue, revolutionäre Features zu entwickeln, hält sich auch in Grenzen.

Unterm Strich haben die Nutzer die letzten Jahre nur von solchen Nvidia Alleingängen profitiert und AMD gezwungen eine vergleichbare, offene (Marktanteil!) Technologie zu entwickeln.
G-sync, RTX, DLSS, AI, CUDA, FrameGen, Reflex usw.
Warum man das aus der jüngeren Geschichte resultierend anders sieht, kann nur aus einer Unkenntnis der Zusammenhänge erwachsen.

Turing ist mittlerweile 5 Jahre alt. Und ja Nvidia bittet die Kunden für deren Technologien zur Kasse. Das ist richtig. Dafür bekommt man aber auch etwas.

Modder integrieren das in wenigen Tagen und du kommst mit dem Argument "keine Entwicklungszeit zu verschwenden"? Widersinnig.
Entwicklungsabteilungen stehen sich nicht gegenseitig im Weg.

Wieso möchtest du dann FSR2 mit an Board haben?
Was für ein törichtes Gerede.

Also resultiert deine Argumentation nicht aus einer epochalen Unkenntnis der Zusammenhänge, sondern wird von niederen Motiven wie Schadenfreude gespeist?
Da bin ich leider raus, das ist mir zu primitiv.

Wenn du entdeckst, dass du ein totes Pferd reitest, steig ab.
Ist das Satire?
 
Ich wünsch hier manch einem echt, dass er einfach dämlich in sein Nvidia-Monopol läuft und die Früchte erntet die er sät.
Es gibt keine ernstzunehmenden Anteil der Käuferschaft die aus moralischen Argumenten Grafikkarten oder PC Hardware kauft.
Einen persönlichen Nachteil in Kauf nehmen, um ein Aktienunternehmen zu unterstützen gehört - wie ich finde - nicht zu den Tugenden des modernen Moralisten.
Wenn der standard PC-Gamer so dämlich ist, hat er scheinbar nichts besseres verdient, so traurig es auch ist.
Je weniger AMD verkauft, desto mehr Aufwand werden sie in die Software stecken müssen um Marktenteile zurückzubekommen. Durch Mitleidskäufe wird AMD keine Veranlassung sehen etwas an ihrer Politik zu ändern.
Du bekommst eine OpenSource-Technologie gesichert in diesem Game implementiert, die dem proprietären Ansatz des Mitbewerbs, wenn überhaupt, nur geringfügig nachsteht und dann sogar im Besonderen auch noch alten Karten des Mitbewerbs (GTX 1000 etc.) überhaupt die Möglichkeit geben wird, dieses Spiel noch in irgendeiner Form genießen zu können.
Die Unterschiede sind abseits von 4K Auflösungen bei WQHD und Full HD Monitoren schon deutlich. Häufig sieht FSR Quality nur so gut aus wie DLSS Performance.
weil du wegen Upscaling-Ansätzen am Rechner einfach direkt gesteinigt worden wärst, erinnere den damaligen Konsolen-Hate aus Sicht eines PC-Gamers hinsichtlich Upscaling...
Das ist längst Vergangenheit und mit früheren Upscaling Verfahren in Punkto Qualität nicht zu vergleichen.
In der D4 Beta konnte ich FrameGeneration, oder auch temporale Rekonstruktion genannt, Problemlos mit meiner Arc 770 oder auch Radeon 6900 nutzen.
Frame Generation hat mit temporaler Rekonstruktion in Diablo 4 überhaupt nichts zu tun.
Screenshot 2023-06-28 005735.png

Keinen blassen Schimmer warum die temporale Rekonstruktion in D4 zum Release rausgeflogen ist...
Weil DLSS und FSR dafür integriert wurden.
Setzt euch mal bißchen mehr mit dem Shit auseinander wenn Ihr darüber philosophiert..
Just my2cents..
:huh:
Folge mal weiter deinem Team-Green und proprietären Ansätzen. Das bringt uns alle nach vorn.
Ja ne, ist klar..
Ja, das hat uns die letzten Jahre massiv nach vorne gebracht. Die Spielinternen Upscaler sind dafür rausgeflogen, weil sie unterlegen sind. Mission accomplished.
Nein.
 
Zuletzt bearbeitet:
Witcher 3 z.b. läuft auf meiner 6900xt in FHD Nativ mit 25 Fps. Das kann man dann wirklich nicht mehr zocken nennen.
Ähm... hast du die Diskussionen zur Zeit des Erscheinens von Witcher 3 mitbekommen?
Da hat Nvidia zum ersten Mal Hairworks benutzt... in einem Ausmaß, dass an Wahnsinn erinnert.
Auf völlig sinnfreien Entfernungen werden Hairworks Effekte berechnet...
HairWorks basierte zu der Zeit auf Tessellation - ob das heute noch so ist.. keine Ahnung.
Dadurch war es ein Ressourcenfresser sondergleichen.
Witcher 3 ist ein Lehrstück, wie man viele Dinge in der Entwicklung NICHT machen sollte.
Das Spiel hat ne super Story. Der Rest ist eher.. naja...
 
Ähm... hast du die Diskussionen zur Zeit des Erscheinens von Witcher 3 mitbekommen?
Da hat Nvidia zum ersten Mal Hairworks benutzt... in einem Ausmaß, dass an Wahnsinn erinnert.
Auf völlig sinnfreien Entfernungen werden Hairworks Effekte berechnet...
HairWorks basierte zu der Zeit auf Tessellation - ob das heute noch so ist.. keine Ahnung.
Dadurch war es ein Ressourcenfresser sondergleichen.
Witcher 3 ist ein Lehrstück, wie man viele Dinge in der Entwicklung NICHT machen sollte.
Das Spiel hat ne super Story. Der Rest ist eher.. naja...
Nicht ganz richtig. Nvidia hat dafür gesorgt das die Tesselation so justiert war, das Witcher 3 zu Release auf keiner AMD Karte laufen konnte, und zwar um ihre 900er zu verkaufen. Bei Project Cars the same. Man konnte es recht einfach beheben, wenn man wusste wie. War komplette Absicht aber Jensen so :"Wiiiiiiiir? Kein Geld ist geflossen zu den Studios. Nur sauteure Entwicklungsteams und andere Goodies ;)." PS: Das Geld floß auch nicht direkt zum Studio.

Seien wir ehrlich: Starfield wird eh unspielbar zu Beginn. Es ist Bethesda. Das wirdn Bugfest mit 60fps Lock wo man froh sein kann wenn es 21 zu 9 Support hat.

Und ob ich Fidelity oder DLSS nehme....mir wurscht. Lieber ne Coop mit AMD als mit Nvidia. Amd schließt niemanden aus. Rein zufällig wird es natürlich absurd viel Grafikspeicher brauchen ;)

Prozessor hat wahrscheinlich eh jeder nen Ryzen.
 
ich freu mich immer wieder, wenn AMD Radeon Siege erringt und lobe ARC... stehe hinter allen Käufern, empfehle immer AMD...

Konkurrenz belebt das Geschäft...

Doch kaufen, werde ich es mir selber nicht... ich will mir nicht einreden, ich bräuchte kein DLSS, kein Raytracing, keine Nvidia Audio und Video KI Tools...

back to the roots - lieber alles Schwarzweis und Mono - natürlich ohne Schatten, Antialiasing und Tesselation - denn jahrelang hat das auch keiner gebraucht, außer den Freaks und reichen Schnöseln...

Wenn man nicht mehr ausgeben will, kann oder aktiv mithelfen will, das Monopol zu brechen - ausgezeichnet... aber lügt euch nicht selber an - Radeon ist in jeder Hinsicht unterlegen - Raytracing, statt Prebaked sind die Zukunft
 
Amd schließt niemanden aus.
Doch, und zwar einen riesigen Teil an Leuten, die Desktop-GPUs seit Turing von Nvidia besitzen. Und das sind eine ganze Menge.

Und nein, nur weil zwei Dinge dasselbe Ziel verfolgen, ist A trotzdem nicht exakt dasselbe wie B, wodurch sich "FSR2 können alle nutzen braucht niemand dann DLSS2" rechtfertigen lässt. Plumpe Rechtfertigung für kundenunfreundliches Verhalten seitens AMD.

Dass Nvidia einen derart hohen Marktanteil hat, hat seine Gründe und die liegen nicht darin, dass Nvidia böse ist und die Leute austrickst. Sondern weil sie einfach die viel besseren Produkte in ihrer Gesamtheit als AMD anbieten. Dass es überhaupt so viele Leute mit Grafikkarten gibt, die DLSS2 nutzen können, liegt auch an fehlendem Wettbewerb durch AMD. Diese Leute dann auszusperren und ihnen die Nutzung von DLSS2 bewusst zu verwehren, ist schlicht völlig albern.

Das gilt für jedes Spiel, wo das der Fall ist. Nvidia ist es umgekehrt oftmals ziemlich egal, da sie keinen Nachteil haben, da die Leute sowieso DLSS2 nutzen, wenn deren GPUs das hergeben. Zudem können sie - wie immer - im direkten Vergleich demonstrieren, dass FSR2 qualitativ dann doch sichtbar schlechter ist. Das ist auch immer gute Werbung für DLSS2.
 
Och nö. Muss man also auf die Modder warten für DLSS. FSR ist einfach hässlich. Alle hacken sie immer auf Team Grün rum, aber Team Rot muss so einen anti-consumer quatsch abziehen. Wird mich sicher dazu bewegen, mal wieder ne AMD Karte zu kaufen - nicht.

Hatte auf Frame Generation gehofft. So muss ich wohl meinen Unterbau für Starfield erneuen. Bethesda und gute CPU Performance? Eher selten.

Ganz schöner downer die Nachricht.
 
Ich befürchte auch dass die CPU Performance nicht gut sein wird (typisch für die Creation Engine).
Die Series X CPU die etwa eine Leistung eines Ryzen 5 3600 hat schafft 30 FPS, selbst wenn sie ohne FPS Lock 35-45 schaffen würde (vermutlich ziemlich optimistisch - in den NPC lastigen Städten wohl sogar unter 30 FPS) bräuchte man für stabile >60 FPS eine CPU mit der Leistung eines 5800X3D bzw 13600K.

Mit DLSS3 hingegen schafft selbst mein 5600X minimum 80 FPS in CP2077 mit Raytracing.

Also hoffe ich entweder auf schnelle DLSS 3 Mods, oder das AMD bis dahin FSR 3 released, wobei man davon ausgehen muss dass FSR 3 qualitativ hinter DLSS 3 landen wird, genau wie DLSS 2 und FSR 2 momentan.
 
Zurück