News Starfield-Debatte: DLSS, FSR und XeSS "lassen sich problemlos zeitgleich unterstützen"

Du hast es Begriffen, super. Es ist im Moment nämlich auffallend, wie oft AMD angegriffen wird.
AMD steht hier wöchentlich wegen irgendwas in der Kritik. Soll man das ignorieren und so tun als wäre nichts?
Was ist denn los mit euch AMD Hardliner Hergott?!
Immer, wenn AMD in einer News sein Fett wegbekommt, kickt hier bei einigen der Beschützerinstinkt :wall:

Wollen wir das Thema wechseln zu G-Sync, Its meant to be played oder PhysX?
Die Themen wurden schon x-Fach durchgekaut. Was willst du mit deinem Whataboutism bezwecken?
Es geht aktuell um AMD. Wenn Nvidia mal wieder in der Kritik steht, dann kann man darüber reden, aber das ist jetzt gerade nicht der Fall.
 
Na und welche Engine nutzen die? Für das technische Grundgerüst, liefen die durchschnittlich. Das ist wie mit Jedi survivor. Ja, das hat Engine bedingt in manchen Passagen keine 60fps geschafft, na und? Es sieht großartig aus und läuft. Wir sind nur schaiße verwöhnt hier.
 
Ach @Cleriker hör doch auf. Was soll der Quatsch? Es ist kein Geheimnis, dass Bethesdas Games absolut verbuggt sind und ich rede hier nicht von 60 FPS oder schlechter Performance, wobei letzteres bei Bethesda eigentlich auch immer ein Garant ist.
Hier ein Beispiel und das sind noch die harmloseren:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Und jetzt komm mir nicht mit "Andere Spiele sind auch Buggy und sowas lässt sich nicht vermeiden". Sollte klar sein, dass das der Fall ist, aber Bethesda legt da einen drauf und fixt viele Bugs oft auch gar nicht.
Ihre Spiele machen Spaß und sind gut, aber technisch ein Graus und Bethesda scheißt auf seine Kunden.
Ich erinnere dich hier nur mal an die Bezahlmods des Creationclubs in FO4:

Oder die Collectors Edition von FO 76:

Im Internet hat Bethesda seit jeher diesen Ruf und du willst davon auf einmal nichts mehr wissen? :lol:
Kauf ich dir nicht ab. Hauptsache AMD kommt gut weg und wird ja nicht kritisiert. Dafür ist dann jedes Mittel recht, hm? ;)
 
Zuletzt bearbeitet:
Na und welche Engine nutzen die? Für das technische Grundgerüst, liefen die durchschnittlich. Das ist wie mit Jedi survivor. Ja, das hat Engine bedingt in manchen Passagen keine 60fps geschafft, na und? Es sieht großartig aus und läuft. Wir sind nur schaiße verwöhnt hier.
Sehr unterschiedlich. Bei Burnout bin ich mir nicht sicher ob du echt das Burnout von 1998 meinst: https://en.wikipedia.org/wiki/Burnout:_Championship_Drag_Racing

TES und Fallout, die beide direkt von Bethesda sind, nutzen die Gamebryo Engine. Also die problematische Engie die jetzt auch wieder für Starfield genutzt wird.

Rage, Doom und Wolfenstein nutzen die id Tech Engine. Die ist technisch top, kommt aber halt nicht von Bethesda.

Ich sehe da auf jeden Fall ein Muster und das Muster deutet nicht darauf hin das Bethesda aktuell technisch besonders runde oder schicke Spiele herausbringt. Was der Vergleich zu Star Wars soll verstehe ich auch nicht und mit verwöhnt hat das auch nicht zu tun. Ich hätte nach den letzten Krücken die dieses Jahr so erschienen sind einfach mal wieder einen Titel der technisch nicht in einem völlig desolatem Zustand erscheint.
 
Im Internet hat Bethesda seit jeher diesen Ruf und du willst davon auf einmal nichts mehr wissen? :lol:
Kauf ich dir nicht ab. Hauptsache AMD kommt gut weg und wird ja nicht kritisiert. Dafür ist dann jedes Mittel recht, hm? ;)
Was soll denn das jetzt wieder? Ich jedenfalls hab nicht mal mehr an AMD gedacht. Warum auch, wenn es um die Spiele von Bethesda ging?
Mir ist zudem vollkommen egal was irgendwer im Internet jault. Ich habe eine eigene Meinung und die zählt für mich (nichts direkt gegen dich, aber deine Meinung hat für mich gar keinen Wert, da du immer gleich bei allem so biased bist und zumindest gefühlt alles immer zu einem Grabenkrieg ummünzen tust, statt Aussagen einfach mal als das zu nehmen was da steht). Wenn ich ein neues Spiel zum Release auf maximalen Details in 4k durchspielen kann ohne Theater und das zuletzt noch mit einer in die Jahre gekommen rx6950xt, dann ist das Spiel zumindest nicht schlecht was die technische Seite betrifft. Absolut jedes Spiel hat Macken. Cyberpunk mit der KI und der Darstellung, Skyrim mit der Physik, Fallout hat für die Optik ordentlich Anspruch, läuft unterm Strich aber auf jeder Mittelklasse Hardware,

Der Vergleich zu StarWars sollte zeigen was ich meine. Die Engine lastet moderne Grafikkarten nicht richtig aus, läuft davon ab aber ordentlich. Darüber wurde allerdings ein Fass aufgemacht... Schlecht, lief Gollum. Findet ihr dass SW:JS in dem gleichen Zustand war, oder war es gut mit Macken? Star wars ist eines der schönsten Spiele des Jahres. Man schaue sich nur die Umgebungstexturen an.

Im Netz wird gern was losgetreten und hochgeschraubt. Das heißt noch lange nicht, dass es auch seine Berechtigung hat.

Tatsächlich wollte ich auch gar keine Grundsatzdiskussion anfangen. Eventuell hab ich einfach nur ein dickeres Fell. Ich komme aber aus einer Zeit in der neue Spiele selten sofort ausgefahren werden konnten und man mehrere Generationen des aufrüstens benötigte. Jetzt will jeder mit einer GPU x plötzlich zum Release des neuesten AAA krachers mindestens 144fps auf max mit zwei Jahre älter Hardware.
 
Zuletzt bearbeitet:
Was soll denn das jetzt wieder? Ich jedenfalls hab nicht mal mehr an AMD gedacht. Warum auch, wenn es um die Spiele von Bethesda ging?
Der Thread/die News dreht sich um Starfield von Bethesda und die Kooperation mit AMD.

Mir ist zudem vollkommen egal was irgendwer im Internet jault.
Das gilt wohl nur solange, wie es nicht deiner eigenen Meinung entspricht. Die Meinung von rum scheinst du ja zu teilen, obwohl es in diesem Thread weder um Nvidia, noch um G-Sync oder Physx geht und diese Themen in den letzten Jahren rauf und runter diskutiert wurden. Nennt sich auch Whataboutism.

Ich habe eine eigene Meinung und die zählt für mich (nichts direkt gegen dich, aber deine Meinung hat für mich gar keinen Wert, da du immer gleich bei allem so biased bist und zumindest gefühlt alles immer zu einem Grabenkrieg ummünzen tust, statt Aussagen einfach mal als das zu nehmen was da steht).
Dass Bethesda nicht für gute Qualität steht, ist keine Meinung, sondern ging schon durch diverse News und Tests. Links dazu hatte ich dir geliefert. Nicht alles ist eine Meinung, erst recht nicht, wenn die Faktenlage was anderes sagt.

Wenn ich ein neues Spiel zum Release auf maximalen Details in 4k durchspielen kann ohne Theater und das zuletzt noch mit einer in die Jahre gekommen rx6950xt, dann ist das Spiel zumindest nicht schlecht was die technische Seite betrifft. Absolut jedes Spiel hat Macken.
Gut, nehmen wir mal dein Star Wars Beispiel.
Sämtliche Tests zeigen auf, dass der technische Unterbau des Spiels mangehalft ist und die geforderte Hardware in keinster Weise der Grafik entspricht. Es wird sogar vom Kauf abgeraten:
Du willst also allen ernstes behaupten, dass das Unfug ist und wir uns mal wieder alle nur irren?

Hier der Beitrag von CB:
Die Leistung falle auf dem PC unterirdisch aus, stabile 60 FPS seien auch mit einer GeForce RTX 4090 und High-End-CPUs ein Ding der Unmöglichkeit, weil die CPU-Last absurd hoch sei – oder weil Jedi: Surviror abstürze, bevor Spieler überhaupt die Steuerung übernehmen dürfen.

Eine Anpassung der Grafikeinstellungen ändere nichts, beschweren sich auch Reddit-Nutzer.

Und weil das Spiel super läuft und wir alle keine Ahnung haben, hat CB auch noch keinen Test dazu rausgehen. :ugly:
Ich kann ja verstehen, wenn du mich/meine Meinung nicht für voll nimmst, aber zu behaupten, dass du es besser weist als die Jungs von CB und PCGH, ist schon harter Tobak. Das hat Schwurbelvibes.

Der Vergleich zu StarWars sollte zeigen was ich meine. Die Engine lastet moderne Grafikkarten nicht richtig aus, läuft davon ab aber ordentlich.
Aber genau darum geht es ja. Selbst auf low Settings ist Version 1.0 auf Highend systemen in 1080p unter die 60 FPS gerutscht. Wie kann man sowas schönreden?!

Darüber wurde allerdings ein Fass aufgemacht... Schlecht, lief Gollum. Findet ihr dass SW:JS in dem gleichen Zustand war, oder war es gut mit Macken? Star wars ist eines der schönsten Spiele des Jahres. Man schaue sich nur die Umgebungstexturen an.
Nur weil Gollum noch schlimmer war, lief SW JS deswegen nicht gut. Beide Spiele konnten die 60 FPS nicht halten, nur Gollum sah dabei aus wie ein PS2 Spiel.
 
Ich merke schon was hier falsch läuft. Obwohl ich geschrieben habe, dass es für mich vollkommen legitim sei wenn ein Spiel erst später spielbar sei, gehst du von Version 1.0 aus. Ich hab das Spiel etwa zwei Stunden gespielt (vor etwa einer Woche) auf einem Laptop von meinem Kumpel (ich hab das Spiel nicht) mit einem 12700H und einer 3070. Da lief es ohne Absturz und mit meist 45 bis 50fps, was sich dank variabler sync ordentlich anfühlte.
 
Ich hab das Spiel etwa zwei Stunden gespielt (vor etwa einer Woche) auf einem Laptop von meinem Kumpel (ich hab das Spiel nicht) mit einem 12700H und einer 3070. Da lief es ohne Absturz und mit meist 45 bis 50fps, was sich dank variabler sync ordentlich anfühlte.
Nicht mal 60 FPS halte ich nicht für ordentlich, sorry.
Dann kommts auch noch auf den Planeten an, auf welchem du spielst. Soll wohl welche geben, bei denen du mit einem 7800X3D/13900K unter die 60 FPS rutscht, selbst auf low in 1080p.
 
Wieso regen sich alle so auf? FSR ist auf allen Karten nutzbar und vielleicht sehen wir sogar FSR 3.0. Weiterhin besteht ja auch die Möglichkeit, dass DLSS per Injektor nachgeliefert wird. Schwierig wird die Stelle, an der ein Bewegungsvektor von dem Prozess angegriffen werden muss, aber wenn es dazu eine native API gibt, sollte auch das kein Problem sein.
Nichts wird so heiß gegessen, wie es gekocht wird. Also immer locker durch die Hose atmen. :-)
 
Hmm, welche Technik hätte diese Probleme doch gleich abgestellt?
Ich komm einfach nicht drauf. Fängt mit D an und hört mit S auf. :ugly:
Ich hingegen schon, DLSS. Nur GENAU DAS!!! unterstütze ich nicht. Als DLSS damals anfing, habe ich exakt davor gewarnt. Ich schrieb damals, dass Zeit Geld ist und wir bereits wissen, dass den Entwicklern meist zu wenig davon gegeben wird, von den Publishern. DLSS, so meine Vorhersage damals, könnte dann dafür sorgen, dass nicht sinnvoll optimiert wird und stattdessen einfach DLSS integriert um nicht bessere, so sern überhaupt erst ausreichende frames zu generieren. Das wäre dann aber nur für Nvidia User interessant. Dann würden viele wechseln, klar und Nvidia die Preise nach oben korrigieren. Das hab ich geschrieben als es noch Pascal auf dem merkt gab. Da hat das größte Modell gerade 800 Euro gekostet. Inzwischen sind wir bei mehr als dem doppelten Preis. DAS zusammen mit "for the players", hab ich als direkten Angriff auf letztgenannte und als Frechheit benannt.
Jetzt sind wir an gevau diesem Punkt angelangt. Das was die AMD Fraktion damals befürchtet hat und wo die Nvidia Jungs meinten das es Quatsch sei. Na und du forderst jetzt genau das. Ein Publisher stellt dem Entwickler eine schon seit Jahren überforderte, weil alte, Engine zur Verfügung um ein Vollpreis AAA Spiel zu entwickeln und überraschend packt es die Engine nicht. Daraufhin möchtest du nicht die Hersteller in die Pflicht nehmen in neue engines zu investieren, sondern sie unterstützen in diesem Vorgehen und DLSS integrieren um ein schlechtes Grundgerüst zu behalten. Geht's noch?

Die Zusammenarbeit mit AMD ist in diesem Fall mMn! hilfreich, weil es sowas aufzeigt und die Hersteller sich nicht herauswurschteln können. Eventuell ist euch aufgefallen dass AMD Karten hier auch keine sonderlich gute Figur abgeben... Das liegt an der Form der Zusammenarbeit. Wenn Nvidia mit dem Spieleschmieden arbeitet, geht es um Grafik und die Technologien, die den eigenen Karten liegen und gleichzeitig das Spiel schöner machen. Ja, das aus meinem Munde, weil ich das so sehe. Diese Zusammenarbeit hier drehte sich aber nicht um Grafikkarten von AMD. Die Zusammenarbeit basierte darauf, dass AMD dem Studio Workstationn Zuhause und im Büro hingestellt hat auf Basis von Threadripper Pro. Dadurch konnten sie den Workflow beschleunigen und es überhaupt erst in dieser Form während Corona weiter bringen.
Das ist ein Arbeitsfeld wo Nvidia gar nicht hätte was anbieten können.

Dennoch wird in den entsprechenden Threads so getan als wäre es exakt das gleiche wie wenn Nvidia mitmacht. Das hat so gar nichts miteinander zu tun.
Jetzt kommt's... Das ist sogar bei den meisten der wie ihr sie nennt "AMD sponsored" Titel so. Also dass es um Workstations und CPU Leistung geht. Nicht um Radeon Technik.
Gaming evolved im Vorspann = auch für Radeon optimiert und nicht nur für Nvidia. AMDs Zusammenarbeit mit Studios ist aber nicht gleichzusetzen mit gaming evolved.

Nvidia und Studios = für Nvidia optimiert, mit Nvidia Technik und gar Code.
AMD und Studios = vielleicht für AMD Karten optimiert, vielleicht aber auch nur CPUs gestellt und niemand wird benachteiligt.

Dieser Unterschied wird von vielen Nvidia fanvoys gar nicht beachtet, oder könnt ihr beide mir beispielsweise Posts zeigen wo ihr diesen Unterschied herausstellt?

Das ist aber, warum ich das anders sehe als ihr.

Guckt euch mal auf YouTube um, da seht ihr sogar ein Entwicklervideo wo genau das zu segen ist. Stattdessen gibt's Verschwörungstheorien über AMD. Das sagt um einiges mehr über die User aus als über AMD.

Edit
Sorry für diesen Erguss an Text, aber ich hab das Gefühl ihr habt die Grundlagen dieser Diskussion nicht Verstanden.
 
Die Antwort (oder genau genommen Nicht Antwort) von AMD auf Fragen von Gamers Nexus ist doch sehr entlarvend:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die Konkurrenz in Form von Nvidia hat die bessere Technologie, zum Teil mit DLSS3/FG Technologie die AMD noch nicht anbietet (vermutlich auch nicht zum Starfield Release).
Und natürlich sehen AMD GPU's im Vergleich zu Nvidia GPU's sehr schlecht aus bei aktivierter FG in Benchmarks.
 
Ich hingegen schon, DLSS. Nur GENAU DAS!!! unterstütze ich nicht.
Das ist mir schon klar. Niemand mit Radeon GPU unterstützt das, Geforce Nutzer und neutrale Nutzer sehen das aber anders und wollen Technologieoffenheit und Konkurrenzkampf.
Man wünscht sich eine reine Radeon Lösung, die für alle verfügbar ist und das bessere Zeug von Nvidia soll einfach für alle geöffnet werden, was gleichzeitig Nvidia teilweise die Grundlage nimmt etwas aufwändiges zu Entwickeln und die Gelder reinzuholen.
DLSS, so meine Vorhersage damals, könnte dann dafür sorgen, dass nicht sinnvoll optimiert wird und stattdessen einfach DLSS integriert um nicht bessere, so sern überhaupt erst ausreichende frames zu generieren.
Oder genau das Gegenteil. Ein Tool das mehr BQ und Rechenzeit freischaufelt um den Nutzern mehr bieten zu können.
Daraufhin möchtest du nicht die Hersteller in die Pflicht nehmen in neue engines zu investieren, sondern sie unterstützen in diesem Vorgehen und DLSS integrieren um ein schlechtes Grundgerüst zu behalten. Geht's noch?
Habe mich nie in diese Richtung geäußert. Zeige mir mal die entsprechende Stelle.
Zudem gibt es die Unreal Engine 5, Jedi:Survivor setzt auf die Unreal Engine 4. Du glaubst doch wohl nicht die Entwickler erzeugen absichtlich ein CPU Limit?
Wenn Nvidia mit dem Spieleschmieden arbeitet, geht es um Grafik und die Technologien, die den eigenen Karten liegen und gleichzeitig das Spiel schöner machen.
Es geht offenbar auch um FSR2, wie wir sehen.
Bei AMD geht es um Technologie-Blocking. Das dürfte doch auch dem letzten mittlerweile klar geworden sein.
Jetzt kommt's... Das ist sogar bei den meisten der wie ihr sie nennt "AMD sponsored" Titel so. Also dass es um Workstations und CPU Leistung geht. Nicht um Radeon Technik.
Workstations? Klar gehts um Radeon Technik, hat man doch angekündigt.
Schau doch das Video. Wenn es nur um CPUs ginge, hätte man kein Exclusives FSR angekündigt.
Nvidia und Studios = für Nvidia optimiert, mit Nvidia Technik und gar Code.
AMD und Studios = vielleicht für AMD Karten optimiert, vielleicht aber auch nur CPUs gestellt und niemand wird benachteiligt.
Diesen Unsinn glaubst du doch selber nicht. Natürlich werden Geforce Nutzer benachteiligt. Wirklich harter Tobak von dir. Würdest du dem schnelleren Schwimmer auch Gewichte an die Füße hängen, damit er nicht schneller als die Konkurrenz ist und dann sagen: Hab dich nicht benachteiligt!
Bei Boundary wurde DLSS sogar herausgepatcht, auf Nachfrage Schweigen.
Stattdessen gibt's Verschwörungstheorien über AMD.
Das liegt an AMD. Diese hätten auf die Nachfrage mit einem klaren Statement wie Nvidia reagieren können, taten sie aber nicht, daher ist davon auszugehen, dass AMD fordert kein DLSS in diesen Spielen zu integrieren und das Teil des Sponsorings ist.
Verschwörungstheorien und Absurditäten kommen alleine von deiner Seite.

Zu sagen die Implementierung von DLSS würde nur die Spieleentwickler darin bestärken weniger zu optimieren, ist eine Verschwörungstheorie.
 
Zuletzt bearbeitet:
In so einem großen Titel wird DLSS zu 100% reingemoddet wie bei Jedi Survivor. Finde solche Deals aber auch schlecht - warum sollte man auf einer offenen Plattform Optionen wegnehmen? Macht für den Endkunden keinen Sinn.
 
Ich hingegen schon, DLSS. Nur GENAU DAS!!! unterstütze ich nicht. Als DLSS damals anfing, habe ich exakt davor gewarnt. Ich schrieb damals, dass Zeit Geld ist und wir bereits wissen, dass den Entwicklern meist zu wenig davon gegeben wird, von den Publishern. DLSS, so meine Vorhersage damals, könnte dann dafür sorgen, dass nicht sinnvoll optimiert wird und stattdessen einfach DLSS integriert um nicht bessere, so sern überhaupt erst ausreichende frames zu generieren.
Das ergibt keinen Sinn. AMD Sponsored Bundle Games bieten idR. kein DLSS und Star Wars: JS bietet es ebenfalls nicht, trotzdem läuft es bescheiden. Die Spiele werden also auch ohne DLSS schon nicht optimiert. Mit DLSS könnte aber zumindest ein Teil der Nutzer das Spiel genießen. Gönnst du es anderen nicht, oder was?

Dennoch wird in den entsprechenden Threads so getan als wäre es exakt das gleiche wie wenn Nvidia mitmacht. Das hat so gar nichts miteinander zu tun.
Jetzt kommt's... Das ist sogar bei den meisten der wie ihr sie nennt "AMD sponsored" Titel so. Also dass es um Workstations und CPU Leistung geht. Nicht um Radeon Technik.
Gaming evolved im Vorspann = auch für Radeon optimiert und nicht nur für Nvidia. AMDs Zusammenarbeit mit Studios ist aber nicht gleichzusetzen mit gaming evolved.

Nvidia und Studios = für Nvidia optimiert, mit Nvidia Technik und gar Code.
AMD und Studios = vielleicht für AMD Karten optimiert, vielleicht aber auch nur CPUs gestellt und niemand wird benachteiligt.

Dieser Unterschied wird von vielen Nvidia fanvoys gar nicht beachtet, oder könnt ihr beide mir beispielsweise Posts zeigen wo ihr diesen Unterschied herausstellt?

Das ist aber, warum ich das anders sehe als ihr.
Das kannst du sehen, wie du willst, aber es ist falsch.
Hier ist die Tabelle:
Screenshot 2023-07-04 155655.jpg


Wenn es nicht stimmt, dann beweise es, ansonsten kannst du "meinen", was du willst. Es ist nicht von Wert.

Workstations? Klar gehts um Radeon Technik, hat man doch angekündigt.
Schau doch das Video. Wenn es nur um CPUs ginge, hätte man kein Exclusives FSR angekündigt.
Als ob er sich das Video anschaut. Der schaut sich gar keinen Quellen an, sondern behauptet irgendwas, ohne Quellen oder Beweise dafür zu liefern. Alle Gegenbeweise sind für ihn wertlos, weil er in seiner eigenen Bubble lebt.

Bei Boundary wurde DLSS sogar herausgepatcht, auf Nachfrage Schweigen.
Was ist hier deine Erklärung @Cleriker?
 
Zuletzt bearbeitet:
Die Leute sollen froh sein wenn das Game überhaupt fertig auf den Markt kommt.
Am Ende ist fehlendes DLSS/Xess das geringste Problem.
Wenn du so geringe Ansprüche hast ist das ok, aber eine solche Aussage ist für ein Computerforum doch eine äußerst erstaunliche Replik.
Gerade im Kontext zu den Aussagen des Entwicklers. Das ist ungefähr so wie wenn du einen 400Meter lauf absolvierst und dann die letzten 20 Meter nicht läufst, weil du auch abbrechen kannst.
Im Prinzip könnte AMD evtl., sofern diese Behauptung falsch oder nicht nachweisbar ist, sicherlich Anzeige wegen Verleumdung bzw. Rufmord gegen die entsprechende Person von Ihrem Anwaltsteam stellen lassen.
Vielleicht solltest du ja gegen die unabhängige Berichterstattung Anzeige erstatten?
Evtl. kannst du so AMD vor den Horden unzufriedener Nvidia "Trolle" retten?
Ich persönlich habe NVidia zB. auch nicht an den Pranger gestellt, weil G-Sync keine Grafikprozessoren anderer Hersteller unterstützt und zB. The Witcher 3 oder Cyberpunk 2077 auf nicht NVidia-Grafikhardware unverhältnismäßig schlecht laufen.
Also Cyberpunk und the Witcher liefen den Umständen entsprechend auf AMD Hardware ziemlich gut. Tesselation war nicht AMD´s Stärke, aber ich sehe nun auch nicht woraus sich anhand deines Whataboutism/Vergleich irgend ein Erkenntnisgewinn manifestiert. Soviel ich weiß hat Nvidia weder bei G-sync noch Hairworks AMD´s Technologien blockiert.
Eigentlich ermüdend das Ganze weil immer dasselbe:
Ja, immer das dasselbe. Ein Whataboutism jagt den nächsten, anstatt einfach einzugestehen, dass AMD hier einen schönen Mist baut.
Wenn eine Umsetzung von einem System aufs andere so einfach ist, dann ist anzunehmen, dass es genau das gleiche Geldgeschiebe ist, wie es das wahrscheinlich auch den vielen Titeln gegeben hat, die DLSS 2 haben, aber kein FSR 2.
Also bezahlt Nvidia die Entwickler, damit sie FSR2 integrieren? Ist das deine neue Theorie? :D
 
Zuletzt bearbeitet:
Wenn du so geringe Ansprüche hast ist das ok, aber eine solche Aussage ist für ein Computerforum doch eine äußerst erstaunliche Replik.
Gerade im Kontext zu den Aussagen des Entwicklers. Das ist ungefähr so wie wenn du einen 400Meter lauf absolvierst und dann die letzten 20 Meter nicht läufst, weil du auch abbrechen kannst.
Ich bin nur realistisch. Wenn man sich die Veröffentlichungen der letzten AAA Spiele so anschaut sollte man inzw. einfach nicht zu viel erwarten.
 
Wieso regen sich alle so auf? FSR ist auf allen Karten nutzbar und vielleicht sehen wir sogar FSR 3.0. Weiterhin besteht ja auch die Möglichkeit, dass DLSS per Injektor nachgeliefert wird. Schwierig wird die Stelle, an der ein Bewegungsvektor von dem Prozess angegriffen werden muss, aber wenn es dazu eine native API gibt, sollte auch das kein Problem sein.
Nichts wird so heiß gegessen, wie es gekocht wird. Also immer locker durch die Hose atmen. :-)

Nur weil FSR 2 auf allen Karten 'nutzbar' ist, gibt es einem noch lange nicht das Recht, andere Techniken, vor allem jene der unliebsamen Konkurrenz, die zudem auch teils drastisch besser sind (was wohl auch mit der Hauptgrund sein dürfte, neben der FG mit RTX 4000), einfach zu blockieren und die Leute zu nötigen, eine unterlegene Technik zu nutzen.
(und je nach Gamezustand und Anforderung nutzen zu müssen).

Nachgeliefert, aka gemoddet, ist halt nur gemoddet und kann u.U. selbst wieder Probleme machen,
wenn es doch relativ einfach hätte von vorherein drin sein können.
Alle 3 Techniken liessen sich problemlos gleichzeitig integrieren und so könne jeder mit einer RTX Karte, eben auch "sein" DLSS nutzen, aber genau das will man verhindern.

Da man an dieser Stelle auch gerne immer mal mit Steam argumentiert und auf die 1650 verweist und so, erlaube ich mir mal, im Umkehrschluss, Steam heranzuziehn und den Anteil an DLSS2+ fähigen Grafikkarten in der Hardwarumfrage zusammenzurechen...
Und oh schau mal einer an, selbst ausserhalb unserer kleinen "elitären" Foren Blase, ist der Anteil DLSS2+ fähiger GPUs bei knapp 40%, Tendenz steigend!
Und diese sollen jetzt eine unterlegene Technik nutzen, weil ein Hersteller das so will, weil der ja "open Source" und so ist... :daumen2:

Fakt ist:
DLSS ist FSR teils haushoch überlegen, besonders im Qualimode und in FHD und QHD, aber selbst in UHD noch.
DLSS bemüht eigene dedizierte Hardware und KI Training, ist daher eben nicht woanders einfach machbar.
FSR hingegen klatsch seine Technik einfach auf die Textureinheiten mit drauf und das merkt man eben.
FSR 3, kommt, zumindest laut Gerüchteküche, Treibergebunden und ist damit dann auch nichtmehr für alle verfügbar, irgendwie müssen die ja dann auch ihr FG Pendant realisieren.
FSR3 wird wohl auch nichtmehr für diese GPU Generation kommen, erst Recht nicht wenn es dafür bestimmte Hardware braucht.

JA wir werden sehen was kommt, aber das es wohl so sein wird, dürfte als gesichert angesehen werden, was danach kommt, zumindest per Mod, steht auf einem anderen Blatt.
 
Wenn du ein Hobbit bist vielleicht, ansonsten meinst du mit "haushoch" vielleicht Lego, Playmobil, oder Modelleisenbahnen? :D
Selbst im Test von HWU liegt das eine bei gut und das andere bei befriedigend. Also ausgehend von DLSS als 100% Marke macht FSR dort quasi 80%... ohne machine learning und ohne dedizierte Hardware, über einen Treiber der tatsächlich "haushoch" umfangreicher und aufwendiger ist als jener der Konkurrenz.
So gesehen ist das Ergebnis auf dem Schirm zwar besser (wenn auch nicht viel), aber die Leistung der Programmierer bei AMD deutlich beeindruckender.

Es sind halt zwei verschiedene Konzepte und Arbeitsweisen (auf das upscaling, aber auch alles andere), die wir hier viel zu oft direkt miteinander vergleichen, ohne das alles zu betrachten.

Wo Nvidia quasi sagt, Treiber, lass diese Art von Berechnungen bitte von den Spezialeinheiten ausführen und dann führe das Ergebnis wieder zusammen, läuft es bei AMD über die ganz normalen shader, welche sich gleichzeitig noch um alles andere kümmern müssen, also wo allein die Reihenfolge der Aufgaben schon komplexer ausfällt. Dann bietet und nutzt dieser Treiber aber im gleichen Moment noch alles was bei Nvidia in experience, dem inspector und dem afterburner jeweils für sich läuft und quasi unabhängig voneinander. Bei AMD muss alles was in diesem Tools passiert, die ganze Zeit immer und überall stabil laufen und im Einklang gebracht werden. Allein die OC Einstellungen, wirken sich ganz anders und auf absolut alles aus. Ist das nicht super stabil und aufeinander abgestimmt, gerät der Treiber bei der nächsten komplexen Aufgabe direkt ins straucheln. Beispielsweise wenn die shader gerade zwischen Raster und RT Berechnung hin und her springen. Während bei Nvidia die Tensor Cores nur eine Aufgabe erfüllen und fast schon unabhängig von anderen workloads arbeiten.

Dennoch sind ein aktuelles DLSS 2.x und ein FSr 2.x inzwischen gar nicht mehr so weit voneinander entfernt. Das ist schön für sich betrachtet ein Ding, was ich persönlich AMD in dieser Form gar nicht zugetraut hatte.
 
Zuletzt bearbeitet:
Nur weil FSR 2 auf allen Karten 'nutzbar' ist, gibt es einem noch lange nicht das Recht, andere Techniken, vor allem jene der unliebsamen Konkurrenz, die zudem auch teils drastisch besser sind (was wohl auch mit der Hauptgrund sein dürfte, neben der FG mit RTX 4000), einfach zu blockieren und die Leute zu nötigen, eine unterlegene Technik zu nutzen.
(und je nach Gamezustand und Anforderung nutzen zu müssen).

Nachgeliefert, aka gemoddet, ist halt nur gemoddet und kann u.U. selbst wieder Probleme machen,
wenn es doch relativ einfach hätte von vorherein drin sein können.
Alle 3 Techniken liessen sich problemlos gleichzeitig integrieren und so könne jeder mit einer RTX Karte, eben auch "sein" DLSS nutzen, aber genau das will man verhindern.

Da man an dieser Stelle auch gerne immer mal mit Steam argumentiert und auf die 1650 verweist und so, erlaube ich mir mal, im Umkehrschluss, Steam heranzuziehn und den Anteil an DLSS2+ fähigen Grafikkarten in der Hardwarumfrage zusammenzurechen...
Und oh schau mal einer an, selbst ausserhalb unserer kleinen "elitären" Foren Blase, ist der Anteil DLSS2+ fähiger GPUs bei knapp 40%, Tendenz steigend!
Und diese sollen jetzt eine unterlegene Technik nutzen, weil ein Hersteller das so will, weil der ja "open Source" und so ist... :daumen2:

Fakt ist:
DLSS ist FSR teils haushoch überlegen, besonders im Qualimode und in FHD und QHD, aber selbst in UHD noch.
DLSS bemüht eigene dedizierte Hardware und KI Training, ist daher eben nicht woanders einfach machbar.
FSR hingegen klatsch seine Technik einfach auf die Textureinheiten mit drauf und das merkt man eben.
FSR 3, kommt, zumindest laut Gerüchteküche, Treibergebunden und ist damit dann auch nichtmehr für alle verfügbar, irgendwie müssen die ja dann auch ihr FG Pendant realisieren.
FSR3 wird wohl auch nichtmehr für diese GPU Generation kommen, erst Recht nicht wenn es dafür bestimmte Hardware braucht.

JA wir werden sehen was kommt, aber das es wohl so sein wird, dürfte als gesichert angesehen werden, was danach kommt, zumindest per Mod, steht auf einem anderen Blatt.
Haushoch? :-D Ich hatte das Vergnügen mir beides mehrmals anzusehen und von haushoch kann ich nicht sprechen. Es hängt viel davon ab wie und was man implementiert. Krankheiten haben beide Technologien. Du kannst dich weiter beschweren und dich grämen oder du akzeptierst wie es ist. Nvidia ist nun auch nicht dafür bekannt sich in den heiligen Hallen der Wahrheit zu bewegen. ;-)
 
Zurück