DLSS überhaupt nicht, denn es setzt Tensor Kerne voraus, die weder AMD noch Intel aus seinen GPUs verbaut hat. So ist das nun mal, wenn man Technologieführer ist und Andere immer nur 2 Jahre später schlecht kopieren. Das kann man NVidia wohl kaum zum Vorwurf machen.
Du weisst schon, dass meine Frage sarkastisch war und darauf abzielete, dass Nvidia-Tech halt meist nur von Nvidia genutzt werden kann.
Es ist nebenbei Blödsinn zu glauben, dass nur weil jemand bei einer Technologie vorne weg schreitet alle genau die gleichen Lösungsansätze verfolgen müssen wie dieser.
Man kann Ziele auf ganz viele unterschiedliche Weise erreichen. Viele Wege führen nach Rom.
Tensor cores ist Nvidias Idee. Sollen sie machen. Andere machen es anders und haben dadurch andere Vorteile und Nachteile. KEINER kopiert den Tensor core Ansatz.
Und wenn es um Superresolution geht: das ist nicht auf Nvidia Mist gewachsen. Die Idee gibt es schon länger. Wie gesagt, verschiedene Ansätze, wie man sowas verwirklichen könnte. Und auch versciedene Einischätzungen wann der richtige Zeitpunkt ist, dass die Technik tatsächlich gefragt und genutzt wird und man da draufspringen sollte. Und sooo toll und ein Alheilmittel ist diese Technik auch nicht.
AMD bietet FSR und Intel als Newcomer Xess, dass erstaunlicherweise schon bessere Ergebnisse liefert als FSR. Jedes Spiel sollte alle 3 Techninken unterstüzen, damit Alle bestmöglich versorgt sind, die Implementierung ist einfach genug.
Was GSync angeht: Auch hier war NVidia wie immer Vorreiter und es setzt nunmal einen Monitor mit Gsync Modul voraus. Als gute Alternative gibt es ja GSync compatible / Freesync Monitore, die auch ohne GSync Modul auskommen und AMD-Karten unterstüzen.
Wie immer? Gläubiger, Jünger oder was? sagt Dir TressFX und Hairworks was?
GSync und Modul: das ist knallhartes Vendor Lockin.
GSync compatible gab es erst später, als Nvidia das Wettrennen verloren hat und sich öffnen musste.
Stimmt nicht. Schon das auf die Schnelle reingemoddete DLSS bietet eine bessere Bildqualität als das spielinterne FSR 2. Obendrein ist Frame Generation in dem Spiel Gold wert bei der furchtbaren Performance. Aber man muss dem zahlenden Kunden diese Techniken ja aus Marketinggründen vorenthalten...
Warum ist Framegeneration Gold wert? Als ob das der heilige Gral wäre. Wenn doch die "Preformance so furchtbar" ist, sollte man dann nicht an der Perfomrance arbeiten, anstatt Pflaster drauf zu tun?
"Vorenthalten" ist reine Spekulation, dafür gibt es keine Beweise und nur Vermutungen.
Wo bist Du denn nun der zahlende Kunde in dem Spannungsfeld? (Frag mal so aus Neugierde).
Marketinggründe?
Das sagt sich leicht, wenn man selbst eine der schnellsten Gaming CPUs am Markt im Rechner stecken hat. Gemessen an dem, was ein 7800X3D in anderen, anständig optimiereten Spielen leistet, ist die Performance in Starfield eine Katastrophe. Auch die Performance mit Intel CPUs ist alles andere als gut, nur eben besser als bei AMD.
Erst unterstellst Du,, dass AMD-CPU's grottig schlecht performen und Intel sooo viel besser ist und nun hab ich plötzlich wieder eine der schnellsten CPU`s? Ja was denn nun?
Die schnellste iist die 7800X3D niicht. Aber siie ist Peris-Leistungs-Technisch im Gaming-Bereiich schon sehr stark.
Hat halt nur 8 Kerne und es gibt andere, die stärker sinid zu viel teurer. Für mich overkill, mir reicht sie.
Hammer Aussage...Du spielst in 1080p (also in Low-End Auflösung) mit einer 7900XT, der zweitschnellsten AMD-Karte am Markt und das auch noch in einem Spiel, das AMD sponsored ist. Guck Dir doch mal an wie das Spiel z.B. auf einer RTX 4070 oder auf AMD Karten der 6000er Reihe performt und zwar in Auflösungen, die für GPUs jenseits der 600 Euro eigentlich üblich sind (1440p+). Intel Kunden können sich ja gleich die Kugel geben lt. Bethesda...
Da ist überhaupt nichts optimiert, die miese Performance steht in absolut Keinem Verhältnis zur gebotenen Grafik.
Uha, low-End-Auflösung. Der Prophet hat gesprochen.
Sorry, ich kaufe mir nicht alle 2 Jahre neue Moniitore für 500 bis 1000 Euro - zumal wenn Hinitergrundbeleuchtung und HDR immer noch zu wünschen übrig lassen. So lange tut es noch mein alter.
Ja, der Monitor steht als nächstes an aber erst, wenn 21:9 1440p+ auchbei 140Hz+ größere Vertikalen und mehr als DisplayHDR 400 bieten.
Wenn Du das so siehst... Es ist nunmal leider sehr eindeutig, dass es bei Starfield nicht darum ging dem Kunden das bestmögliche Spielerlebnis zu präsentieren, sondern darum AMD und Microsoft auf Kosten der Qualität gut dastehen zu lassen. Ein Support für DLSS + Frame Generation wäre in dem Gurkentitel absolute Pflicht gewesen bei der katastrophalen Performance. Das hat man ja sogar bei Gollum hinbekommen und die haben sonst wirklich absolut nichts auf die Reihe gekreigt.
Und nun nochmal neuer
Hinweise von Kontakten am Ball:
(scheinbar berichten Kontakte bei den Firmen)
- Nividia hat anscheinend echt zu wenig Weitsicht gehabt, einzuschätzen, wie wichtig der Titel werden könnte
- Nvidia ist auch gefragt worden, zu unterstützen und zu optimieren. Sie haben aber den Aufwand unterschätzt, den das erfordern würde. Resourcenaufstockungen sind abgelehnt worden und in KII geflossen, da Nvidia derzeit partout nichts aug gaming gibt (so viel mal nochmal an den Zahlen Kunden)
- auch AMD ist sehr spät erst gerfagt worden hat aber diei Vision gesehen. Sie hatten ein klein bisschen mehr Zeit zu optimieren, aber auch da hat es wohl gerade mal so gereicht, sicherzustellen, dass das Spiel überhaupt läuft (auf jeder Karte) und auf jeden Fall granatiert auf AMD-Karten
- zu Erwarten, dass Bethesda etwas großartiges zum Release abliefert, das super optimiert ist, entbehrt jeglicher Erfahrung und Vernunft
Nebenbei auch interessant für jeden, der glaubt, Nvidia hätte doch nur gefragt werden müssen, dann wären die schon mit ihrer Armee angerückt und hätten alles gerichtet.