News DLSS ausgesperrt: Von AMD unterstützte Spiele blockieren Nvidias AI-Upscaling

(...) Fakten, Tatsachen(...)
Höre den CB Podcast, schau bei HWU, WCCFTech oder lese diese PCGH News.
Alle Fakten liegen auf dem Tisch, AMD ist am Zug die sich daraus ergebenden Vorwürfe auzuräumen. Sie haben die Gelegenheit auf mehrere Nachfragen hin bisher verstreichen lassen.
(...)Kommt mal lieber wieder zur Sache zurück.(...)
Wie ist deine plausible Erklärung zu AMD´s Verhalten?
Ich bin 100% bei der Sache.
Sie haben sich für FSR entschieden, das muss man schlicht und ergreifend akzeptieren.
Nein, da die Mehrheit in diesen Leistungskategoriien Nvidia mit überlegenen Technologien nutzt. Niemand muss sich damit abfinden bevor das Spiel überhaupt präsentiert wurde , deshalb wird Kritik geäußert, um im Optimalfall DLSS, XeSS und FSR zu erhalten. Die Kritik ist in der Sache richtig, da sind sich alle neutralen Beobachter und Newsseiten einig. Schau doch auf den Newstitel.
Genau wie Käufer von AMD Karten akzeptieren müssen das Cyberpunk mit Pathtracing auf ihren Karten kaum bis leidlich funktioniert.
Was aber an einer Hardwarelimitation liegt.
Davon hat man nichts vergessen. Vor allem GPP war ein richtig Dick-Move und hat sich wegen Kritik dann nicht durchgesetzt.
Aber warum das Verweisen auf Verfehlungen Nvidias? Wäscht das AMD von einer möglichen Schuld nun rein? Nein.
Und darum geht es doch. Die AMD Bubble stellt sich nicht der Diskussion, obwohl sie sich selbst damit schaden, wenn DLSS nicht mit dabei ist.
Und selbst wenn es so wäre, who cares ?
Kooperationen sind seit Dekaden gang und gebe, und das quer durch alle Branchen hindurch.
Dan hättest du auch kein Problem wenn Nvidia seine Marktmacht benutzt FSR mit Geldmitteln ausschließt und AMD Nutzer im Regen stehen lässt, was noch eine Steigerung der aktuellen Problematik darstellt?
Für mich bleibt der entscheidene Fakt, das FSR von allen genutzt werden kann, also win für alle.
Was den entscheidenden Fakt mit einschließt, dass wenn FSR bereits mit integriert ist ein DLSS support ein Spaziergang ist.:-)
Keiner hat das Anrecht von einem Studio zu erwarten das gefälligst DLSS 3 unterstützt wird, das ist anmaßend.
Der wievielte Strohmann ist das jetzt bereits?^^
Die Kunden besitzen ja die Unternehmen nicht, wieso sollte sich daher ein Anrecht ergeben?
 
Zuletzt bearbeitet:
Gameworks vergessen ?
GPP vergessen ?
Assasins Creed vergessen bei dem nachträglich der DX 10.1 Pfad entfernt wurde, weil er auf Nvidia Karten nicht gut performte ?
Ach komm schon...

Ja leider.
Man sollte anfangen eine Liste zu erstellen zu den großen Herstellern.
Da kommt einiges zusammen...
 
Einige sind hier sehr Naiv wenn sie an der Unschuld von AMD glauben. Das es eine Entscheidung der Entwickler war kein DLLS zu unterstützen halte ich in anbetracht des kosten nutzen Faktor bei einer Firma dieser Größe für sehr unwahrscheinlich sie hätten sehr wenig Aufwand und würden viele potenzielle Kunden einen zusätzlichen Kaufanreiz gewähren. Was wiederum im mehr verkauften Einheiten und damit für mehr $$$ sorgen würde. Und das ist der einzige Grund überhaupt das Spiel zu entwickeln sie wollen so viel Geld verdienen wie irgend wie möglich.
Das Verhalten von AMD auf offiziellen Anfragen ist auch sehr merkwürdig. Es gibt eigentlich nur 3 Möglichkeiten wie sie antworten könnten.
1. Sie geben es zu und reden es klein. Würde aber einen shitstorm auslösen der seines gleichen sucht und evt.l verbraucherschützer oder die Anwälte des Mitbewerbers auf den Plan rufen. Wird in der Regel aber nur dann gemacht wenn es eh nichts mehr zu leugnen gibt.
2. Sie dementieren alles. Könnte aber wenn raus kommt sie sollten lügen noch unangehmer werden
3. Schweigen und hoffen das es vergessen wird. Wird gerne verwendet wenn man egal was man sagt eh die Arschkarte hat. Und ist für mich ein indirektes schuldeingestäntnis.

Ich bin gespannt wie sie sich aus der affaire raus ziehen wollen. Meiner meinung kommen sie aus der Nummer nur raus wen sie dem Entwickler jetzt im nachhinein gestatten DLLS an zu bieten und am besten schon bei Release.
 
(...) Bobhais behauptet, AMD hätte es "entgeldlich Erzwungen"(...)
Weise mir das bitte nach, ansonsten fordere ich dich auf deinen Post entsprechend zu editieren.

Und ganz grundsätzlich gesprochen.
Es gibt keine gerichtsfesten Beweise "für gar nichts".
Aber Glaubhaftmachung ist in vielen Rechtsystemen ein gängiges Konzept und hier geht es nicht um rechtliche Fragen.

Es ist völlig angemessen sich ein wahrscheinlich richtiges Bild der Situation zu machen und dein Hinweis es gebe keine klaren Beweise führt zu gar nichts, weil es keine Möglichkeit der gerichtsfesten Beweisfindung gibt und nur dafür genutzt wird, um sich an vorgefertigte Meinungen zu klammern.

Es spricht aktuell nichts für deine getroffenen Annahmen, dem solltest du dir dann auch bewusst sein, wenn du andere angreifst.

Wieso schweige ich, wenn ich im Kreuzfeuer stehe und unschuldig bin? Es gibt nur einen sinnigen Grund.
In der Regel um sich nicht noch tiefer reinzureiten.
2) Die Stellungname von Boundary sagt eindeutig aus das es aus wirtschaftlichen Aspekten nur ein Upscaling-Verfahren geben wird.
DLSS war bereits integriert, zudem ist es ein UE4 Titel.
Wirtschaftliche Aspekte spielen daher keine Rolle, auch wenn es in der Stellungnahme, die ich nicht gefunden habe, stehen soll.
Ebenfalls wurde Raytracing entfernt. Entkräftet sogar ehr den Verdacht in Richtung AMD.
Nein, bestärkt ihn, weil AMD schwächer in Raytracing ist.
Du kannst nicht kritisch denken, wenn es um deinen Markenfetischismus geht.
Da wird keine Reaktion erfolgen die einen möglichen Rufschade unüberlegt noch größer machen könnte! Das dauert einfach.
Die Rufschädigung ist bereits erfolgt, weil AMD nicht reagiert, oder in Stellungsnahmen ausweicht. Wenn dich das nicht zu kritischem Denken befähigt wie zum Beispiel bei Nvidias absurden Stellungnahmen befähigt, dann weiß ich auch nicht.
Darf ich dann annehmen, dass jedes Spiel, dass DLSS unterstützt aber nicht FSR eine noch viel größere Fehlentscheidung getroffen hat?
Ja. Fehlentscheidung, sofern es Nvidia nicht zur Vorraussetzung machen würde, so wie es bei AMD im Raum steht.
 
Zuletzt bearbeitet:
Im Ursprungspost (auf den ich mich bezog) ging es genau um das selbe was du jetzt wieder machst, Cherry Picking.
Das ist doch kein "Cherry Picking", wenn man den Nutzerkreis auf halbwegs performante GPUs eingrenzt, für den der Entwickler Empfehlungen und Mindestvorraussetzungen herausgibt. Das macht der doch nicht zum Spaß.
Überhaupt nicht, ich sage klar, dass ich es nicht gut finde, aber ich sage auch, dass es eine grds nachvollziehbare Entscheidung ist.
Dafür, dass es eine nachvollziehbare Entscheidung sei, fehlen aber nach wie vor die Sachargumente und solange du diese nicht liefern kannst, hat die Diskussion auch keinen Sinn und ich glaube dir überhaupt nichts.
 
Wir haben doch nun schon aus mehreren Quellen erfahren, dass wenn FSR bereits integriert ist, es keinen relevanten Aufwand darstellt, DLSS zu integrieren.

Warum wird es dann aus mehreren Unreal Spielen herausgepatcht?

Der hat doch nicht einmal den Quellcode du Genie.
Für die Unreal Engine gibt es ein DLSS Plugin, also ist dein Argument auch nicht tragfähig.
Keinen relevanten Aufwand spielt ehrlich gesagt keine Rolle. Ich habe auf der Arbeit ein Backlog voll mit solchen Features. Ist in den meisten Fällen für 1 Person in unter 4h implementiert. Aber wir haben klare Ziele und wenn ich Features implementiere und dafür die kritischen Features nicht schaffe lasse ich es raus. Ansonsten darf man sich einiges vom Projekt Management anhören.
Auch das man das Feature herauspatcht kann ähnlich sein wie bei uns. Will ich das Feature nicht mehr supporten? Ok raus bevor jemand dass nutzt und dann noch Bugs etc. meldet.
Heißt zwar nicht dass das in diesen Fällen so war, aber da AMD sponsort haben die ein Interesse dass FSR richtig läuft und man kann ggf. Features auf die abwälzen und die Ressourcen anders nutzen. Dann sinkt das Interesse an DLSS gewaltig auf der PM sicht.
AMD hat einfach kein AI-Upscaling, sondern nur einen Abklatsch davon.
Und so ermöglicht AMD seinen Nutzern in 0/X Spielen eine solche Qualität. :ugly:
AMD hat sich zwar dagegen entschieden, aber auch Nvidias Ansatz ist wirklich kein komplexes AI gebilde da wird die Hauptarbeit auch von normalen Algorithmen umgesetzt.
Dann nehme ich das Upscaling, da das meistens besser ist als die Native Auflösung.
Bei deiner Analyse hast du die Nachteile des nativen Bildes ja weggelassen.


Genau, das Native Bild hat ja weder Artefakte, Flimmern noch Bildfehler.
Das fehlende Supersampling des Nativen Bildes macht dann das Kraut richtig fett.
Ich warte wie von allen die das behaupten eine quantitative Analyse die belegt dass das Bild faktisch besser ist.
Genau das wurde von mir und einigen anderen hier mehrfach beantwortet:
  • Die Tabelle von HWUB
  • DLSS wurde aus Boundary rausgepatcht, als man sich AMD ins Boot holte
  • AMD ignoriert mehrere Anfragen seit Wochen zu dem Thema und wenn sie antworten, dann weder mit ja, noch mit nein
Alleine der letzte Punkt ist eine stille Zustimmung. Wenn sie nichts verbrochen haben, warum sagen sie es dann nicht einfach?!

Selbst im AMD Subreddit, in dem sich die ganzen Fanboys tummeln, sind die Aussagen differenzierter und kritischer als bei dir oder Phobos. Alleine das, sollte euch beiden schon zu denken geben.
Es bleiben aber nur Indizien. Auch wenn ich deiner Schlussfolgerung zustimme dass AMD hier aller voraussicht nach die Entwickler "motiviert" DLSS nicht zu implementieren, haben wir keinen Beweis.
In anderen Threads wo Nvidia hart angegangen wurde, wurde auch auf Fakten gepocht, dass darf man hier auch.
 
Hier finde ich das Verhalten von AMD aber auch etwas verdächtig (Es bleibt sicher kein Beweis). Ich denke, normal würde jedes Unternehmen das kein Dreck am Stecken hat damit um die Häuser ziehen, das man eine reine Weste hat.
AMDs Marketing oder PR-Abteilung ist eine Katastrophe, ganz einfach. ^^

Sie können ja nen Affen anstellen, der machts sicher besser.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Stell dir mal vor du entwickelst ein Spiel. AMD sponsert dich mit Entwickler. Diese entwickeln jetzt FSR für dich. Würdest du FSR ablehnen und DLSS implementieren?
Volle Zustimmung. In der Regel werden auch Entwicklungssysteme vergünstigt zur Verfügung gestellt, bei großen Studios vermutlich auch mit Vorserienmodellen der neueren Karten. Bei AMD heißt das, dass die Entwickler noch zusätzliche Systeme nur für DLSS anschaffen müssten. Das hängt sich keiner ans Bein, wenn er schon Topsysteme im Haus hat.
Anders als DLSS und AMD funktioniert FSR bei NV Karten auch, NV hat also etwas davon, wenn sie FSR mit einbinden. AMD hat keinen Vorteil von DLSS.
Komisch das NV dann nichts dagegen hat, wenn FSR mit drin ist.
Als Entwickler habe ich mehrere Dinge zu beachten:
  • Womit habe ich die Größte Systemunterstützung? Punkt für FSR und XeSS
  • Was wird auch in Zukunft noch unterstützt, wegen Marktdurchdringung und nicht plötzlich eingestellt(hallo Physix/EAX)? FSR gewinnt hier. DLSS ist schon beim eigenen Hersteller eine Kompatibilitätshölle, wenn die 4. Gen DLSS 3 als neues Exklusivfeature bekommt. XeSS ist erst valide Option, wenn Intel keine Eintagsfliege bleibt.
Will ich das Feature nicht mehr supporten? Ok raus bevor jemand dass nutzt und dann noch Bugs etc. meldet.
Die Gefahr besteht leider bei proprietären Sachen. Oft hat man dann seitens des Herstellers weder Tools noch eine anständige Dokumentation, um Bugs nach Supportende händisch zu entfernen.
Wie gesagt, wenn DLSS eine FSR-artige Fallbackoption für Karten ohne die spezialisierte Hardware hätte, würde ich DLSS hart verteidigen, denn dann würde es FPS bei niedrigerer Qualität für Nutzer älterer Karten und mehr FPS bei besserer Qualität für Nutzer der neuen Karten bringen und wäre dann perfekt.
Intel macht das mit XeSS ja so, da sind wohl spezielle Einheiten in Hardware vorhanden für den Spaß. Alle anderen dürfen aber mit freier Rohleistung auch mitmischen.
Eine FSR ähnliche Lösung wird zu hoher Wahrscheinlichkeit immer schlechter bleiben, als Nvidias Ansatz. Spezialisierte Hardware wird einem reinen Softwareansatz überlegen bleiben, denke ich. Warum sollte man das also verwerfen?
Das Märchen, dass alles nur in Hardware ginge singt NVidia aber schon seit dem Ageia(Physix) Kauf. Da wurden bärenstarke Karten der Konkurrenz per Flag eingebremst, sobald Physix exzessiv genutzt wurde und das Polling den GPU-Vendor abgefragt hat(z.B. in Mafia2), so plump habe ich bis heute abseits von Hairworks noch keine Behinderung der Konkurrenz gesehen.
Die Geschichte der 3D-Grafik zeigt, das spezialisierte Einheiten zwar immer der Ausgangspunkt sind, irgendwann aber der geringe Rechenaufwand die Chipfläche nicht mehr rechtfertigt und alles in generalisierten Einheiten gemacht wird(Unified Shader). Das muss nicht zwingend auf Dauer so bleiben, aber wird irgendwann aus Gewohnheit so gelassen. Gegenbeispiel wären hier Hardware-Transformation, welches die Geforce damals so schnell machte, aber in der Retrospektive mit noch schnelleren CPUs, das speicherunabhängige GPU-Limit quasi "erfunden" hat.
Wenn du Glück hast haben vielleicht 0,5% aller potenziellen Spieler davon gehört, glaube du überschätzt den Markt derer, die sich technisch dafür interessieren.
Stimme ich zu. Ich stelle mir das Gesicht des Käufers eines brandneuen, teuren "Gaming-PCs" von Aldi oder Mediamarkt vor, der beim Laden des ersten Spiels ausgegraute Optionen im Menü sieht: Framegen->Schade nur ne 3060. DLSS->Leider nur ne 6700XT.:-P
Bei dem proprietären Kram verlieren alle! Die einzig akzeptablen Lösungen die sich durchsetzen werden ist ein De-Facto-Standard wie FSR oder ein ähnlicher Standard mit Referenzumsetzung wie XeSS.

Und falls AMD da doch für bezahlen würde(neben dem Stellen von Entwicklungshardware, die DLSS nicht unterstützt): Sonst sind doch alle immer gleich dafür die "richtige" Lösung aufzuoktroyieren: "Und bist du nicht willig, so brauch ich Gewalt...". Spart in dem Falle sogar Elektroschrott, weil man alte Dinge nicht entsorgen muss. Eigentlich müsste die Energiesparfraktion, denen 5 Watt beim 2. Monitor zu viel sind ja jetzt Jubeln; oder impliziert das, dass der Rechner sinnlos 24/7 läuft? Falls ja hab ich nichts gesagt, dann hat alles Hand und Fuß... :devil:
 
Zuletzt bearbeitet:
Nur mit einer halbwegs aktuellen GPU macht das Spaß.
Ich kann ehrlicherweise behaupten, dass ich einen ROG Ally besitze, verbaut ist da ja nicht einmal eine besonders starke APU, aber selbst aktuellere Games (sicher keine Grafikperlen) wie FIFA und F1 laufen annehmbar schnell (60fps Lock). Ich sehe natürlich deutlich einen Untwrschied zum PC, aber wieviele sehen den nicht? Oder besser gesagt wissen es nicht besser?
Ich stelle mir das Gesicht des Käufers eines brandneuen, teuren "Gaming-PCs" von Aldi oder Mediamarkt vor, der beim Laden des ersten Spiels ausgegraute Optionen im Menü sieht: Framegen->Schade nur ne 3060. DLSS->Leider nur ne 6700XT.
Naja, einem von tausend wird das wohl passieren, die anderen 999 wissen ja nicht einmal was das ist, ob das gut oder schlecht ist usw.
 
Die Rufschädigung ist bereits erfolgt, weil AMD nicht reagiert, oder in Stellungsnahmen ausweicht.
Was will man bei solchen "Journalisten" auch antworten? Das ist ja wie die Klatschpresse. Da steht dann auf der Titelseite: "AMD gibt zu Entwickler technisch zu beraten!" und im Artikel dann die Aussage von AMD: "...natürlich stehen wir den von uns unterstützten Studios beratend zur Seite, um ... die besten Lösungen zu entwickeln. Wir sehen FSR als die beste Lösung am Markt!"
Man ist nicht schlauer als vorher, aber die Seiten sind gefüllt und die Klicks generiert. Und das redigierte Interview lässt alle Arten von Spekulationen zu: Dementi? Eingeständnis?
Schreibt einfach gleich Horoskope, hat mehr Substanz(@wccftech und die ganzen "news-Aggregatoren").
 
Ich warte wie von allen die das behaupten eine quantitative Analyse die belegt dass das Bild faktisch besser ist.
Du meinst qualitative Analyse? Die gibt es noch und nöcher im Netz, das muss man hier nicht mehr neu diskutieren.
AMD hat sich zwar dagegen entschieden, aber auch Nvidias Ansatz ist wirklich kein komplexes AI gebilde da wird die Hauptarbeit auch von normalen Algorithmen umgesetzt.
Es wird immer noch ein allgemeines KI Netzwerk, also ein Referenzbild genutzt, dem sich das vom konvolutionären auto encoder generierte annähert.
Ich würde vermuten der Qualitätsunterschied zwischen DLSS und FSR speist dich genau aus diesem Umstand.
 
Zuletzt bearbeitet:
Naja, einem von tausend wird das wohl passieren, die anderen 999 wissen ja nicht einmal was das ist, ob das gut oder schlecht ist usw.
Aber "an" bzw. "Regler rechts" oder "Zahl größer" ist vermutlich besser, das weiß auch der Laie. Gibt ja zum Glück ein paar Spiele, die so Minivorschauen haben oder eine kurze Erklärung(auch bzgl. braucht CPU-Leistung, braucht RAM etc.). Das finde ich lobens- und fördernswert.
Optionsmenüs müssen ja nicht gleich in Doktorarbeiten ausarten wie bei SeriousSam oder damals TR6.
 
Zuletzt bearbeitet:
Was will man bei solchen "Journalisten" auch antworten?
Das, nachdem man gefragt wurde? Nvdia hat das offensichtlich hinbekommen.
Die Schuld bei den Journalisten zu suchen um AMD reinzuwaschen, ist doch sehr weit hergeholt, meinst du nicht?

Naja, einem von tausend wird das wohl passieren, die anderen 999 wissen ja nicht einmal was das ist, ob das gut oder schlecht ist usw.
Also weiß nur jeder 1000 Nutzer mit einem Gaming PC was aktuelle Technologien sind?
Die Aussage ist genauso zurechtgebogen wie die 5% DLSS Nutzer.
 
Das, nachdem man gefragt wurde? Nvdia hat das offensichtlich hinbekommen.
Die Schuld bei den Journalisten zu suchen um AMD reinzuwaschen, ist doch sehr weit hergeholt, meinst du nicht?
Wenn einer "schuld" ist dann der Entwickler, der sich hat überzeugen lassen, seine Entwicklungszeit in anderes zu stecken, als einen Blumenstrauß an Upscalingtechniken. Kann man immer noch nachreichen, wenn das eigentliche Produkt fertig ist und die Nachfrage hoch. Die letzten Releases(SW etc.) zeigen doch, dass Entwicklungszeit an anderen Stellen dringender nötig ist(z.B. Speichermanagement, damit nicht Upscaling die Matschtexturen nachschärfen muss, und deshalb besser aussieht als nativ).

NVidia ist natürlich als Dritter fein raus. Die haben mutmaßlich mit der Sache ja nichts zu tun, obschon sie von der Debatte am meisten profitieren. Nach dem 4080/4070ti-Stunt der ihnen auf die Füße gefallen ist sind die sicher froh, dass die exakt gleiche Nummer bei der 4060 trotz negativer Presse und mieser Verkäufe nicht aufgefallen ist und jetzt die Konkurrenz im Fokus steht. Im Interview können die auch nur sagen: "Haben wir nichts mit zu tun. DLSS ist überlegen." Weiter wird man auch da nicht gehen, und den schwarzen Peter den Entwicklern(als möglichen Partnern in der Zukunft) zuschieben. AMD wird auch nicht die Entwickler als Partner anschwärzen, das macht man einfach nicht.
 
In anderen Threads wo Nvidia hart angegangen wurde, wurde auch auf Fakten gepocht, dass darf man hier auch.
Das Problem daran ist, dass der geforderte Fakt niemals existieren wird. Weder wird AMD sich hinstellen und sagen: "Ja stimmt", noch wird ein Vertragspartner AMD in den Rücken fallen und irgendwas leaken.
Das Resultat ist also, dass AMD damit durchkommt? Ne, sorry.
Bei den Indizien ist es viel wahrscheinlicher, dass an der Behauptung was dran ist und AMD es aussitzt.

Ich warte wie von allen die das behaupten eine quantitative Analyse die belegt dass das Bild faktisch besser ist.
Ich kann dir einen technischen Grund nennen, weshalb DLSS besser ist: die Tensorcores.
DLSS arbeitet mit mehreren Samples, um das Bild zu "rekonstruieren". Durch die Tensorcores können mehrere Samples verarbeitet werden, ohne dass die Leistung sonderlich darunter leidet. FSR kann das nicht.

Mehr Samples => bessere Bildqualität. FSR muss sich hier mit weniger Samples begnügen oder die Leistung sinkt.
Also kann man die gleichen FPS erreichen, aber ein schlechtere Bildqualität oder eine äquivalente Bildqualität und dafür weniger FPS.
 
Zuletzt bearbeitet:
Du meinst qualitative Analyse? Die gibt es noch und nöcher im Netz, das muss man hier nicht mehr neu diskutieren.
Nein ich habe quantitativ gesagt und das meine ich exakt so. Jede qualitative Analyse kann weder einen Bias erkennen noch genau bestimmen wie weit ein DLSS Bild von einem normalen Sumpergesampleten abweicht. Es bleibt immer eine Interpretation was richtig ist und ohne harte numerische Fakten nichts als "heiße Luft".
Es wird immer noch ein allgemeines KI Netzwerk, also ein Referenzbild genutzt, dem sich das vom konvolutionären auto encoder generierte annähert.
Ich würde vermuten der Qualitätsunterschied zwischen DLSS und FSR speist dich genau aus diesem Umstand.
Es wird zwar ein NN genutzt aber es betreibt keinerlei Bildpunktprädiktion es entscheidet nur welche Abtastpunkte verwertet werden.
Der Qualitätsunterschied wird wohl daran liegen, dass eine AMD erstmal eine sinnvolle Heuristik für die Prädiktion entwickeln muss damit diese gute Ergebnisse erzielen kann. Da kann ein NN sehr mächtig sein und wesentlich schneller und effektiver ans Ziel führen. AMD liefer ja gerade quasi den Beweis^^
AMD bräuchte da wesentlich mehr Ressourcen und gerade die GPU Abteilung von AMD wird ja sehr stiefmütterlich behandelt.
Das Problem daran ist, dass der geforderte Fakt niemals existieren wird. Weder wird AMD sich hinstellen und sagen: "Ja stimmt", noch wird ein Vertragspartner AMD in den Rücken fallen und irgendwas leaken.
Das Resultat ist also, dass AMD damit durchkommt? Ne, sorry.
Bei den Indizien ist es viel wahrscheinlicher, dass an der Behauptung was dran ist und AMD es aussitzt.
Na dann darfst du dich bei einem realistischen Anti-Nvidia Gerücht ja nicht über das Bashing beschweren ;)
Ich kann dir einen technischen Grund nennen, weshalb DLSS besser ist: die Tensorcores.
DLSS arbeitet mit mehreren Samples, um das Bild zu "rekonstruieren". Durch die Tensorcores können mehrere Samples verarbeitet werden, ohne dass die Leistung sonderlich darunter leidet. FSR kann das nicht.

Mehr Samples => bessere Bildqualität. FSR muss sich hier mit weniger Samples begnügen oder die Leistung sinkt.
Also kann man die gleichen FPS erreichen, aber ein schlechtere Bildqualität oder eine äquivalente Bildqualität und dafür weniger FPS.
Hast du dafür Beweise? Die ersten FSR Versionen sind Charaktere in Tiny Tina förmlich zerbröselt weil die Prädiktion Bildpunkte zu lange an der falschen Positionen gehalten hatte. Und das über Sekunden! Das widerspricht eigentlich deiner Behauptung.
Zudem gibt es auch bei nicht RTX GPUs Einheiten die diese Berechnungen durchführen können.
Nvidia selbst spricht auch davon dass es an den Heuristiken scheitert und das NN in dem Kontext überlegene Ergebnisse erzielt.
 
Das Märchen, dass alles nur in Hardware ginge singt NVidia aber schon seit dem Ageia(Physix) Kauf.
Danach bräuchte man ja nicht mehr weiter lesen. "Benachrichtigung der Konkurrenz durch hairworks"...

Nvidia sagt nicht, das alles nur in Hardware geht usw.

Ich sage das es zumindest vorerst in Hardware schneller/besser geht.
Zu dem Zeitpunkt an dem das nicht mehr so ist, ist es uns wieder Latte , weil die nächste durch Dorf getrieben wird. (Nicht negativ gemeint)


Der nächste der sich wegen dem fehlenden Open source bei Nvidia beschwert, soll sich einfach vorstellen das ihm zehn Fette Weiber mit dem nackten Allerwertesten ins Gesicht springen.

Das nv deren dlss Technik nicht öffnet ist selbstverständlich und richtig. Wer das nicht versteht muss eigentlich noch an den Weihnachtsmann glauben .
 
An der Stelle sind mindestens alle Nutzer benachteiligt, die die Möglichkeit haben DLSS2 zu nutzen, bzw die mit DLSS3 fähigen Karten.
Dadurch ist einfach mehr Bildqualität, mehr Leistung bei gleicher Qualität und ein riesiger Boost mit FG und deutlich weniger Stromverbrauch möglich.
Zu behaupten niemand sei benachteiligt ist und bleibt harter Bullshit und ich kann einfach nicht verstehen, warum man diese Haltung in einer Hardware Community pflegt.
Du bist einfach eine unehrliche Type Cleriker. Nach außen hin vertrittst du die Schutzbehauptung man solle DLSS implementieren und nach innen ist es dir völlig egal, wie dein Beitrag mit sehr eindeutigen Falschaussagen belegt.
Eben nicht. Du weißt doch, dass ich einer von denen bin die nativ bevorzugen, wenn es um dieses Thema geht. Mir ist DLSS bisher nicht wichtig und FSR ebensowenig. Auch das nutze ich bisher nicht. Das einzige Spiel wo ich es bisher genutzt habe, aber auch erst letztens, ist Cyberpunk, um mir pathtracing dort anzuschauen. Spielen werde ich es so nicht. Dafür ist meine 4080 zu schwach.
Du sagst es doch... in einer Hardware Community. ICH bin dereinung, dass ich im gleichen Maße wie der Preis steigt, auch die Hardware wachsen sollte. Ich hatte von Anfang an SLI Systeme und später auch Crossfire Setups und mir hat das Spaß gemacht. Heutzutage gibt's Karten mit vier Slots an Kühlung, aber nicht mehr Platine. Warum eine Software Zwischenbilder berechnen lassen und nicht eine zweite Karte? Diese aktuelle Softwarelösung ist in meinen Augen nur ein halbgarer Notnagel, mehr nicht (wenn auch kein schlechter). Wie geht's denn weiter? Wie viele Zwischenbilder sollen da noch kommen? Theoretisch müsste der nächste Schritt dann sein, Vorhersagen noch und nöcher zu treffen. Das wäre dann aber nichts als ein aimbot und würde den persönlich Spielstil beeinflussen und das kann wohl niemand toll finden. Nein, es braucht zwangsläufig mehr Rechenleistung und davon viel, sonst wirds immer nur mit Abstrichen gehen.

Sag doch mal, wie sehen deiner Meinung nach die nächsten Schritte in dem Bereich aus? Worauf willst du mit deiner Kaufentscheidung hinaus? Was denkst du wird Nvidia liefern? Die nächsten zwei bis drei Schritte und das Ergebnis daraus einfach mal beschreiben.

Um deine Aussage nochmal aufzugreifen... Das beißt sich kein Stück. Nur weil mir diese Technik egal ist, kann ich mir doch für andere, die sie mögen, wünschen dass sie implementiert wird. Das unterscheidet uns beide eben grundlegend voneinander. Ich gönne jedem sowas, nicht nur einer Fraktion und auch nicht nur dann, wenn ich was davon hätte. Soll doch jeder andere glücklich werden damit, ich warte dann einfach eine Gen, oder zwei und spiele es dann ohne upsampling.

Nur! Was du als Benachrichtigung auslegst, sehe ich nicht so. Aktuell hätte jeder upsampling, ganz egal wer. Das ist also die Basis. DLSS wäre eine Bevorzugung. DLSS nicht zu haben, wäre kein Nachteil, sondern einfach nur kein Vorteil, keine Sahnehaube auf dem Eis, aber nicht schlimm. Du scheinst DLSS samt FG als Ausgangssituation zu sehen, die absolut immer da sein müsste. Da bin ich anderer Meinung, so wie der ein oder andere Entwickler scheinbar auch. Sprich, es ist nice to have, aber kein Beinbruch wenn nicht.
 
Wenn es kein DLSS gibt, nimmt man halt als Nvidia-User DL-DSR, das geht immer - auch in jedem AMD-gesponsorten Spiel, weil es über den Treiber erzwungen wird.

Wenn die GPU das dann nicht mehr packt, weil die Auflösung zu hoch ist, nimmt man halt einen niedriger auflösenden Monitor oder spielt es auf der nächsten GPU, die dann mit mehr Rohleistung auffährt.

Ich sehe hier deshalb auch kein Problem. FSR würde ich aber auch niemals nutzen. Das muss ich mir nicht antun.
 
Zurück