"Irgendwas mit DLSS"

vicares

Komplett-PC-Aufrüster(in)
Ich finde den Aufriss billiger AMD bei jeder Gelegenheit zu verteidigen.
Erst Marktmanipulation und dann völlig irreführende Werbung.

Marktmanipulation?
ernsthaft jetzt?
Team Lederjacke hat das Dev-Support Programm schon seit 20 Jahren am Start,
the way its meant to be played, sagt Dir als Fanboy hoffentlich was...
Gefühlt in jedem Blockbuster der vergangenen 2 Dekaden am Start.

Starfield implementiert kein DLSS 3, wozu auch wenn es eh nur auf GeForce 40XX läuft?
Die Hardware von Team Lederjacke und intel laufen dennoch.

Als Team Lederjacke Assassins Creed z.B. supportet hat, wurde Direct 10.1
nachträglich aus dem Spiel gepatcht, weil NV Karten das damals nicht in Hardware konnten.
AMD User hatten daraufhin 20 % Leistungseinbruch zu verzeichnen.
Noch mal, war im Spiel implementiert und wurde nachträglich auf Druck von NV entfernt.

GTA IV wurde ebenfalls von GIERSCHLUNDDERDENHALSNICHTVOLLKRIEGT
supportet und startete zu Beginn erst gar nicht auf AMD Hardware.

Also noch mal bitte, wie war das mit Marktmanipulation?
 
Marktmanipulation?
ernsthaft jetzt?
Was wäre der Ausschluss von Konkurrenztechnologien sonst?
Starfield implementiert kein DLSS 3, wozu auch wenn es eh nur auf GeForce 40XX läuft?
DLSS 3 läuft auch auf RTX Turing Karten.
Als Team Lederjacke Assassins Creed z.B. supportet hat, wurde Direct 10.1
nachträglich aus dem Spiel gepatcht, weil NV Karten das damals nicht in Hardware konnten.
Ja, sehr wahrscheinlich, auch wenn die Devs etwas anderes behaupteten.
Grundsätzlich fällt es mir aber schwer ständig auf Verfehlungen anderer zu verweisen die Jahrzehnte zurückliegen um andere reinzuwaschen. Das funktioniert einfach nicht.
Also noch mal bitte, wie war das mit Marktmanipulation?
Siehe oben, habe ich bereits ausgeführt.
 
Ouhhh .. jetzt geht es endlich wieder rund hier!
Da werden die Argumentationsmesser gewetzt, mit Jugendsprache versucht zu beeindrucken, der Schimpfwortfilter neu angelernt und alle, die bisher im Herstellergraben alles runtergeschluckt haben, explodieren endlich in einem Feuerwerk selbstloser Hingabe bei der Verfechtung subjektiver Weltanschauung.
ICK FREU MIR SO!! :banane:
 
Was war denn mit G-Sync damals. Und was is mit den von nvidia "gekauften" Spielen, wo es komischerweise kein fsr gibt?
Was interessiert es was damals war? Lebst du in der Vergangenheit? Und nein, es gibt quasi keine sponsored DLSS Spiele in letzter Zeit ohne FSR.
Und seit wann läuft dlss 3 auf turing Karten?
Seit dem Release von Ada Lovelace.
 
Was interessiert es was damals war? Lebst du in der Vergangenheit? Und nein, es gibt quasi keine sponsored DLSS Spiele in letzter Zeit ohne FSR.
Astreine Logik. Warten wir also einfach 2 Monate ab, dann liegt die Situation mit AMD auch in der Vergangenheit. Oder geht die Argumentation nur in eine Richtung?

Seit dem Release von Ada Lovelace.
Er meinte mit DLSS 3 vermutlich Frame Generation und nein das läuft nicht auf RTX 3000 und darunter (Nur Lovelace support)
 
Was wäre der Ausschluss von Konkurrenztechnologien sonst?

DLSS 3 läuft auch auf RTX Turing Karten.

Ja, sehr wahrscheinlich, auch wenn die Devs etwas anderes behaupteten.
Grundsätzlich fällt es mir aber schwer ständig auf Verfehlungen anderer zu verweisen die Jahrzehnte zurückliegen um andere reinzuwaschen. Das funktioniert einfach nicht.

Siehe oben, habe ich bereits ausgeführt.
Läuft fsr auf nvidia Karten? Ja? Problem gelöst

Edit: und die die immer behaupten fsr ist unbrauchbar da die Qualität ja so viel schlechter wie bei dlss ist (stimmt eh schon lang nicht mehr), sind die, die sagen 8gb gpu rsm sind völlig ok bei >400 Euro Karten, man kann ja Qualität im Notfall auf minimum stellen..
Ergibt das Sinn?
 
Und wenn's kein DLLS gibt - so what, dann verwendet man halt FSR. Klar es ist nicht so gut wie DLLS, aber im Qualitätsmodus ist auch FSR2 ziemlich akzeptabel.
Es heißt DLSS - Deep Learning Super Sampling. FSR bietet kein Frame Generation, was mach ich jetzt?

Ich finde aber die Aufregung um die AMD Exklusivität des Games sowas von lächerlich, weil sich nämlich auch niemand aufregt wenn zB CPR für das Pathtracing-Update auch NUR nvidia-Karten als Systemanforderungen angibt, aber bei AMD wird wieder ein Theater veranstaltet...
Lag ganz bestimmt nicht daran, dass AMDs schnellstes Pferd (7900XTX) nur einstellige FPS Werte liefern konnte.
Das kann es definitiv nicht sein ;)

Läuft fsr auf nvidia Karten? Ja? Problem gelöst
Nö, eben nicht. Mein Anspruch ist nicht nur "hauptsache Open Source". Ich möchte die bessere Technologie nutzen und das ist aktuell DLSS3 + FG. FSR3 gibt es bis heute nicht und wer weiß, ob das jemals so kommt wie von AMD anfangs beworben, deshalb müssen sämtliche Nvidianutzer auf FG verzichten, wenn nur FSR implementiert wird.
 
Kann die Redaktion bitte endlich ein Video machen wo gezeigt wird das dlss und fsr mittlerweile in der Praxis kaum noch Unterschiede haben?
Gibt genügend YouTube Videos dazu.. gabs nicht sogar einen Blindtest von der PCGH dazu?

Das ist ja schon so nervig wie der Mythos das Btrfs Daten verliert..
Heute ist heute und nicht vor 5 Jahren...
 
Nö, eben nicht. Mein Anspruch ist nicht nur "hauptsache Open Source". Ich möchte die bessere Technologie nutzen und das ist aktuell DLSS3 + FG.
Das Problem ist halt das selbst Intels XeSS (obwohl halb Open source) mittlerweile in vielen Spielen bessere Ergebnisse liefert als FSR.
Und ich gehe auch davon aus das Intel frame Generation eher hinbekommen wird als AMD.

FSR ist momentan die schlechteste upscaling Technologie und ohne Deep learning/KI Einsatz wird sich das auf kurz oder lang auch nicht ändern.
Wir sehen ja jetzt schon das FSR quality meist nur DLSS balanced entspricht..

Und wenn wir uns quality vs quality ansehen reden wir zwar von fast gleichen FPS Zugewinn aber nicht mehr von der gleichen Bildqualität.
Oder anders ausgedrückt.. will ich etwa gleiche Bildqualität vergleichen dann hat Nvidia die Nase vorne was FPS angeht weil man ganz einfach in einem anderen Preset ist.
Kann die Redaktion bitte endlich ein Video machen wo gezeigt wird das dlss und fsr mittlerweile in der Praxis kaum noch Unterschiede haben?
Gibt genügend YouTube Videos dazu.. gabs nicht sogar einen Blindtest von der PCGH dazu?

Das ist ja schon so nervig wie der Mythos das Btrfs Daten verliert..
Heute ist heute und nicht vor 5 Jahren...
Hardware unboxed hat ein solches Video gemacht.. mit ziemlich vernichtenden Ergebniss für AMD.
Im besten Fall kann FSR quality so Grade mit DLSS quality mithalten (ist aber nie besser) in der Regel aber FSR-Q = DLSS-B
Im worstcase sogar nur DLSS-P
 
Kann die Redaktion bitte endlich ein Video machen wo gezeigt wird das dlss und fsr mittlerweile in der Praxis kaum noch Unterschiede haben?
Gibt genügend YouTube Videos dazu.. gabs nicht sogar einen Blindtest von der PCGH dazu?
Den Vergleichstest gab es bereits als Plus-Artikel und auch im Heft 12/2022.


Wer dann immer noch FSR2.x mit DLSS3 gleichsetzt, gut, kann man nix machen.
 
Lag ganz bestimmt nicht daran, dass AMDs schnellstes Pferd (7900XTX) nur einstellige FPS Werte liefern konnte.
Das kann es definitiv nicht sein ;)
Im Umkehrschluss ist also auch eine 3090 zu langsam für Raytracing ?
Gar nicht so lange her, da wurde diese Karte als Traum aller Fans der Strahlenverfolgung angesehen.
Und CP ist mit seinem Pathtracing ein (Nvidia) Showcasetitel, der mit der Allgemeinheit der RT Implementationen da draußen nicht viel gemeinsam hat.
Es gibt heutzutage wirklich nur noch schwarz/weiß.
Entweder etwas ist Müll oder das einzig Wahre.
FSR funktioniert, es liegt an den Devs und den verwendeten Algorithmen.
Bei der einen Methode wird dieser von Hand gemacht, bei der anderen mit Hilfe einer KI.
Mann muss nicht jeden Mist überdramatisieren.
 
AMD wird es hinbekommen, aber nicht ohne Nutzung der KI-Kerne, womit man sämtliche alten Karten und die Konkurrenz außen vor lässt. Bin mal gespannt, mit welcher Hirnakrobatik das dann wieder verteidigt wird.
Das sie es hinbekommen bezweifle ich auch gar nicht.. die Frage ist nur in welcher Qualität

Das ist eben das was die Leute nicht verstehen. Der KI Anteil wird immer wichtiger. Denn schon jetzt hängt FSR2 an nen Punkt wo es ohne KI/Deep learning kaum noch Fortschritte gibt.
Und das funktioniert einfach ohne spezialisierte Hardware KI-einheiten nicht.

Nicht umsonst steigen sie langsam selbst auf den Zug mit den KI Kernen auf..
Auf kurz oder lang wird der Open Source Aspekt von FSR dementsprechend sterben

Deswegen ist auch die Open source Argumentation für mich nur eine Farce wenn man mal n bisschen weiter denkt.
Nicht umsonst kommuniziert zb Intel mit ihrem XeSS
"Ja es funktioniert auf anderen Karten.. aber nicht so gut wie wenn unsere KI-kerne genutzt werden"
 
Es heißt DLSS - Deep Learning Super Sampling. FSR bietet kein Frame Generation, was mach ich jetzt?


Lag ganz bestimmt nicht daran, dass AMDs schnellstes Pferd (7900XTX) nur einstellige FPS Werte liefern konnte.
Das kann es definitiv nicht sein ;)


Nö, eben nicht. Mein Anspruch ist nicht nur "hauptsache Open Source". Ich möchte die bessere Technologie nutzen und das ist aktuell DLSS3 + FG. FSR3 gibt es bis heute nicht und wer weiß, ob das jemals so kommt wie von AMD anfangs beworben, deshalb müssen sämtliche Nvidianutzer auf FG verzichten, wenn nur FSR implementiert wird.
Wieviel % aller Spieler können FG benutzen?? Eine absolute Minderheit...
 
Mein Problem gerade mit der FSR/DLSS/XeSS-Diskussion bei Starfield ist, das es nahezu egal sein kann, weil es ein Singleplayer-Action Adventure ist, wo man auch ganz entspannt mit 60FPS leben kann.
Man darf halt nicht vergessen: Alle Technologien, egal wie gut sie sind, werden immer einen Qualitätsverlust verursachen. Wenn ich eine RTX 4090 bsp. habe, versuche ich darauf zu verzichten. Habe ich nur eine RTX 3050, ist das eine tolle Lösung für eine bessere Performance.
Auch ich werde mit meiner RX 6900 XT erstmal ohne arbeiten. Wenn die 60 FPS auf 4K nicht zu halten sind, muss ich entweder eine Einstellung ändern oder FSR einschalten. Aber freiwillig tu ich das i.d.R. nicht.
Um es für mich abzuschließen: Ich finde Exklusivität immer blöd, auch wenn FSR per se ein offener Standard ist. Aber Alternativ-Technologien zu verschließen: Ist halt kacke.

Zu den KI-Kernen: Wir wissen, dass Nvidia im Consumer-Segment damit schon sehr gut performt. AMD/Xilinx darf man absolut nicht unterschätzen, da diese hier einen riesigen Erfahrungsschatz haben, aber derzeit nur auf Enterprise-Fokus unterwegs sind.
 
Mein Problem gerade mit der FSR/DLSS/XeSS-Diskussion bei Starfield ist, das es nahezu egal sein kann, weil es ein Singleplayer-Action Adventure ist, wo man auch ganz entspannt mit 60FPS leben kann.
Man darf halt nicht vergessen: Alle Technologien, egal wie gut sie sind, werden immer einen Qualitätsverlust verursachen.
Dann hätten wir da DLAA
Quasi DLSS auf nativer Render Auflösung was momentan das qualitativ beste Anti Aliasining verfahren ist und spielinternen TAA meilenweit in den Schatten stellt.

Bis heute gibt es kein offizielles FSR@Nativ Anti aliasing seitens AMD

Und wenn ich die RTX4080/90 wirklich auslasten will @60fps dann schalt ich DLSRDLSS dazu und Render das ganze Deep learning gestützt in einer noch höheren Auflösung und hab Mal so richtig knackige Qualität
 
Etwas das FSR ja nicht kann?
...................
FSR?
Leider taugt FSR2 bis hierher nur für die 4k Auflösung. Alles Auflösungen darunter, ne sorry, einmal unabhängig davon, dass ich grundsätzlich nach Möglichkeit auf jedwede Bildvermatscher verzichte. Und nein: TAA + native Auflösung ist nicht nativ.
 
Im Umkehrschluss ist also auch eine 3090 zu langsam für Raytracing ?
Kannst du lesen? Meine Aussage bezog sich auf das Pathtracing in CP2077 und von der 3090 war nie die rede, aber auch dort erreicht sie in 4K ca. 30 FPS. In 1080p sinds über 80 FPS. Das ist definitiv spielbar, je nachdem, was dein Anspruch ist

Gar nicht so lange her, da wurde diese Karte als Traum aller Fans der Strahlenverfolgung angesehen.
Technologie entwickelt sich weiter und bleibt nicht stehen? Sag bloß! Ist ja ein Ding! :ugly:

Und CP ist mit seinem Pathtracing ein (Nvidia) Showcasetitel, der mit der Allgemeinheit der RT Implementationen da draußen nicht viel gemeinsam hat.
Und? Was du in CP siehst ist die Zukunft/das Ziel. Die meisten Spiele sind Hybride, weil die Verbreitung von RT entweder zu gering war oder die Karten zu schwach (AMD).

Es gibt heutzutage wirklich nur noch schwarz/weiß.
Entweder etwas ist Müll oder das einzig Wahre.
Das ist tatsächlich eine traurige Entwicklung.

FSR funktioniert, es liegt an den Devs und den verwendeten Algorithmen.
Bei der einen Methode wird dieser von Hand gemacht, bei der anderen mit Hilfe einer KI.
Mann muss nicht jeden Mist überdramatisieren.
Und die KI gestützte Variante ist qualitativ besser. Dazu kommt noch Frame Generation.
Keine Ahnung warum das von dir und anderen immer so relativiert und kleingeredet wird.
 
Zurück