Fidelity FX Super Resolution: AMDs "DLSS" funktioniert auch mit Geforce-GPUs

Wozu? Nach der Logik müsste der Open Source Ansatz 100% abdecken. Ich hab generell wenig Zweifel das DLSS sich ganz ordentlich verbreiten wird kurzfristig, stellt sich die Frage ob die Entwickler auf Dauer Lust haben diese ganze Fragmentierung durch die bekloppten GPU Hersteller mitzumachen in gleich 10 Bereichen. Da wird sich am Ende durchsetzen was sich lohnt, was das sein wird wird man sehen auf Dauer, der Prozess ist ja durchaus dynamisch und ständig kommt ne neue Sau um die Ecke die durchs Dorf getrieben werden will.
Der Open Source Ansatz soll nach der Logik direkt 100% abdecken? Mitnichten, der muss auch in die Engines / Games implementiert werden. Sonst hätte man in der Präsentation bestimmt nicht erwähnt dass bereits 10 Engines / Studios FSR implementieren.

Edit: Und dass Du keine einzige oft verwendet Engine aufzählen kannst die keinen DLSS Support bekommt spricht für sich...
 
Der Open Source Ansatz soll nach der Logik direkt 100% abdecken? Mitnichten, der muss auch in die Engines / Games implementiert werden. Sonst hätte man in der Präsentation bestimmt nicht erwähnt dass bereits 10 Engines / Studios FSR implementieren.

Edit: Und dass Du keine einzige oft verwendet Engine aufzählen kannst die keinen DLSS Support bekommt spricht für sich...
Du haust doch hier wieder Superlativen raus mit 90% nicht ich, bis DlSS eine Marktabdeckung in der Größe erreicht gibt es bereits ein zweites Pangaea.
 
Du haust doch hier wieder Superlativen raus mit 90% nicht ich, bis DlSS eine Marktabdeckung in der Größe erreicht gibt es bereits ein zweites Pangaea.
Was glaubst Du denn mit welchen Engines die meisten 3D Spiele laufen? Google das doch mal. Du wirst folgendes finden:

1. Unreal, hat bereits RT + DLSS
2. Unity, bekommt bald RT + DLSS
3. Amazon Lumberyard
4. CryEngine

Und das war es dann schon. Wobei Platz 3 und 4 mittlerweile ziemlich outdated sind.

Dann gibt es da noch die, nennen wir sie "Studio Engines":

ID Tech - Doom Eternal etc, bekommt aktuell RT + DLSS
Disrupt Engine - Watch Dogs Legion, hat bereits RT + DLSS
RED Engine - CP2077, hat bereits RT + DLSS
IW Engine - CoD, hat bereits RT+DLSS
Snowdrop Engine - The Division, Die Siedler, RT + DLSS Support unklar
Frostbite - Battlefield, hat bereits RT+DLSS

Ansonsten gibt's im 3D Bereich nichts was meines Wissens nach erwähnenswert wäre. Mea culpa wenn ich 1-2 Engines vergessen habe.
 
Solange es sich nicht in die Richtung entwickelt, dass DLSS oder FFSR zur Voraussetzung für 60fps wird...

In 2-3 Jahren packt keine "Next bzw. Current-Gen" Konsole einen First Party Kracher mit mehr als 30FPS ohne FSR, da wird die 60FPS angepeilt und zwar mit Upsampling^^.

Diese FPS, welche dir in den Kopf kommen, können ausschließlich sündhaft teure, nicht lieferbare GPUs leisten, die sich kein Mensch kauft, weil AFAIK eig. unnütze^^.

Gott, nichtmal ne RTX3090/RX6900XT packen 4K 120Hz, teilweise nichtmal mit Quality DLSS, da willst du 120FPS mit ner Konsole?! Vll. im tiefsten aller tiefsten Modi, aber die gibts auf ner Konsole eh nie zur Auswahl, er glaubt die Entwickler würden einem die Wahl der Grafikeinstellungen auf der Konsole lassen, der irrt. Da gibts - 30 FPS 4K Native, 60 FPS - Quality FSR - maybe 120 FPS in Ultra-Ultra-Performance FSR und dann hast du meist wirklich ein verwaschenes Bild^^.
 
vier :daumen:

Solche Features sind ja schön und gut, aber einschalten würde ich das bestimmt nicht.

Am besten noch Kantenglättung deaktivieren weil die ja auch Bild und Pixel verändern und Bildschärfe beeinflussen.^^

Heißt ihr würdet eher neue Effekte wie RT/Lumen, volumetrische Beleuchtung/Nebel/Wolken usw abschalten oder Grafiksetting zurückfahren nur um native Pixelausgabe zu erreichen?
Neue Engine werden sicherlich auch anspruchsvoller und immer schwer für etwas grafische Verbesserungen mit genug Leistung zu stemmen.

Bevor ich persönlich in einem Game auf mittlere Settings stellen muss um z.B. 4k zu erreichen nehme ich lieber guten Upscaler mit hohen Settings. Zumindest ist es bisher bei den guten DLSS 2.0 Implementierungen der Fall dass der Mix oft ansehnlicher ist als Beleuchtung, Verschattung usw nur für native Auflösung zurückzufahren oder mit recht schwankenden Framerate zu leben.

Kommt doch immer auf das Game und Artstyle an wie Auflösung und Grafiksettings zusammenspielen.

Wette dass viele Leute in einem Blindtest sich schwer tun Nativ gegenüber guten Upscaler-Implementierung zu unterschieden. Wäre mal interessante Studie ob die Leute ihr natives Bild dann auf den gängigen Monitorgrößen wirklich erkennen.
Im Wohnzimmer an Konsolen wo viele Leute wegen Sitzabstand schon jetzt kaum 1440p und 2160p auseinanderhalten können wird es wohl noch schwieriger.


Persönlich würde ich es vom Game, Settings und gewünschter Performance festmachen ob sich AI-Upscaling lohnt oder man Nativ fahren kann als jetzt schon zu sagen dass nur die Auflösung zählt.
 
Interessant wird es, welches der beiden Verfahren am Ende das bessere ist. Ich vermute mal DLSS. Dass das ganze allerdings auch auf älteren Nvidiakarten läuft, zeigt, dass das ganze auch ohne irgendwelche Tensorkene möglich ist (würde mich nicht wundern, wenn Nvidia schon wieder gelogen hätte und DLSS gar nicht auf den Tensorkernen läuft).

Für den Wettbewerb wäre es natürlich besser, wenn AMDs Lösung gewinnt, da steht uns wohl noch ein Formatkrieg ins Haus.

Meine GTX 670 würde sich allerdings über so ein Upscaling freuen.


Ma gespannt was NVIDIA dann an Performance liefert wenn DLSS und FSR zusammen laufen.

Ich vermute mal, man wird das nicht sinnvoll kombinieren können, da es ja jeweils ein extrem gutes Upscaling ist.

Alternativ kann man ja auch im besseren Verfahren z.B. von 240p aus hochskalieren.
 
In 2-3 Jahren packt keine "Next bzw. Current-Gen" Konsole einen First Party Kracher mit mehr als 30FPS ohne FSR, da wird die 60FPS angepeilt und zwar mit Upsampling^^.

Diese FPS, welche dir in den Kopf kommen, können ausschließlich sündhaft teure, nicht lieferbare GPUs leisten, die sich kein Mensch kauft, weil AFAIK eig. unnütze^^.

Gott, nichtmal ne RTX3090/RX6900XT packen 4K 120Hz, teilweise nichtmal mit Quality DLSS, da willst du 120FPS mit ner Konsole?! Vll. im tiefsten aller tiefsten Modi, aber die gibts auf ner Konsole eh nie zur Auswahl, er glaubt die Entwickler würden einem die Wahl der Grafikeinstellungen auf der Konsole lassen, der irrt. Da gibts - 30 FPS 4K Native, 60 FPS - Quality FSR - maybe 120 FPS in Ultra-Ultra-Performance FSR und dann hast du meist wirklich ein verwaschenes Bild^^.
Das ist den DLSS-Jüngern doch total egal. Hauptsache ist, man kann das FPS Display noch lesen und dort steht 120 oder mehr. Der Rest juckt nicht, wer zockt denn noch? Ist doch nur zum Angeben gemacht. :ugly:
 
Danke AMD :daumen:

somit kann ich meine GTX1080 weiter nutzen und kann mir einen Neukauf ersparen,
in der momentanen Situation eh nicht lohnenswert.

Finde es gut, das AMD die Arbeit für NV übernimmt, für die ist meine GPU eh nicht mehr relevant. :nene:
Werde es bei der nächsten GPU auf jeden Fall beim Kauf berücksichtigen...
 
Bitte dann auch jegliche Kantenglättung deaktivieren! Denn ist ja nicht NATIV.
Bei euch merkt man sofort, das da keinerlei Ahnung wie Computergrafik funktioniert dahintersteckt.
Komm, lass gut sein.
Du hast bis heute nicht verstanden was ich damals geschrieben habe. Darin ging es darum was MICH, PERSÖNLICH, NOCH, stört. Du hast daraus gemacht, dass ich die Technik als Mist betitelt hätte. Dem war nicht so und ist auch jetzt nicht so. In death stranding habe ich auch die Wassetkanten kritisiert, genau wie in watch dogs.
Und ob ich jetzt über DLSS höher aufgelöste Kanten Anzeige, oder nativ, das kommt außerhalb der fps aufs gleiche raus. Nur sind Letztere durch DLSS höher, dafür können Sie aber auch schmieren, nachziehen. Das ist nativ nicht so. Klingt nach nem Gleichstand wo sich jeder seinem Gusto nach drei entscheiden kann, genau wie damals. Wahrscheinlich wirst du es aber wieder nicht akzeptieren wollen.

Edit
Ich mein das ja auch nicht böse oder so. Wir sind da einfach verschieden.
 
Zuletzt bearbeitet:
@gerX7a

Scheuklappen abnehmen hilft.

GPUs werden wie von mir erwähnt nicht nur im Desktop-Gaming-Markt gebraucht. AMD ist längst viel breiter im Consumer-Markt aufgestellt.
FSR wird bsw. besonders in Samsungs Mobile-Lösungen enorm wichtig werden. Samsung ist nun mal einer der Big-Player in diesem Bereich. Smartphones und Tablets bsw. lechzen förmlich nach jedem Effizienzgewinn. Durch die kleinen Displays ist ein potenziell minimaler Bildqualitätsverlust dabei sehr gut zu verschmerzen.
Mit den sackstarken AMD-APUs wird FSR zunehmend auch Verbreitung in anderen Mobile-Segmenten finden, da immer mehr Hersteller immer mehr Lösungen mit diesen APUs auf den Markt bringen. Und da FSR sowohl auf AMD-Grafik, wie auch NVidia-Grafik läuft, wird FSR für Entwickler bedeutend interessanter, egal wie viele NVidia-GPUs zu den AMD- und Intel-APUs gepaart werden.
Die Verbreitung von zwei der drei wichtigsten Konsolenreihen werden FSR gerne umsetzen, während die Switch mit NVidia-GPU vorläufig weiter in die Röhre schaut betreffend DLSS.

Ergo, DLSS ist ein Walking Dead, der eigentlich nur noch an Geldinfusionsschläuchen hängt.
Ob DLSS eine etwas bessere Bildquali als FSR hinbringen könnte oder nicht, spielt dabei keine Rolle. Genauso wie es keine Rolle spielte, dass es gegenüber Freesync/Adaptive Sync ein minimal überlegenes, superteures High-Premium-GSync gab/gibt. Platzhirsch wird der, der plattformübergreifend am meisten und mit möglichst geringen Kosten/Aufwänden verbreitet werden kann und da ist FSR schon jetzt um Welten besser aufgestellt.
 
Zuletzt bearbeitet:
Einfach die Auflösung im Spiel reduzieren, das geht in allen Spielen. ;)
Aber nicht in allen Spielen entkoppelt vom Interface... (und das Interface nicht nativ darzustellen stellt eine ziemliche Verschwendung dar)
...ohnehin stellt es eine ziemliche Verschwendung dar, stumpfes Upscaling zu betreiben. Gerade das sollte DLSS 2.X ja eigentlich gezeigt haben.
 
Interessant wird es, welches der beiden Verfahren am Ende das bessere ist. Ich vermute mal DLSS. Dass das ganze allerdings auch auf älteren Nvidiakarten läuft, zeigt, dass das ganze auch ohne irgendwelche Tensorkene möglich ist (würde mich nicht wundern, wenn Nvidia schon wieder gelogen hätte und DLSS gar nicht auf den Tensorkernen läuft).
Ja, AMD's Ansatz läuft auf älteren Karten ohne Tensor Cores. Ja, die erste DLSS Version lief noch auf den CUDA Cores. Die Tensor Cores ermöglichen auch "nur" eine Beschleunigung der Matrizen-Multiplikation wie sie für das Upscaling benutzt wird. RT läuft z.B. auch auf CUDA Cores / normalen Shadern, aber eben deutlich langsamer.

Und was das Lügen angeht, naja, da hat jeder Hersteller so seine Beispiele. Bei AMD wäre da Bulldozer (Anzahl Cores) und SAM (läuft nur auf neuester Hardware) zu nennen. Bei Nvidia noch der VRAM der 970.

Am besten lassen wir so eine Hexenjagd, genau wissen ob etwas wie wo gut drauf läuft kann nämlich keiner von uns 100%ig sagen. Und flunkern tun alle Hersteller.
 
vier :daumen:

Solche Features sind ja schön und gut, aber einschalten würde ich das bestimmt nicht.
In meinen Augen ein Nebeneffekt davon, dass Nvidia immer noch kein DLSS auf Basis von nativer Auflösung gebracht hat: Eigentlich sollte das Ding wirklich ImageQuality4Free bringen, also insbesondere für Personen, die prinzipiell Downsampling betreiben (wie vielleicht ein User mit dem Namen @Downsampler? ;)) ein NoBrainer werden. Nvidia haben bislang darauf basierend aber ausschließlich Modi vorgestellt, die die Performance optimieren.

Sehr schade. Wenn eine Technologie vorgestellt wird, um einen Werkstoff bei gleicher Dicke stabiler zu machen, wären Beobachter ja auch enttäuscht, wenn diese Technologie nur zur Verringerung der praktisch verwendete Dicke verwendet würde...
 
Mit der 8k Unterstützung für DLSS ist die Technik ja sogar effektiv da. Also 8k@DLSS Quality downsamplen auf UHD müsste in die Richtung gehen.
Nur das HUD sieht dann halt so mittel toll aus wenn man die Funktion nicht intern handhabt.
 
@gerX7a

Scheuklappen abnehmen hilft.

GPUs werden wie von mir erwähnt nicht nur im Desktop-Gaming-Markt gebraucht. AMD ist längst viel breiter im Consumer-Markt aufgestellt.
FSR wird bsw. besonders in Samsungs Mobile-Lösungen enorm wichtig werden. Samsung ist nun mal einer der Big-Player in diesem Bereich. Smartphones und Tablets bsw. lechzen förmlich nach jedem Effizienzgewinn. Durch die kleinen Displays ist ein potenziell minimaler Bildqualitätsverlust dabei sehr gut zu verschmerzen.
Mit den sackstarken AMD-APUs wird FSR zunehmend auch Verbreitung in anderen Mobile-Segmenten finden, da immer mehr Hersteller immer mehr Lösungen mit diesen APUs auf den Markt bringen. Und da FSR sowohl auf AMD-Grafik, wie auch NVidia-Grafik läuft, wird FSR für Entwickler bedeutend interessanter, egal wie viele NVidia-GPUs zu den AMD- und Intel-APUs gepaart werden.
Die Verbreitung von zwei der drei wichtigsten Konsolenreihen werden FSR gerne umsetzen, während die Switch mit NVidia-GPU vorläufig weiter in die Röhre schaut betreffend DLSS.

Ergo, DLSS ist ein Walking Dead, der eigentlich nur noch an Geldinfusionsschläuchen hängt.
Ob DLSS eine etwas bessere Bildquali als FSR hinbringen könnte oder nicht, spielt dabei keine Rolle. Genauso wie es keine Rolle spielte, dass es gegenüber Freesync/Adaptive Sync ein minimal überlegenes, superteures High-Premium-GSync gab/gibt. Platzhirsch wird der, der plattformübergreifend am meisten und mit möglichst geringen Kosten/Aufwänden verbreitet werden kann und da ist FSR schon jetzt um Welten besser aufgestellt.
Bisschen weniger Fanboyism würde Dir gut tun. Bitte noch mal meine Liste an Engines anschauen in denen DLSS bereits oder demnächst nativ unterstützt wird. Das sind so ziemlich alle Engines für 3D Spiele die es gibt.

Und bezüglich Mobiles, was soll das denn bitte an der Verbreitung am PC ausmachen? Seit wann werden Mobile Games auf den PC geportet? Und wer würde sowas spielen wollen? :huh:

Welche "immer mehr AMD-APU Produkte" meinst Du denn? Die kleine Zahl an verfügbaren Laptops? Vergleich das mal mit den Volumen mit Intel APU oder Nvidia Grafikkarte...

Bei den Konsolen gebe ich Dir recht, die werden dazu beitragen das Feature zu verbreiten. Aber DLSS bereits den Tod nachzusagen? Klingt ja wie bei Chatstar.
 
Zurück