Fidelity FX Super Resolution: 44 Studios mit dabei, Support für Far Cry 6, Resident Evil Village und Anno 1800

Und deswegen handelt es sich bei DLSS, entgegen der Ansicht einiger, um ein verlust"behaftetes" Verfahren und deswegen ist nativ "immer" besser
Auh Rastern auf die native Zielauflösung muss prinzipbedingt immer mit Verlusten und Artefakten ablaufen.
Um das zu verstehen, sollten sich die Leute, die nach nativer Auflösung schreien, mal mit moderner Enginetechnik und der Rastertechnik per se einlesen.
, da nur dort zu 100 % die visuellen Vorgaben eingehalten werden.
Werden sie nicht, solange die Auflösung des anzeigenden Mediums nicht gegen unendlich strebt.
Und spätestens wenn sich 8k etabliert, ist DLSS und Co. überflüssig,
Genau da wird DLSS noch sinnvoller, als es eh schon ist.
Je höher die Auflösung, umso effektiver wirkt DLSS. Überflüssig wird es schon deshalb nie mehr werden, weil das Verfahren gegenüber des Bruteforce- Rasterns ERHEBLICH effektiver ist.

Ich habe gestern die neue DLSS 2.2 Bibliothek testhalber in Metro Exodus Enhanced integriert und habe nochmal ein par Zahlen verglichen.
Der Verbrauch meiner 3090 geht bei 1440P/60FPS sync von ca 330 Watt Verbrauch nativ auf schwankend 160 - maximal 240 Watt runter.
Und das bei allen Einstellungen auf Ultra/Über/Extrem und natürlich Raytracing.

Nicht nur, dass Verfahren wie DLSS oder andere temporale Upsampling verfahren nicht mehr verschwinden werden, nein- sie werden glücklicher Weise immer weiter zum Standard werden.
Es wäre fast schon fahrlässig so viel Leistung und Bildqualität zu verschenken, jetzt wo man langsam versteht, wie man das immer besser umsetzen kann.

das dann ein von zwei Pro-Argumenten nicht mehr greifen, siehe Details wo vorher keine waren aber,
Genau- Weil es einfach falsch ist.
in dem inhaltlichen Zusammenhang gesehen, vielleicht auch nie gewesen wären. ;)
Folgefehler aus der ersten Annahme, dass DLSS 2.x "falsche" Details generieren würde.

Woher sollte ein DLSS um beim Beispiel Outriders zu bleiben denn wissen, wo eine Liane hängt?
Wie sollte es da etwas dazuerfinden können?

Ganz einfacher Test. Einfach die Auflösung immer weiter erhöhen und an entsprechender Stelle reinzoomen.
Je höher man das Bild auflöst umso mehr gleicht sich die sichtbare Geometrie dem DLSS dargestellten Bild an.

Kann jeder mit Turing/Ampere/Volta ganz einfach selber testen.
 
Zuletzt bearbeitet:
Auh Rastern auf die native Zielauflösung muss prinzipbedingt immer mit Verlusten und Artefakten ablaufen.
Um das zu verstehen, sollten sich die Leute, die nach nativer Auflösung schreien, mal mit moderner Enginetechnik und der Rastertechnik per se einlesen.
Ich verstehe schon wie das funktioniert aber darum ging es nicht.
DLSS ist ein antrainierter Algorithmus der anhand von hochaufgelöstem Ausgangsmaterial trainiert wird aber nicht frame für frame sondern nur beispielhaft und deswegen ist eine hohe native Auflösung qualitativ immer zu bevorzugen und alternativ Downsampling, da da tatsächlich "jeder frame" runtergerechnet wird und so nur "tatsächliche" Informationen verarbeitet, wenn es um Qualität geht. Steigt die HW-Performance ist dann DLSS überflüssig, weil die Ausgabeauflösung steigt und damit der Vorteil von den hinzugerechneten Details entfällt. Bleibt dann noch der Performance-Vorteil aber auch das ist nur eine Frage der Zeit. Unterm Strich ist aber die technische Herangehensweise, da es nicht offen ist und aufwändig angelernt werden muss, dass größte Hindernis bei der Verbreitung. AMD mag da vielleicht technisch noch nicht mithalten, ist aber viel breiter aufgestellt und offener, was der Verbreitung dieser Technologie wohl eher zuträglich ist als bei DLSS, meine ganz persönliche Prognose, wäre ja auch nicht das erste Mal.

MfG
 
Ich finde das sehr gut. Durch die Technik bekommt man schöne Bilder hin ohne unbedingt nativ eine höhere Auflösung zu nutzen. So kann man sich Kosten sparen. Es scheinen ja auch alle modernen AMD Grafikkarten dazu in der Lage zu sein. Auch die Mittelklassemodelle. Weil es nicht hardwareseitig, sondern treiberseitig unterstützt wird.
Anders als bei Nvidia mit den Tensorcores.
 
Steigt die HW-Performance ist dann DLSS überflüssig, weil die Ausgabeauflösung steigt und damit der Vorteil von den hinzugerechneten Details entfällt. Bleibt dann noch der Performance-Vorteil aber auch das ist nur eine Frage der Zeit.
Wann soll diese Zeit kommen? Sehr weit entfernte Zukunftsmusik. Wir schaffen nicht mal durchgängig 4k/60 jetzt. Selbst ohne RT wird es immer neue Effekte in Engine geben die Leistung fressen. Bis wir da 8k oder gar 16k stemmen können bei allen Games werden manche das Zocken schon an den Nagel gehängt haben.
Nur um dann 10-15% besseres Bild zu haben im direkten Vergleich und GPU 380-400Watt aufwärts immer noch frisst. Es ist nicht nur Performancevorteil von Upscaling. Kannst bei gleichem Framerateziel Strom sparen, somit Abwärme und hast leisere Komponenten.

Zumal dir 8k bei 60fps auch nur was bei Standbildern bringt. Denn auch 60fps sind noch nicht hoch genug um detailreiche Darstellung in Bewegung zu gewährleisten. Dazu müsste man eher 120fps aufwärts haben. Da wird es in Zukunft mit 4k/120 schon schwierig Leistung aufzubringen. Was nützt mir 8k wenn in Bewegung bei 60fps alles verschwimmt und nicht besser als 4k aussieht bzw keinen Unterschied zu DLSS macht?
Games zockt man meist in Bewegung.

Anstatt Leistung nur in Auflösung zu stecken könnte man frei Perfoance durch Upscaler in andere und bessere Effekte stecken die Gesamtbild realistischer bzw hochwertiger wirken lassen. Gutes Bimd besteht nicht nur aus Auflösung. Kommen viele Faktoren zusammen.

Finde es ja schon interessant dass die nativ 4k bis 8k Verfechter oft selbst nicht mal stärkste GPU im Rechner gaben oder gar auf Konsole zocken. Gerade auf Konsole bekommst mit ihren oft nötigen Grafikmix nicht das Ergebnis was Entwickler sich mut maximalen Einstellungen vorstellt.
Was nützt 8k wenn Verschattung, Spiegelung, Beleuchtung nur mit mittleren Settings läuft?
Es fehlt dann auch visuelle Komponente die nicht maximale darstellt egal ob am HDMI Ausgang 8k übertragen wird.

Ein DLSS Quality mit maximalen Settings wird eher das visuelle Erlebnis widerspiegeln wie es sich Entwickler vorstellt als 8k mit mittleren Grafikeinstellung. Denn wenn du die Detailauflösung einzelner Effekte reduziert holt das keine höhere Renderauflösung wieder raus. Eher siehst du dass z.B. Schatten keine so hohe Auflösung haben.

Gesamtergebnis muss halt stimmig sein. Netter Nebeneffekt von modernen Technoken kann noch Stromsparen, weniger Abwärme, längere Haltbarkeit sein. Verzicht ich gern auf 10-15% die native höhere Auflösung bei normalen Sitzabstand zu gängigen Bildschirmgrößen bringt.

Wette im Bildtest würde sich hier Manche die nur Nativ als das Wahre sehen dann recht schwer tun.
 
Ich verstehe schon wie das funktioniert aber darum ging es nicht.
DLSS ist ein antrainierter Algorithmus der anhand von hochaufgelöstem Ausgangsmaterial trainiert wird
Der Hauptteil, der die Qualität von DLSS 2.x zu tun hat hat mit Training an irgendwelchen hochaufgelösten Bildern nur wenig zu tun.

Das Training der KI für dessen Zweck könntest Du auch in einer Auflösung von 320x200 durchführen.
DLSS2.x funktioniert auflösungsunabhängig.

DLSS2.x würde hypothetisch in ähnlicher Qualität auch mit einer 32K Auflösung funktionieren, wenn das Verhältnis zur Abtastauflösung gleich bleibt. Und das ohne dass die AI/KI auch nur ein Mal ein entsprechendes 32K Bild zugefüttert bekommen hätte.

aber nicht frame für frame sondern nur beispielhaft und deswegen ist eine hohe native Auflösung qualitativ immer zu bevorzugen
Nein, weil die "native" Auflösung über deutlich weniger Bildinformation verfügt, als eine Auflösung, die diese "native" Auflösung supersampelt.
Stell bei den Spielen mal 4K ein und spiel (wenn die Option besteht) mit dem internen Renderscaling rum.
Du bleibst egal, was Du beim Renderscaling einstellst auf 4K. Intern rechnest Du aber entweder mit weniger Auflösung (bei Faktoren unter 100%) oder mit höherer Auflösung (bei Faktoren über 100%).

und alternativ Downsampling, da da tatsächlich "jeder frame" runtergerechnet wird und so nur "tatsächliche" Informationen verarbeitet, wenn es um Qualität geht.
Was ist denn eine "tatsächliche" Information? DLSS 2.x arbeitet durchweg mit "tatsächlichen" Informationen, nur dass es halt bereits berechnete Pixel wiederverwendet, wodurch ein Auflösungsgewinn zustande kommt.

Steigt die HW-Performance ist dann DLSS überflüssig, weil die Ausgabeauflösung steigt und damit der Vorteil von den hinzugerechneten Details entfällt.
Genau das wollen wir ja alle nicht! Wir wollen höhere Bildqualität, höhere Geschwindigkeit, weniger VRAM Verbrauch!
Du willst alles plump mit Hardware erschlagen, obwohl es garnicht (mehr) notwendig ist.

Soll Epic sein NANITE einstampfen? Weil das ist ja alles garnicht "ehrlich" Bruteforce durchberechnet?
Willst Du lieber noch 10 Jahre warten, bis dann "echte" Hardware da ist, die solche Polygonmassen dann auf herkömmlich ineffizienten Weg abarbeitet?

Unterm Strich ist aber die technische Herangehensweise, da es nicht offen ist
-was es garnicht sein kann, weil kein anderer Hardware Hersteller Tensor- Cores bietet...
Soll man für nicht vorhandene Hardware des Konkurrenten entwickeln? Das ist doch absurd.
und aufwändig angelernt werden muss
...muss es nicht mehr... Das war DLSS1
, dass größte Hindernis bei der Verbreitung.
Genau- Da beides nicht zutrifft, gibt es auch kein Hindernis, weil keine vergleichbare Alternativtechnologie existiert.

AMD mag da vielleicht technisch noch nicht mithalten, ist aber viel breiter aufgestellt und offener, was der Verbreitung dieser Technologie wohl eher zuträglich ist als bei DLSS, meine ganz persönliche Prognose, wäre ja auch nicht das erste Mal.
AMDs Technologie steht und fällt mit der Qualität des generierten Bildes. Und sonst garnichts.
Wenn das generierte Bild Matsch ist, dann wird die Technik nicht benutzt und sich nicht durchsetzen.
Da nützt es dann auch nicht, wenn es open source ist.
 
Zuletzt bearbeitet:
Ich finde das sehr gut. Durch die Technik bekommt man schöne Bilder hin ohne unbedingt nativ eine höhere Auflösung zu nutzen. So kann man sich Kosten sparen. Es scheinen ja auch alle modernen AMD Grafikkarten dazu in der Lage zu sein. Auch die Mittelklassemodelle. Weil es nicht hardwareseitig, sondern treiberseitig unterstützt wird.
Anders als bei Nvidia mit den Tensorcores.
wo hast die infos her wie gut die technik ist?
 
Ich hoffe dir ist dann aber auch bei deinem Schönfiltern aufgefallen. Das wenn du schon die AMD Grafikkarten als Bezug nimmst, die bisherigen neuen AMD GPU RX6X00 die ja schon verfügbar sind und mit ganz großer Sicherheit auch in Rechnern verbaut sind wo Steam drauf ist, diese aber gar nicht in der Tabelle vorkommen und sehr wahrscheinlich mit anderen unter Others geführt werden. Sprich wie hoch der Anteil der RX6X00 GPU´s ist, kannst du gar nicht sagen.
Wird weniger sein als RTX Karten. Ist ja logisch, denn RTX gibt es jetzt seit 2 Generationenen und auch die RTX30X0 Reihe gab es auch schon früher.
Wegen der anderen Betriebssysteme, natürlich gibt es da auch Grafikkarten und natürlich spielen da auch Leute drauf. Aber jetzt mal ernsthaft du schränkst es ein auf Desktopsysteme, wegen dem krassen Gaming. Dann nimmst du wieder Linux dazu, obwohl die breite Masse der Spiele, wenn man Indies (wofür ich auch keine RX6x00 oder RTX brauche) außen vor lässt DX11 und DX12 nutzen, was bekanntlich nur auf Windows läuft.
Wenn du aber Linux als Basis hinzuziehst, musst du auch Mac und dann aber auch wieder irgendwo die Laptops und am Ende dann auch die Konsolen.
Sry aber wenn man sich eine Statistik immer nur so dreht wie man es gerade braucht, dann sagt das einfach nix aus!
Es gibt da einen Satz: Traue nur einer Statistik die selbst gefälscht hast.
Ich glaube die Steam Statistik spiegelt schon sehr gut den Markt wieder und da gehören alle Grafikkarten nun mal rein, auch Laptopgrafikkarten. Spieleentwickler entwickeln nicht nur für die Leute mit Desktopsystemen.
"Schönfilter" scheinst du implizit anzuwenden, denn anders lässt sich dein Post bzgl. der einfachen Extraktion der Steam-Zahlen nicht erklären, denn mehr ist das meinerseits nicht.
Darüber hinaus bin ich mir aber mittlerweile auch nicht mehr sicher, ob du nur noch rumtrollst oder ob dein Kommentar tatsächlich ernst gemeint ist und in dem Falle Leseschwäche 2.0 demonstrieren würde.
Noch mal in aller Deutlichkeit: Es gibt keine relevanten (versteckten) RDNA2-Mengen in der Gruppe "Other" bei Steam, was schlicht daran liegt, dass die Gruppe insgesamt gerade mal 0,67 % Anteile erfasst in der DX12-Tabelle, die hier maßgeblich ist, weil die deutlich detailierter ausweist, als die Basis-GPU-Tabelle links.
Hinzu kommt, dass die DX12-Tabelle GPUs klassifiziert und explizit ausweist bis hinunter zu 0,01 % Anteil, d. h. alles was in der Gruppe "Other" noch zusammengefasst mitausgewiesen wird, sind GPUs < 0,01 %, d. h. in der Gruppe befinden sich mit 0,67 % Anteil damit schon mal min. 67 unterschiedliche GPU-Typen (tendenziell gar mehr), d. h. der erschlagenden Großteil dieser per se schon nahezu irrelevanten 0,67 % besteht gesichert aus allem anderen, nur nicht aus RDNA2-GPUs.
Im besten Fall kann man hier erwarten, dass sich in der Gruppe "Other" derzeit noch die RX 6700 XT befindet, denn die wird aktuell noch nicht explizit gelistet, jedoch bedeutet das auch, dass die derzeit nicht mehr als 0,01 % auf Steam hat.
Entsprechend bleiben aktuell:
  • RX 6800 XT = 0,08 %
  • RX 6900 XT = 0,06 %
  • RX 6800 = 0,05 %
  • RX 6700 XT <= 0,01 %
  • Summe = 0,20 %
Zum Vergleich: Bereits die am wenigsten verbreitete Ampere-Desktop-GPU erreicht hier in Form der RTX 3060 0,27 % Anteil und damit mehr als alle RDNA2-GPUs bei Steam zusammen. Und hinzu kommt noch, dass das das am spätesten/zuletzt erschienene Modell ist. Die Erfassung begann hier erst im März mit 0,05 % und bereits deren Marktdurchdringung bei Steam war deutlich rasanter als die jeder einzelnen RDNA2-GPU, was voraussichtlich schlicht daran liegt, dass AMD tatsächlich relativ geringe Stückzahlen in den Markt bringt und möglicherweise auch, dass AMD-Interessenten im Mittel eher weniger bereit sind die derzeit überzogenen Preise zu bezahlen.
Und dass hier RDNA2-GPUs gar nicht erfasst werden kann man ausschließen, da diese schon seit gut sechs Monaten im Markt sind und Valve die Steam-Zahlen regelmäßig nachbearbeitet und korrigiert, d. h. dass eine Fehlerfassung so lange Zeit unbemerkt bleibt (hier durch quasi fast komplette Abwesenheit eines Produktes, von dem man weiß dass es verkauft wird und im Markt vorhanden ist), ist sehr unwahrscheinlich, ebenso übrigens, wie die von einigen anscheinend implizit unterstützte Theorie, dass AMD-Steam-User einen geheimen Pakt geschlossen haben und sich kategorisch der HW-Survey verweigern oder aber, dass AMD seine RDNA2-GPUs "versteckt" und treiberintern als Intel- oder nVidia-Hardware ausweist. ;-)
Es ist einfach wie es ist. AMD bringt relativ wenig GPUs in den Markt, nichts anderes bestätigen ja auch die Zahlen der Marktanalysten und entsprechend sehen auch die Zahlen bei Steam aus. Nicht umsonst sprach AMD im letzten Earnings Call von einem bevorstehenden "RampUp" bzgl. der GPU-Produktion, was eigentlich gar nicht sein dürfte, da der schon unmittelbar vor dem RDNA2-Release im letzten Jahr hätte stattfinden müssen. Unterm Strich kann man sich ausrechnen, dass AMD die GPU-Fertigung bei TSMC runterpriorisiert haben wird aufgrund der derzeitigen industrieweiten Probleme, um ihre Verträge mit Sony/Micrsoft zu erfüllen und um vorwiegend CPUs zu fertigen, denn hier versucht man schon seit langem einen Fuß bei den großen OEMs in die Tür zu bekommen und da jetzt erklären zu müssen, dass man nun noch weniger liefern kann als es schon grundlegend der Fall ist, wäre wohl ein harter Rückschritt bzgl. dieser Bemühungen gewesen, also priorisierte man entsprechend (und diese Priorisierung gedenkt man nun anscheinend in nächster Zeit umzustellen oder hat es bereits getan, denn bis die Umstellung sich in den Markt in Form von verfügbaren GPUs fortsetzt, vergehen Monate).

Und noch mal, basierend auf den Zahlen von Steam ist es nicht nur einfach weniger, sondern geradezu verschwindend gering, was hier bzgl. RDNA2 auf dem PC-Desktop derzeit ausgewiesen wird bzw. vorliegt. Das derzeitige Verhältnis: Von 100 neuen Desktop-GPUs entfallen gerade mal 6 GPUs auf RDNA2-Karten(!), der Rest entfällt auf Ampere-Karten bei Steam. Das ist ein deutliches Missverhältnis.
Und noch einmal, es gibt bereits mehr RTX-GPUs auf dem Desktop in der DX12-Statistik, als es dort überhaupt AMD-GPUs über alles gibt, d. h. inklusive der mobilen dGPUs und der iGPUs der AGPUs und das selbst, wenn man noch die komplette Gruppe "Other" vollständig AMD zurechnen würde (was natürlich absurd is).
Auf dem PC-Desktop wird größtenteils auf nVidia-GPUs gespielt. Das ist schlicht so und das bedarf auch keinerlei Interpretation und kann dort aus den Zahlen direkt abgeleitet werden.
Das einzig zulässige wäre hier, wenn man das nicht hinnehmen will, dass man die Validität der Statistik grundlegend infrage stellt. Das Problem hierbei ist nur, dass die unzweifelhaft die beste verfügbare und aufgrund der extrem großen Datenbasis valideste Datenquelle darstellt. Als Gegenargument können Kritiker hier immer nur ihr Bauchgefühl und ihre persönlichen Präferenzen anführen, nur haben die mit irgendwelchen Marktzahlen mal rein gar nichts zu tun und sind daher statistisch nicht relevant.

Aber jetzt mal im Ernst, sind das bei dir Lese- oder Verständnisprobleme?
Ich schränke hier auf Desktop-Systeme ein, weil wir hier in einem "Enthusiast"-Gamer-Forum sind. Hier würde so mancher einem Mobile-Gamer (insbesondere mit einer iGPU) schnell absprechen wollen, dass der sich überhaupt "Gamer" nennen darf. ;-)
Darüber hinaus würden die Zahlen für eine Ampere vs. RDNA2-Betrachtung für AMD nur noch schlechter(!) ausfallen, wenn ich auch noch die mobilen Ampere's mitberücksichtigen würden, denn alleine von denen gibt es bereits mehr GPUs auf Laptops mit einem Steam-Client, als es zurzeit RDNA2-GPUs gibt, d. h. ich habe hier eigentlich gar noch zugunsten von AMD ausgewertet, indem ich den Blick auf den Desktop beschränkte.
> "Dann nimmst du wieder Linux dazu, obwohl die breite Masse der Spiele, wenn man Indies (wofür ich auch keine RX6x00 oder RTX brauche) außen vor lässt DX11 und DX12 nutzen, was bekanntlich nur auf Windows läuft. Wenn du aber Linux als Basis hinzuziehst ..."
Bist du sicher, dass ich hier der richtige Adressat bin, denn derartigs war bei mir nirgends zu lesen, bzw. ich habe gar explizit herausgestrichen, dass ich mich auf die DX12-Tabelle beschränke (weil die detailierter ist). Entweder versuchst du mich zu verwirren oder du bist verwirrt.
> "Es gibt da einen Satz: Traue nur einer Statistik die selbst gefälscht hast."
Ja, und der wird oftmals von Leuten zitiert, die am wenigsten Ahnung von Statistik und Mathematik haben und damit i. d. R. ein bestimmtes Ziel verfolgen. Handfeste Kritik mit zumindest einem Hauch konkreter Punkte wäre schon das mindeste, was man dann beisteuern sollte und da gehört sichlich nicht so etwas hinzu wie "aber ich wurde noch nie befragt".
Und am Ende schaffst du es dann auch noch zur Krönung dir selbt komplett ins Knie zu schießen:
> "Ich glaube die Steam Statistik spiegelt schon sehr gut den Markt wieder ..."
Die Implikation dieser Aussage ist dir aber schon klar, oder ? ... ;-)
 
Zuletzt bearbeitet:
Wann soll diese Zeit kommen? Sehr weit entfernte Zukunftsmusik. Wir schaffen nicht mal durchgängig 4k/60 jetzt. Selbst ohne RT wird es immer neue Effekte in Engine geben die Leistung fressen. Bis wir da 8k oder gar 16k stemmen können bei allen Games werden manche das Zocken schon an den Nagel gehängt haben.
Nur um dann 10-15% besseres Bild zu haben im direkten Vergleich und GPU 380-400Watt aufwärts immer noch frisst. Es ist nicht nur Performancevorteil von Upscaling. Kannst bei gleichem Framerateziel Strom sparen, somit Abwärme und hast leisere Komponenten.

Zumal dir 8k bei 60fps auch nur was bei Standbildern bringt. Denn auch 60fps sind noch nicht hoch genug um detailreiche Darstellung in Bewegung zu gewährleisten. Dazu müsste man eher 120fps aufwärts haben. Da wird es in Zukunft mit 4k/120 schon schwierig Leistung aufzubringen. Was nützt mir 8k wenn in Bewegung bei 60fps alles verschwimmt und nicht besser als 4k aussieht bzw keinen Unterschied zu DLSS macht?
Games zockt man meist in Bewegung.

Anstatt Leistung nur in Auflösung zu stecken könnte man frei Perfoance durch Upscaler in andere und bessere Effekte stecken die Gesamtbild realistischer bzw hochwertiger wirken lassen. Gutes Bimd besteht nicht nur aus Auflösung. Kommen viele Faktoren zusammen.
Aber das ist ja nun nicht neu und war in der Geschichte von Computerspielen und der Hardwareentwicklung doch immer so. Viel mehr zeigt es doch auf, dass die Entwicklung stagniert, weswegen das nun mit Hilfe solcher Methoden kompensiert wird und das wird dann nicht mehr nötig sein, wenn die Hardware sich entsprechend weiter entwickelt.
Finde es ja schon interessant dass die nativ 4k bis 8k Verfechter oft selbst nicht mal stärkste GPU im Rechner gaben oder gar auf Konsole zocken. Gerade auf Konsole bekommst mit ihren oft nötigen Grafikmix nicht das Ergebnis was Entwickler sich mut maximalen Einstellungen vorstellt.
Und was ist daran so interessant, wenn das nun einmal der Standpunkt ist oder darf man den nur vertreten, wenn man genannte Hardware besitzt? Das Thema nativ ist ja nun auch nicht neu und grundlegend hat sich daran nichts geändert und verlustbehaftete Verfahren sind nun nicht unbedingt optimal und wenn man die Wahl hat, sind genannte nativ-Optionen besser und mehr habe ich auch nicht gesagt. Das DLSS aktuell hilfreich ist um diesen gap zu schließen bestreitet ja niemand. :-)
Was nützt 8k wenn Verschattung, Spiegelung, Beleuchtung nur mit mittleren Settings läuft?
Es fehlt dann auch visuelle Komponente die nicht maximale darstellt egal ob am HDMI Ausgang 8k übertragen wird.

Ein DLSS Quality mit maximalen Settings wird eher das visuelle Erlebnis widerspiegeln wie es sich Entwickler vorstellt als 8k mit mittleren Grafikeinstellung. Denn wenn du die Detailauflösung einzelner Effekte reduziert holt das keine höhere Renderauflösung wieder raus. Eher siehst du dass z.B. Schatten keine so hohe Auflösung haben.

Gesamtergebnis muss halt stimmig sein. Netter Nebeneffekt von modernen Technoken kann noch Stromsparen, weniger Abwärme, längere Haltbarkeit sein. Verzicht ich gern auf 10-15% die native höhere Auflösung bei normalen Sitzabstand zu gängigen Bildschirmgrößen bringt.

Wette im Bildtest würde sich hier Manche die nur Nativ als das Wahre sehen dann recht schwer tun.
Auch ein guter Punkt warum man RT nicht braucht, aktuell und dann hat sich eigentlich auch DLSS erledigt, das genau dafür konzipiert war/wurde. ;-) Im direkten bewegt-Spielvergleich reichen auch Konsolensettings, da sieht man bei Multis eigentlich auch keine wirklichen Unterschiede.

MfG
Genau das wollen wir ja alle nicht! Wir wollen höhere Bildqualität, höhere Geschwindigkeit, weniger VRAM Verbrauch!
Du willst alles plump mit Hardware erschlagen, obwohl es garnicht (mehr) notwendig ist.

Soll Epic sein NANITE einstampfen? Weil das ist ja alles garnicht "ehrlich" Bruteforce durchberechnet?
Willst Du lieber noch 10 Jahre warten, bis dann "echte" Hardware da ist, die solche Polygonmassen dann auf herkömmlich ineffizienten Weg abarbeitet?
Ein guter Punkt den du da ansprichst.
Meine Befürchtung ist, dass der Folus auf Technologieen die mangelnde Hardwareleistung kompensieren dazu führt, dass die Hardwareentwicklung nicht ausreichend voran getrieben wird und immer langsamer fortschreitet.

Eins noch, es ist ein Unterschied, ob ich mit dem internen Renderauflösung jedes einzelne native-informative frame herunterrechne oder ob ich es anhand antrainierter Vorhersagen mache, die dazu führen und führen können, dass auch Informationen hinzugefügt werden, die vorher nicht da waren.

Letzten Endes ist es nativ gesehen immer besser, wenn man ohne weitere Eingriffe, so nahe wie möglich am Originalbild ist. DLSS verfälscht dahingehend das Bild und ja, es hat Vorteile, unbestritten, diese liegen ja auf der Hand allerdings erübrigen sich diese, sobald die Hardware nachzieht. Dazu kommt noch die Tatsache das die Technologie nicht offen ist, was der Verbreitung so gar nicht zuträglich ist, da hat AMD in jedem Fall einen Vorteil, auch wenn die Qualität erst an DLSS 1 heranreicht, was aber bei dem launch-delay nicht verwunderlich ist, Nvidia hat da einfach den verdienten Wissenvorsprung.

MfG
 
Zuletzt bearbeitet:
Beziehst Du Dich jetzt auch auf den Vergleich mit der 1060, welcher hier immer wieder gepostet wurde?
Der Vergleich auf der 6800xt sieht nämlich schon richtig gut aus finde ich.
Eigentlich meinte ich den hauseigenen Seit-an-Seit-Vergleich direkt von AMD.

Also nativ vs FSR Ultra-Quality und das war halt echt nicht mehr feierlich bezüglich des Qualitätsverlusts.


1624013547919.png 1624013558132.png
 
@Topic

Es ist schon ein feiner Zug, dass AMD mit Super Resolution selbst Pascal-User (GTX 1000-Reihe) nicht zurücklässt, nachdem Nvidia es nicht fertig gebracht hat diese Kunden mit ins Upscaling-Boot zu holen (also faktisch ertrinken lies). Das ist zwar eine gewisse Affront gegenüber Nvidia und blamiert es etwas, aber das hat Offenheit manchmal so an sich. AMD erdrückt die Konkurrenz einfach mit Entgegenkommen/Umarmen... der totale Gegenentwurf zum eigenbrödlerischen Ego-Trip.

Ist fast schon ein Feuerwerk was AMD da gestartet hat, RDNA2 in Teslas, RDNA2 in Samsung Exynos, der 3D V-Cache für CPUs (15% mehr FPS) ab Ende des Jahres, Retail-Cezanne 6/8-Kerner für 259,- bzw. 359,- Dollar. Hammer was diese Frau (Lisa Su) und die vielen loyalen AMD-Mitarbeiter aus AMD die letzten Jahre gemacht haben, der Wandel ist unfassbar.
 
Ein guter Punkt den du da ansprichst.
Meine Befürchtung ist, dass der Folus auf Technologieen die mangelnde Hardwareleistung kompensieren dazu führt, dass die Hardwareentwicklung nicht ausreichend voran getrieben wird und immer langsamer fortschreitet.
Die Befürchtung sollte sich in der Realittät manifestieren. Schon jetzt sind wir an den Grenzen der aktuellen Fertigungstechniken angekommen.
Die Entwicklung wird, wenn nicht ein anderer Weg eingeschlagen wird, immer mühsamer und zunehmend schleppender voranschreiten.

Eins noch, es ist ein Unterschied, ob ich mit dem internen Renderauflösung jedes einzelne native-informative frame herunterrechne oder ob ich es anhand antrainierter Vorhersagen mache,
Es gibt keine Vorhersagen im hier angewandten Sinn. Es gibt nur eine Rückschau auf bereits berechnete Informationen.
die dazu führen und führen können, dass auch Informationen hinzugefügt werden, die vorher nicht da waren.
Genau nicht. Siehe oben.
Letzten Endes ist es nativ gesehen immer besser, wenn man ohne weitere Eingriffe, so nahe wie möglich am Originalbild ist.
Auch das ist nicht richtig:
1624013635118.png

Beides 1080P einmal nativ und einmal mit DSR.
Nativ ist also nicht mal annähernd so gut, wie es hier angepriesen wird. Im Gegenteil...
Da geht noch einiges. Und genau da holt DLSS durch Supersamling einfach noch mal mehr aus dem Bild.

Wie Du sehen kannst glättet und vervollständigt eine intern höhere Auflösung (wie sie z.B. auch durch DLSS generiert wird) Informationen, die durch die native Auflösung sonst im wahrsten Sinne des Wortes aus dem Raster fallen würden. Siehe die Grashalme, die links nur Bruchstückhaft dargestellt werden.

DLSS verfälscht dahingehend das Bild
Nein
und ja, es hat Vorteile, unbestritten, diese liegen ja auf der Hand
Ja
allerdings erübrigen sich diese, sobald die Hardware nachzieht.
Nein
Dazu kommt noch die Tatsache das die Technologie nicht offen ist,
Kann sie nicht, weil keiner der Konkurrenten in diesem Bereich entsprechende Hardware oder entsprechenden Forschungsstand ausweisen kann.

Wenn AMDs Technik nach all der Zeit und den Ausführungen, die NVIDIA zur Funktionsweise bereits veröffentlicht hat nur an V1 des Konkurrenten heranreicht, dann wäre das durchweg eine Enttäuschung und wenn es blöd läuft das Todesurteil für FSR.
 
Zuletzt bearbeitet:
Die Befürchtung sollte sich in der Realtität manifestieren. Schon jetzt sind wir an den Grenzen der aktuellen Fertigungstechniken angekommen.
Die Entwicklung wird, wenn nicht ein anderer Weg eingeschlagen wird immer mühsamer und zunehmend schleppend voranschreiten.


Es gibt keine Vorhersagen. Es gibt nur eine Rückschau auf bereits berechnete Informationen.

Genau nicht. Siehe oben.

Auch das ist nicht richtig:
Anhang anzeigen 1367102
Beides 1080P einmal nativ und einmal mit DSR.
Nativ ist also nicht mal annähernd so gut, wie es hier angepriesen wird. Im Gegenteil...
Da geht noch einiges. Und genau da holt DLSS durch Supersamling einfach noch mal mehr aus dem Bild.

Wie Du sehen kannst glättet und vervollständigt eine intern höhere Auflösung (wie sie z.B. auch durch DLSS generiert wird) Informationen, die durch die native Auflösung sonst im wahrsten Sinne des Wortes aus dem Raster fallen würden. Siehe die Grashalme, die links nur Bruchstückhaft dargestellt werden.
Ja das weiß ich, deshalb schrieb ich ja auch das in dem Fall SS die bessere und verlustfreiere Technik wäre, da da jeder tatsächliche Pixel abgetastet wird und nicht nur ein erahnter hinzugefügt, auf Grund eines antrainierten Algorithmus.
Dasa Ausgangsmaterial wird spiegelt aber nicht 1 zu 1 das Originalmaterial wieder sondern wird nur exemplarisch genutzt also gibt es Informationen die vorher nicht 1 zu 1 antrainiert wurde, sonder wo dann dieser Algorithmus anhand der antrainierten Informationen die Szene optimiert und das ist im Vergleich zu SS dann mehr verlustbehaftet, wo jeder tatsächliche Pixel umgerechnet wird.
DLSS gäbe es doch bei ausreichender HW gar nicht bzw. RT und das zeigt doch im Umkehrschluss das es überflüssig wird, wenn die HW ausreichend wäre.
Kann sie nicht, weil keiner der Konkurrenten in diesem Bereich entsprechende Hardware oder entsprechenden Forschungsstand ausweisen kann.
Könnte sie aber, bei AMD geht es doch auch aber Nvidia ist nun einmal nicht dafür bekannt offen zu entwickeln und das hat auch in der Vergangenheit schon dazu geführt, dass Technologien sich nicht ausreichend durchsetzen konnten.
Wenn AMDs Technik nach all der Zeit und den Ausführungen, die NVIDIA zur Funktionsweise bereits veröffentlicht hat nur an V1 des Konkurrenten heranreicht, dann wäre das durchweg eine Enttäuschung und wenn es blöd läuft das Todesurteil für FSR.
Es ist offen und kann von allen genutzt werden, ich denke Entwickler begrüßen diesen Umstand sehr, wie man ja auch an dem breitem Support erkennen kann, daher kann man m. M. n. nicht von einer Enttäuschung reden.

MfG
 
Aber das ist ja nun nicht neu und war in der Geschichte von Computerspielen und der Hardwareentwicklung doch immer so. Viel mehr zeigt es doch auf, dass die Entwicklung stagniert, weswegen das nun mit Hilfe solcher Methoden kompensiert wird und das wird dann nicht mehr nötig sein, wenn die Hardware sich entsprechend weiter entwickelt.
[/QUOTE]

Problem ist dass wir nicht mehr unendliche Leistungsteigerung haben. Schritte werden immer kleiner. Fertigung bekommst nicht mehr unendlich klein und Abwärme in Griff. Dazu müsste sich grundlegen die Architektur ändern.
Bis 4k oder gar 8k in der Mittelklasse und bei Konsolen Standard ist sind wohl PS6 und SerieX Nachfolger rum und 15 Jahre vergangen. Genau für diese Zeitraum sind neue Upscaling-Techniken halt ideal.

Auch ein guter Punkt warum man RT nicht braucht, aktuell und dann hat sich eigentlich auch DLSS erledigt, das genau dafür konzipiert war/wurde. ;-) Im direkten bewegt-Spielvergleich reichen auch Konsolensettings, da sieht man bei Multis eigentlich auch keine wirklichen Unterschiede.

Gerade RT ist in Bewegung auffällig und vom Vorteil. Weniger auf Standbildern auszumachen. Denn gerade wenn man durch virtuelle Welt rennt fällt auf wenn etwas physikalisch weniger korrekt ist, starr oder gar verschwindet am Bildschirmrand oder gewissen Blickwinkel.
Da ist man mit klassischen Metjiden recht limitiert die immer noch vom Entwickler aufwendig im Level platziert werden müssen. RT kann in Zukunft bei reiner Hardwareunstützung Arbeit einsparen die man woanders reinstecken kann.

Wenn es gut implementiert ust fällt RT je nach Game stärker auf als Ultra-Effekt zu Stufe darunter. RT ist nicht einzige Leistungsfresser. Volumetrische Effekte rauben dir auch 20-30% der Leistung.
Selbst Software RT-Lösungen von Crytek und Epic haben immer noch Impact. Manches wird mit noch höherer nativen Auflösung noch rechenintensiver.
In Zukunft wird man auch für solche Sachen Leistungspuffer brauchen.



Ein guter Punkt den du da ansprichst.
Meine Befürchtung ist, dass der Folus auf Technologieen die mangelnde Hardwareleistung kompensieren dazu führt, dass die Hardwareentwicklung nicht ausreichend voran getrieben wird und immer langsamer fortschreitet.
...

Letzten Endes ist es nativ gesehen immer besser, wenn man ohne weitere Eingriffe, so nahe wie möglich am Originalbild ist. DLSS verfälscht dahingehend das Bild und ja, es hat Vorteile, unbestritten, diese liegen ja auf der Hand allerdings erübrigen sich diese, sobald die Hardware nachzieht. Dazu kommt noch die Tatsache das die Technologie nicht offen ist, was der Verbreitung so gar nicht zuträglich ist, da hat AMD in jedem Fall einen Vorteil, auch wenn die Qualität erst an DLSS 1 heranreicht, was aber bei dem launch-delay nicht verwunderlich ist, Nvidia hat da einfach den verdienten Wissenvorsprung.

MfG
Es geht doch viel mehr um effiziente Lösungen. Da sehe ich nicht warum man für 10% Optik dann 30% Leistung verpulvert. Gibt ja schon berühmten Thread wo man Unterschied zwischen Ultra- und Sehr Hohen Einstellungen es wert sind. Da für paar Prozent mehr Optik Haufen Energie und geringere Framerate in Kauf zu nehmen.
Gleiche gilt für DLSS, seinen Alternativen zu hohen nativen Auflösungen.
Habe auch sehr früh auf 4k gesetzt. Aber wenn ich im Vergleich gut implementiert DLSS Quality sehe fragt man sich ob es überhaupt notwendig ist noch Höheres anzustreben. Grafik hat Heute immer noch andere Baustellen als Jagt nach noch höherer Renderauflösung.
Dinge wie Auflösung Framerate und Effekte müssen Hand in Hand gehen. Einen Bereich zu überziehen bringt nicht.
Was habe ich von nativ 8k wenn ich dann 1,5m vor 88" sitzen muss um wirklich größere Unterschiede zu sehen?

Mit was man schon zufrieden ist bleibt recht unterschiedlich. Sinn sollte Leistungsverbrauch für gewissen Bereich auch haben.
Wenn man erst 20-30 Sekunden Standbilder vergleichen muss um Dinge zu entdecken dann kann es bei praxisnahen Anwendung gar nicht so sehr ins Gewicht fallen.
 
Ja das weiß ich, deshalb schrieb ich ja auch das in dem Fall SS die bessere und verlustfreiere Technik wäre, da da jeder tatsächliche Pixel abgetastet wird und nicht nur ein erahnter hinzugefügt, auf Grund eines antrainierten Algorithmus.
Was Du immer wieder so oft wiederholen magst, wie Du willst. Dennoch funktioniert es anders, als Du hier schreibst.
Die Pixel werden bei DLSS alle abgetastet, so dass ein Supersampling entsteht.

Es heiss Deep Learning Super Sampling

Dasa Ausgangsmaterial wird spiegelt aber nicht 1 zu 1 das Originalmaterial wieder
Doch- Wo soll es denn sonst herkommen, wenn nicht von den originalen Szenendaten
oder glaubst Du, dass sowas durch Vorhersage und Raten möglich ist?:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Um mal eine Vorstellung davon zu vermitteln wie wenig das ist...
Das folgende Bild hat 426x240 Pixel):

Merkst selber, oder, dass das mit dem "dazuraten" oder vorhersagen da extrem weit hergeholt sein muss?

sondern wird nur exemplarisch genutzt
no
also gibt es Informationen die vorher nicht 1 zu 1 antrainiert wurde
no- seit dlss 2.x nicht mehr
sonder wo dann dieser Algorithmus anhand der antrainierten Informationen die Szene optimiert und das ist im Vergleich zu SS dann mehr verlustbehaftet, wo jeder tatsächliche Pixel umgerechnet wird.
nur wenn der supersampling- Faktor durch zu viel Verwerfungen von Pixeln unter die native Auflösung fallen würde
DLSS gäbe es doch bei ausreichender HW gar nicht bzw. RT und das zeigt doch im Umkehrschluss das es überflüssig wird, wenn die HW ausreichend wäre.
Nanite gäbe es bei ausreichender HW auch nicht, Cryteks SVxGI auch nicht und überhaupt würde es die ganzen Tricks überflüssig machen und die Rasterisierung, die ein einziger Trick zur Beschleunigung ist, sowieso nicht.
Könnte sie aber, bei AMD geht es doch auch aber Nvidia ist nun einmal nicht dafür bekannt offen zu entwickeln und das hat auch in der Vergangenheit schon dazu geführt, dass Technologien sich nicht ausreichend durchsetzen konnten.
Gsync ist etabliert nachwievor die überlegene sync- technik (nebst den Qualitätsanforderungen an die Hardware an sich), physx ist mit über 700 Titeln die weit verbreitetste Physikbibliothek überhaupt.
Und dass sie so wenig offen entwickeln war vielleicht vor einigen Jahren so. Inzwischen ist sogar jede Menge Kram von denen "offen".
Es ist offen und kann von allen genutzt werden,
Das nvidia Zeug kann auch von allen genutzt werden. Dazu muss es nicht quelloffen sein.
Was stellst Du persönlich mit der source an, wenn Du sie hast?
Entwickelst Du dann mit?
Problem ist dass wir nicht mehr unendliche Leistungsteigerung haben. Schritte werden immer kleiner. Fertigung bekommst nicht mehr unendlich klein und Abwärme in Griff. Dazu müsste sich grundlegen die Architektur ändern.
So sieht es aus.

Alle schreien und plärren, wegen den jetzt schon explodierenden Kosten für Grafikkarten, wollen den Wahnsinn aber auf alt hergebrachtem Wege einfach weiterbetreiben, weil sie auf ineffektivste bruteforce- ansätze stehen, die sie sich mit irgendwelchen erfundenen Bildqualitätsvorteilen schönreden?

Das muss man nicht verstehen... Dann aber ausflippen, wenn der eigene Lieblingshersteller ne Grafikkarte rausbringt, die 50W weniger Leistung aufnimmt. Irgendwie schizophren.


Supersampling>Nativ
 
Zuletzt bearbeitet:
...
Metro Exodus Enhanced mit DLSS 2.2 von 280x135 (37800 Pixel) auf 1080P
...
Durchaus höchst beachtlich, was hier DLSS im Ultra Performance Mode abliefert, selbstredend mit qualitativen Einschränkungen, aber halt doch vergleichbar geringen ob der geringen, nativen Auflösung.
Als Korrektur: Nativ wird hier mit etwas wie 640x360 Pixel gerendert, da der neue Modus mit 33 % der Zielauflösung arbeitet. Bezüglich der "240x135p" hat sich der YouTuber vertan, bzw. das war auch der Grund, warum ich mir das ansah, denn diese Qualität bei gerade mal vermeintlichen 135 Zeilen wäre schon extremst gewesen. ;-)
 
Als Korrektur: Nativ wird hier mit etwas wie 640x360 Pixel gerendert, da der neue Modus mit 33 % der Zielauflösung arbeitet.
Stimmt- Ungeprüft übernommen.
Ist editiert.

Danke (was aber am Prinzip an sich nichts ändert). Es werden hier im Repeat- Modus in jedem Thread zum Thema DLSS Falschinformationen verbreitet bzw. das neue DLSS 2.x mit 1.x durcheinandergewürfelt.

Die haben bezüglich der Funktionsweise so gut wie nichts mehr gemein...
 
Zuletzt bearbeitet:
Stimmt- Ungeprüft übernommen.
Ist editiert.

Danke (was aber am Prinzip nichts ändert).
Doch, das macht einen gewaltigen Unterschied, denn der Ultra Performance Mode arbeitet mit 1/9tel der Pixelzahl der Zielauflösung, dagegen der YouTuber behauptet in seinem Titel (vermutlich ein Versehen?), dass DLSS hier mit nur 1/64stel der Pixelanzahl arbeitet. Daraus könnte der Algorithmus jedoch voraussichtlich nur noch "Matsch" rekonstruieren. ;-)

Darüber hinaus, wie gesagt, 1/9tel mit dem Ultra Performance Mode erzielt dennoch visuell beachtliche Resultate.

Ergänzend: Ich sehe, du hast das Video ausgetauscht, wäre aber nicht nötig gewesen, wenn alles andere soweit korrekt ist (DLSS 2.2 durch DLL-Tausch) und der Tuber sich nur im Titel vertan hat, daher hier noch mal mitgegeben, wobei in diesem Fall zu beachten ist:
Ultra Performance Mode = 640x360 (und nicht "240x135p" ;-))

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Dein Austauschvideo ist aber auch nicht schlecht. Man darf gespannt sein, was AMDs FSR in eingen Tagen demonstrieren wird und hoffentlich auch noch in einem anderen Titel als Godfall, dessen Grafikstil hier vieles vergibt und daher nicht unbedingt die besten Vergleichsmöglichkeiten bietet.
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Das ist doch Wahnsinn. :ugly:

Hätte dann gern den Direktvergleich mit FSR, also was FSR im Vergleich zu DLSS aus diesen paar Hundert Pixeln zaubert. Da sieht man dann ganz schnell wie "intelligent" der Upscaling-Ansatz wirklich ist oder eben auch nicht.
 
Zurück