AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?

Naja solange es dir gefällt ist es ja in Ordnung. Solange DLSS nicht wie ursprünglich versprochen auf die native Auflösung aufsetzt, kann da nichts besseres raus kommen. Mal gespannt ob und wann man das endlich mal nachreicht. Das würde die Technik deutlich interessanter machen.
 
Das klingt mir zu wohlfeil, nach der Logik hätten alle Entwicklerstudios stand heute nur Mist abgeliefert und können mit der Technik nicht umgehen.
Exakt, bis auf die Ausnahmen, die ich genannt hatte.
Fakt ist, wie @huenni87 schon sagt, die aktuellen implementierungen sind oft nicht überzeugend. Vor allem wenn die Basisauflösung QHD und niedriger ist.
DLSS braucht Pixelmenge in der Ausgabeauflösung um effektiv arbeiten zu können. Und ja- Die aktuellen implementierungen sind oft nicht überzeugend. Was ich aber auch nie bestritten habe und was auch nicht meine Kernaussage des ganzen widerspiegelt.
Fakt ist immer noch, WDL und CP nutzen kein DLSS auf den Reflektionen.
Fakt ist, dass Du behauptet hast, dass es Fakt wäre, dass DLSS nicht auf Reflexionen wirken kann. Ich habe Dir an einem Praxisbeispiel das Gegenteil bewiesen (mit Vergleichsscreenshot und den Originalen im Anschluss).
Control bin ich auch noch nicht wirklich überzeugt.
Wenn Du keine handfesten Beweise akzeptierst, dann bist Du durch nichts zu überzeugen. Dann ist aber auch diese Diskussion sinnlos und all meine Mühen, Dir das nahezubringen.

Hat mal jemand vernünftige Snaps von Control mit Basis QHD und dann zuschalten der Modi von DLSS?
Kann ich Dir heute Abend anfertigen.
Naja solange es dir gefällt ist es ja in Ordnung. Solange DLSS nicht wie ursprünglich versprochen auf die native Auflösung aufsetzt, kann da nichts besseres raus kommen. Mal gespannt ob und wann man das endlich mal nachreicht. Das würde die Technik deutlich interessanter machen.
Du hast nicht verstanden, was Supersampling bedeutet. Du rechnest intern mit größerer "Pixelanzahl" als Nativ Deinen engültigen Farbwert. Daher kann DLSS auch mehr Details bzw. Details die in nativer Auflösung Quantisierungsfehler aufweisen, richtig darstellen.

Das hatte ich hier bereits belegt:

So ein Bild (Erhaltung der feingliedrigen Details) erhältst Du sonst nur durch Super-Resolution bzw. Downscaling.

Dazu auch:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

DLSS also temporales Supersampling mit anschließender KI Korrektur berechnet sein Bild, indem es die Szene mehrfach mit geringerer Auflösung abtastet und bereits berechnete Pixel nicht mehr zusätzlich berechnet.

Dadurch kommt in Summe ein Bild heraus, was in der Pixelanzahl je nachdem wieviele Pixel vom Vorgägerframe verworfen werden müssen, bei DLSS Performance im schlechtesten Fall eines Szenenwechsels, im ersten angezeigten Frame die halbe Auflösung hat, im zweiten Frame durch Jitter und Akkumulation bereits nahe der nativen Ursprungsauflösung liegt und ab Frame 3 über der nativen Auflösung liegen kann.

Was glaubst Du, wie die auf Supersampling basierenden Kantenglättungsverfahren zu ihren flimmerfreieren Bildern kommen?
Die KI sorgt im Anschluss dafür zu bestimmen, welche Pixel verworfen werden müssen, weil sie zur Artefaktbildung beitragen.
 
Zuletzt bearbeitet:
@Gurdi Ich verstehe nicht, wie du das auch noch so kleinste Haar in der Suppe bzgl. Nvidia rauspickst, aber keine Kritik auf AMD kommen lässt. AMD hat teils einen ziemlich mangelhaften Support für Raytracing in ihren Treibern und immer noch keine Spur von AI Upscaling in ihren Software Stack zu vernehmen.

Stattdessen lobst du Big Navi in den Himmel. Das OC und UV sei ja so viel besser, was in der Realität gerade mal ein paar Prozentchen sind. AMD hat wirklich einen großen Schritt nach vorne gemacht, aber Nvidia verdient mehr auch Respekt für ihre Innovationen, stattdessen gibt's Prügel von den Gamern...

Ich kann das auch nicht mehr hören, dass dies und jenes auf Nvidia optimiert sei. Das ist gerade in Bezug auf Raytracing Bullshit. Die wesentlichen Sachen passieren hinter den Schnittstellen. Hier mal die Frametimes von Metro auf der 6800XT.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die Reaktion der Leute: Ist ja auch für Nv optimiert. Pustekuchen. Phillipp hat übrigens erstmal ein Ticket bei AMD erstellt. ;)
 
Zuletzt bearbeitet von einem Moderator:
Das ist nachweislich Unsinn.
In Bewegung hast du Ghosting, was du ohne DLSS nicht hast, also ist es schlechter.
Ein Vergleich zweier Standbilder sagt da gar nichts aus und das sage ich dir als DLSS Verfechter und Nvidianer.
@ZeroZerp hast du ne Ahnung, woher das ghosting bei CP77 kommt?

DLSS ist immer schlechter als Nativ, redet euch doch nichts ein. Wenn man die Leistung daraus nicht benötigt, schaltet man es nicht ein.
Das stimmt halt so nicht. Es gibt einige Beispiele, in denen es schlechter ist. Das liegt aber nicht an DLSS selbst, sondern an der Art und Weise, wie es implementiert wurde. Genau das ist auch der Punkt, den Zerozerp dir die ganze Zeit versucht zu erklären.

Da spricht man auch mal tiefgreifender über solche Themen.
Das passiert leider viel zu selten.
 
Zuletzt bearbeitet:
Der Sinn von DLSS ist anhand einer niedrigeren internen Auflösung und KI Algorithmen ein Bild zu berechnen welches dem nativen mindestens ebenbürtig ist und dabei auch noch eine Menge Performance freizugeben.
Das ist nachweislich geglückt, in den allermeisten Fällen sieht DLSS 2.0 nachweislich (deutlich) besser aus als dsd native Bild, zudem gibt es ein fettes Performanceplus.
Nur weil AMD diese Technologie noch nicht auf den Markt gebracht hat ist das kein Grund dagegen zu haten. Spätestens wenn sie KI Rechenkerne auf Hardwarebasis implementieren wird auch AMD etwas Ähnliches zur Verfügung stellen.
 
DLSS ist immer schlechter als Nativ, redet euch doch nichts ein. Wenn man die Leistung daraus nicht benötigt, schaltet man es nicht ein.
Stimmt halt nicht. DLSS2.0 basiert auf 16K-Rohmaterial, mit dem die KI trainiert wird. Hinzu kommen die Nachbearbeitungsalgorithmen. Es gibt viele Beispiele, wo DLSS2.0-Quality deutlich besser, detailreicher und schärfer aussieht als nativ - bei erheblich besserer Performance. Es gibt Titel wo es aktuell besser läuft und andere, wo es noch nachgebessert werden muss. Grundsätzlich ist deine Aussage aber völlig ignorant und nachweislich in einigen Fällen falsch.

 
Zuletzt bearbeitet:
Das passiert leider viel zu selten.
Ganz meine Meinung-
Die Foren, die sich "Computerforen" schimpfen, entfernen sich zusehends von technischen Aspekten weg hin zum Twitter- Ersatz, wo jeder mal eben die Welt seinen Gemütszustand mitteilt oder konstatieren muss, dass das eigene Auto schneller fährt, als das des anderen.

Miesmacherei gepaart mit Technologie- und Innovationsmüdigkeit. Da sehnt man nach den 80er/90er Jahren, wo jede neu Technologie sehnlichst willkommen geheißen wurde.
Man hat diesen damals auch noch zugestanden, sich entwickeln zu dürfen und nicht von Anfang an perfekt sein zu müssen.

Man ist halt inzwischen einfach zu "satt" von Technik und absolut verwöhnt, was diese kleinen technischen Wunderwerke namens Grafikbeschleuniger inzwischen zu leisten vermögen.
Der Sinn von DLSS ist anhand einer niedrigeren internen Auflösung und KI Algorithmen ein Bild zu berechnen welches dem nativen mindestens ebenbürtig ist und dabei auch noch eine Menge Performance freizugeben.
Da muss man ganz genau sein, sonst gibts wieder Missverständnisse: Die interne Auflösung wird durch temporale Akkumulation von Frame zu Frame höher.
Ist also im Ziel- Framebuffer/ aktiviertem Rendertarget nicht mehr niedriger, sondern höher.

Stimmt halt nicht. DLSS2.0 basiert auf 16K (?) Rohmaterial, mit dem die KI trainiert wird.
Das ist richtig, jedoch ist das im Gegensatz zu DLSS1.0, wo man tatsächlich versucht hat, das neuronale Netz Details erraten zu lassen, nunmehr eher eine Nachbearbeitung des vorher durch Akkumulation schon höher aufgelösten Bildes. Die KI schaut im Nachgang darauf, welchem Look sich das Bild annähern muss, um als Artefaktarm durchzugehen.

Die KI kontrolliert bei DLSS2.0 also eher die Fehleranfälligkeit und die korrekte Positionierung der bereits berechneten Pixel unter Einbeziehung der Motion- Vektoren, was ein völlig anderer Ansatz ist.

Die Schwierigkeit bei der temporalen Akkumulation ist eben gerade in Bewegung auszuwerten, welche Pixel noch gültig sind, bzw. welche neu berechnet werden müssen. Das ist sehr Aufwändig, kann durch eine trainierte KI jedoch effektiv durchgeführt werden.
 
Zuletzt bearbeitet:
Fakt ist, dass Du behauptet hast, dass es Fakt wäre, dass DLSS nicht auf Reflexionen wirken kann. Ich habe Dir an einem Praxisbeispiel das Gegenteil bewiesen (mit Vergleichsscreenshot und den Originalen im Anschluss).
Ich habe es nicht nur behauptet, sondern es wurde ja auch entsprechend belegt. Die Anwendungen auf die ich Zugriff hatte,
Wenn Du keine handfesten Beweise akzeptierst, dann bist Du durch nichts zu überzeugen. Dann ist aber auch diese Diskussion sinnlos und all meine Mühen, Dir das nahezubringen.
Mir gefällt die herangehensweise bei Control nicht. Ich würde es von Nativ QHD/UHD mit DLSS runterbrechen und dann vergleichen. Sollte das Upscaling korrekt funktionieren, soltle die Reflektion nur marginal leiden wie der Rest vom Bild auch. DLSS verwendet zusätzlich zur Skalierung ja auch Schärfefunktionen und matscht die Farbwerte zusammen.
Kann ich Dir heute Abend anfertigen.
Gerne.
Du hast nicht verstanden, was Supersampling bedeutet. Du rechnest intern mit größerer Pixelanzahl als Nativ Deinen engültigen Farbwert. Daher kann DLSS auch mehr Details bzw. Details die in nativer Auflösung Quantisierungsfehler aufweisen, richtig darstellen.
Ja, hab ich schon verstanden. Ändert aber nichts daran dass die Auflösung sinkt und man das eben sieht. Ich weiß nicht was es daran nicht zu verstehen gibt. Es macht das Bild in vielen Fällen ruhiger, vor allem filigrane Strukturen was definitiv ein großer Vorteil ist. Die Texturqualität an sich leider aber eben auch beträchtlich, zudem kommen weitere negative Eigenschaften hinzu wie das veränderte Farbbild, Treppchen etc.

ch verstehe nicht, wie du das auch noch so kleinste Haar in der Suppe bzgl. Nvidia rauspickst, aber keine Kritik auf AMD kommen lässt.
Ich verstehe nicht warum Ihr alle immer so weinerlich seid. Ich kritisiere da wo ich es für nötig erachte, mein erster Post hier in dem Thread lautet:
Ich vermute da wird nicht groß was gescheites bei rum kommen, wenn es proprietär wird wie bei NV ist es für die Tonne.
Total hochgeleobt :rollen:
Desweiteren habe ich kürzlich moniert das AMD endlich mal seine Hausaufgaben im Bezug auf die Cryengine machen muss da dort immer noch die Bugs bestehen in der Leistung und der Wattman lädt (mal wieder) nicht selbstständig seine Profile.Nervt!
Hatte ich auch schon die Schrott AGESA der Ryzen erwähnt?
Genug Kritik um deine Seele zu beruhigen, darf ich mich jetzt wieder dem Thema widmen?
Das OC und UV sei ja so viel besser, was in der Realität gerade mal ein paar Prozentchen sind.
Ich hab dass doch bereits an entsprechenden Benchmarks dargelegt, meine XT ist Undervoltet schneller als meine 3090 Foudner Undervoltet in den meisten Szenarien.
Du kannst gerne darlegen das eine 3080 ähnliches schafft, fühl dich frei.

Die Reaktion der Leute: Ist ja auch für Nv optimiert. Pustekuchen. Phillipp hat übrigens erstmal ein Ticket bei AMD erstellt
Naja Dirt 5, Godfall und The Medium laufen mit RT schon deutlich runder auf den Radeons als die älteren Titel.
In Godfall ist aber das Denoising crap.
 
Ich verstehe nicht warum Ihr alle immer so weinerlich seid. Ich kritisiere da wo ich es für nötig erachte, mein erster Post hier in dem Thread lautet:
Wir sind weinerlich oder vielleicht bist du einseitig in deiner Sichtweise. Und die reagierst teils völlig stur auf offensichtliche Beweise.
Naja Dirt 5, Godfall und The Medium laufen mit RT schon deutlich runder auf den Radeons als die älteren Titel.
In Godfall ist aber das Denoising crap.
Ja, neuere Titel.... Die daraus fälschlicherweise gezogene Konsequenz, dass die "älteren" Titel dann automatisch auf Nvidia optimiert sein müssen, beobachte ich leider sehr häufig.
 
Ich habe es nicht nur behauptet, sondern es wurde ja auch entsprechend belegt. Die Anwendungen auf die ich Zugriff hatte,
Du hast es aufgrund Deiner Erfahrungen und der Aussage von CB generalisiert. Es ist mir schon klar, dass das im Gesamtbild für Dich ein: "So muss es sein" ergibt.

Mir gefällt die herangehensweise bei Control nicht. Ich würde es von Nativ QHD/UHD mit DLSS runterbrechen und dann vergleichen.
Den Vergleich liefere ich Dir auch heute Abend.
DLSS verwendet zusätzlich zur Skalierung ja auch Schärfefunktionen und matscht die Farbwerte zusammen.
Supersampling eben. Du erhältst statt einem im Normalfall fehlerhaft quantisierten Pixel den Schnittwert mehrerer Pixel. Dieser "Matsch", wie Du ihn bezeichnest enthält aber korrektere Farbinformationen als das "native" Pixel, welches auf eine Zielauflösung quantisiert wurde.

Ja, hab ich schon verstanden. Ändert aber nichts daran dass die Auflösung sinkt und man das eben sieht.
Wie bereits geschrieben. In Frame 1 ist sie niedriger. In Frame zwei ungefähr gleich hoch und ab den folgenden Frames ist sie höher. Das lässt sich im Übrigen auch capturen. Da kann man das sehr schön sehen, wenn ein Szenenwechsel stattfindet.
Ich weiß nicht was es daran nicht zu verstehen gibt. Es macht das Bild in vielen Fällen ruhiger, vor allem filigrane Strukturen was definitiv ein großer Vorteil ist.
Jup
Die Texturqualität an sich leider aber eben auch beträchtlich, zudem kommen weitere negative Eigenschaften hinzu wie das veränderte Farbbild, Treppchen etc.
Die Texturqualität KANN bei DLSS2.0 nicht leiden, weil diese laut Leitfaden unberührt bleiben muss!!:
1612955295500.png

Und genau daran sieht man, wie schlampig man bei der Integration vorgeht, wenn nichtmal die einfachsten Grundsätze und Regeln bei der Implementation eingehalten werden.

Ich verstehe nicht warum Ihr alle immer so weinerlich seid. Ich kritisiere da wo ich es für nötig erachte, mein erster Post hier in dem Thread lautet:
Ist ja keiner weinerlich, zumindest habe ich nicht das Gefühl, dass das hier einer wäre.

Es geht darum, dass Du anzweifelst, dann liefert man Hintergründe, Links, fertigt sogar selbst Beweise an und Du lässt das nicht zählen.

Ab da wirds halt dann irgendwann sinnlos...
 
Zuletzt bearbeitet:
Ja, neuere Titel.... Die daraus fälschlicherweise gezogene Konsequenz, dass die "älteren" Titel dann automatisch auf Nvidia optimiert sein müssen, beobachte ich leider sehr häufig.
Und deine Einschätzung zu dem Umstand lautet dann wie? Ich kann gerne mal ne Frametimeanalyse von Godfall machen.

Wir sind weinerlich oder vielleicht bist du einseitig in deiner Sichtweise.
Ich hab es selbst getestet und das ist meine Einschätzug dazu, ich muss nicht alles feiern nur weil andere das machen und ich muss auch nicht zum hundersten male Wiederholen wo ich einen Nutzen oder die Stärken der Technik sehe nur damit sich man einer gebauchpinselt fühlt hier.
Nativ ist klar besser, Schärfefilter und Co lassen sich überall anlegen. Zu behaupten alle Entwickler wären zu doof erscheint mir mit Verlaub nicht schlüssig.

@ZeroZerp Mein stand war der beschriebene, bis dahin haben hier auch noch alle Behauptet bei CP würden die Reflektionen mit erfasst. Das kehrt man dann natürlich schnell unter den Teppich.

Das ist mein derzeitiger Kenntnisstand, RT Reflektionen werden nicht von DLSS erfasst. Die Aussge wurde sowohl von mehrern Mags getätigt und bei meinen Beobachtungen kann ich das auch klar bestätigen (Youngblood, Mechwarrior(ein Bughaufen mit RT&DLSS), WDL, Brigth Memory und Metro).

Dien Beispiel ais Control ist interessant, keine Frage. Wenn es denn dort der Fall ist dass die Reflektionen erfasst werden, dann ist es zumindest technisch möglich und wird aber quasi nie angewendet. Wahrscheinlich um Leistung zu sparen oder aber Latenzen zu vermeiden.
 
Das ist mein derzeitiger Kenntnisstand, RT Reflektionen werden nicht von DLSS erfasst. Die Aussge wurde sowohl von mehrern Mags getätigt und bei meinen Beobachtungen kann ich das auch klar bestätigen (Youngblood, Mechwarrior(ein Bughaufen mit RT&DLSS), WDL, Brigth Memory und Metro).

Dien Beispiel ais Control ist interessant, keine Frage. Wenn es denn dort der Fall ist dass die Reflektionen erfasst werden, dann ist es zumindest technisch möglich und wird aber quasi nie angewendet. Wahrscheinlich um Leistung zu sparen oder aber Latenzen zu vermeiden.
:daumen:

Genau um das macht ein Computerforum doch aus: Solche Sachverhalte zu Diskutieren, das Verständnis und den Kenntnisstand aufzubessern. Know how zusammentragen, vergleichen und schlauer wieder rausgehen...
 
Ich habe es nicht nur behauptet, sondern es wurde ja auch entsprechend belegt.
Nix wurde belegt. Es steht Aussage gegen Aussage. Du ignorierst die Gegenbeweise ja völlig und behauptest Dinge die nicht stimmen. Hier wurde schon mehrfach um Bildbeweise gebeten und die gab es von beiden Seiten. Wenn man nicht gerade DLSS-Performance auf FHD/WQHD als Vergleich heranzieht, sondern vielleicht WQHD oder 4K mit DLSS-Quality, dann ist das Bild schlicht genau so gut oder teils besser, je nachdem ob die Filter laufen oder nicht. Scroll ein paar Seiten zurück und gucke mal auf Control oder zieh dir Bilder von Death Stranding rein. Auch bei Cyberpunk ist DLSS-Quality erste Sahne. Es werden Dinge in der Entfernung sichtbar, die nativ gar nicht existieren. Gab dazu auch schon Bilder hier im Thread. In der Entfernung kommen Details hinzu, die Bildschärfe nimmt normalerweise zu und die Performance steigt um 60% oder mehr, wie wir hier gesehen haben. Wie man da nur rumhaten kann ist mir schleierhaft.

Wo ist das Pendant von AMD? Wir sprechen uns wenn Fidelity FX Super Resolution da ist und dann werden wir die selben Maßstäbe anlegen. Es wird ein Fest.
 
Ich vertraue dem ZeroZerp und seinem Know How, der steckt schließlich richtig drin in der Materie, auf jeden Fall Danke für deine Ausführungen hier. Wenns die Leute nicht richtig implementieren können wird halt direkt DLSS durch den Kakao gezogen, denn wir Laien sehen nur DLSS an= Bild blurry etc, natürlich gibts auch Beispiele wo es auch klasse aussieht, wie dem auch sei, jetzt weiß ich bescheid.
 
Nix wurde belegt. Es steht Aussage gegen Aussage. Du ignorierst die Gegenbeweise ja völlig und behauptest Dinge die nicht stimmen. Hier wurde schon mehrfach um Bildbeweise gebeten und die gab es von beiden Seiten. Wenn man nicht gerade DLSS-Performance auf FHD/WQHD als Vergleich heranzieht, sondern vielleicht WQHD oder 4K mit DLSS-Quality, dann ist das Bild schlicht genau so gut oder teils besser, je nachdem ob die Filter laufen oder nicht. Scroll ein paar Seiten zurück und gucke mal auf Control oder zieh dir Bilder von Death Stranding rein. Auch bei Cyberpunk ist DLSS-Quality erste Sahne. Es werden Dinge in der Entfernung sichtbar, die nativ gar nicht existieren. Gab dazu auch schon Bilder hier im Thread. In der Entfernung kommen Details hinzu, die Bildschärfe nimmt normalerweise zu und die Performance steigt um 60% oder mehr, wie wir hier gesehen haben. Wie man da nur rumhaten kann ist mir schleierhaft.

Wo ist das Pendant von AMD? Wir sprechen uns wenn Fidelity FX Super Resolution da ist und dann werden wir die selben Maßstäbe anlegen. Es wird ein Fest.
Du fährst in deinem Hypetrain am Thema vorbei.
 
Boah Leute... Es geht um die Aussage man sollte DLSS IMMER anschalten wenn verfügbar. Sorry aber nein.
Habe das Thema nur so am Rande verfolgt, allerdings ist mir nur ein Spiel mit DLSS 2.0 in Screenshots wirklich negativ aufgefallen und das ist Cyberpunk. Ich werde die Funktion pauschal aktivieren, wenn sie verfügbar ist.
In Death Stranding kann man es bspw. problemlos immer anschalten da die Implementierung hier besser ist.
Das sehe ich auch so.
Auch bei Cyberpunk ist DLSS-Quality erste Sahne. Es werden Dinge in der Entfernung sichtbar, die nativ gar nicht existieren.
Bei Cyberpunk aber erst ab 4K, darunter wird das Bild schlechter. Zäune werden schlechter dargestellt, das rote Menü ist verpixelt und die Kantenglättung ist schwer zu ertragen. Ich habe das live bei einem Kollegen gesehen.
Unter 4K ist es keine Option in Cyberpunk, Death Stranding dagegen klappt sehr gut.
DLSS ist immer schlechter als Nativ, redet euch doch nichts ein. Wenn man die Leistung daraus nicht benötigt, schaltet man es nicht ein.
Das stimmt nicht. Control, Death Stranding, Mechwarrior, Deliver Us the Moon, usw.
Die meisten Titel sehen mindestens bis leicht besser als nativ aus, sogar bei 1080p bzw 1440p. In Cyberpunk muss man DLSS auf 4K Ausgangsauflösung anwenden, dann ist es gleichwertig. Darunter nicht, aber auch das kann sich noch verbessern.
Das ist nachweislich Unsinn.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Manche Details sind mit DLSS offenbar besser.
Ich denke ich schau noch andere Videos, ich denke aber es ist etwas schlechter.
die aktuellen implementierungen sind oft nicht überzeugend.
Welche Titel sind das denn? Cyberpunk finde ich nach Sichtung des Videos etwas schlechter, aber immer noch wesentlich besser als pures Upscaling, ab 4K dann gleichwertig.
 
Zuletzt bearbeitet:
Du fährst in deinem Hypetrain am Thema vorbei.
Immerhin sitze ich nicht Trübsal blasend am Bahnhof fest.

Bei Cyberpunk aber erst ab 4K, darunter wird das Bild schlechter. Zäune werden schlechter dargestellt, das rote Menü ist verpixelt und die Kantenglättung ist schwer zu ertragen. Ich habe das live bei einem Kollegen gesehen.
Unter 4K ist es keine Option in Cyberpunk, Death Stranding dagegen klappt sehr gut.
Das hier ist aus deinem verlinkten Video. Das ist WQHD und DLSS sieht besser aus als nativ. Und der Knaller... man muss erstmal 4x heranzoomen um überhaupt Unterschiede zu finden.

Also ich würde hier widersprechen, dass DLSS bei Cyberpunk erst ab 4K besser oder gleich aussieht. Für mich ist es bei WQHD schon besser/gleichwertig. Siehe Bilder unten.

Ich empfehle es übrigens live zu schauen, da man beim nativen Bild übelstes Clipping durch die Stufenbildung und Auslöschungesartefakte auf kleinen Strukturen sieht. Zum Beispiel an den Zäunen oder am unteren Bild an dieser orangenen Stange. Ist nur am Rumflackern das Ding. Bei DLSS alles sauber und glatt. Auch die Schriftzüge werden erst mit DLSS vollständig dargestellt. Im nativen Bild fehlen einzelne Buchstaben.

1.jpg


2.jpg
 
Zuletzt bearbeitet:
ach waren das zeiten wo man ein spiel gestartet hat und Settings gewählt und losgezockt hat. Nun muss man mit rt und dlss rumwichsen damit man spielbare fps zustande bringt. Was ist aus Gaming geworden.:nene: ist dochn witz das ich mit einer 700€ karte runter raufskalieren rekonstruktieren muss um spielbare fps zu bekommen. Früher(als 700€ karten wirklich 700€ gekostet haben) hat mal alles auf ultra geknallt und hatte ruhe.
 
Zurück