AMD Fidelity FX Super Resolution: Der aktuelle Stand zum DLSS-Konkurrenten

96ms sind schon cool. Ich hatte als kleinsten Wert gerade mal 121ms. Ich gucke aber auch auf einen 60Hz Bildschirm. Du hast einen 144er, richtig? Da wären wir ja bei raPids Aussage.
Ok, das konnte ich jetzt nicht auf mir sitzen lassen. :D

1619109451643.png


144hz Monitor mit 6,4 ms Schaltzeit. Ich werde tatsächlich alt. Oder arbeite zuviel...
 
rechnet man die 12ms hin und zurück zum server noch runter und den Input-lag weg. Wird man wahrscheinlich auf ein negatives Ergebnis kommen... :lol:
96ms sind schon cool. Ich hatte als kleinsten Wert gerade mal 121ms. Ich gucke aber auch auf einen 60Hz Bildschirm. Du hast einen 144er, richtig? Da wären wir ja bei raPids Aussage.

Edith sagt: auf der Seite gibts noch einen Aim Trainer, da wären die Ergebnisse weiter auseinander. Da die Seite leider dabei nicht den gesamten Monitorbereich abfragt, ist das Ergebnis auch wieder Asche.
 
Zuletzt bearbeitet:
rechnet man die 12ms hin und zurück zum server noch runter und den Input-lag weg. Wird man wahrscheinlich auf ein negatives Ergebnis kommen... :lol:
Puh, stimmt, danke. Ich dachte schon ich wäre "nur" noch Durchschnitt.

1619110285705.png


157ms - 40ms - (Input Lag geschätzt) 27ms = ~90ms

Wenn ich die 90ms ansetze, dann ist der Unterschied 30 FPS vs 60 FPS noch deutlicher bei 15-30%.

Edit: Es geht hier auch nicht um "Meinungen", man kann ganz einfach ausrechnen wie oft der Monitor bei x Hertz refreshed. 1000ms / hz = ms/refresh

1000ms / 30 = alle 33ms wird das Bild refreshed
1000ms / 60 = alle 16ms wird das Bild refreshed

Wenn man jetzt davon ausgeht dass man immer die maximale hz auch als FPS anliegen hat, dann sind wir bei den 16-33ms "früher sehen" beim 30 vs 60 FPS Vergleich.

Warum 16-33ms? Weil es sein kann dass die Grafikkarte dem Monitor ein Bild mit neuen Informationen am Anfang (33ms Unterschied) oder am Ende (16ms Unterschied) eines Refresh liefert.
 
Zuletzt bearbeitet von einem Moderator:
Warten wir mal ab, wenn RE Village als AMD Partner-Titel im Mai erscheint, was AMD bis dahin in Sachen RT-Leistung aus dem Hut zaubert und vor allem wie die Nvidia-Karten da voraussichtlich ohne DLSS performen :cool: Das wird sehr spannend. CP 2077 war ja der Nvidias RT-Vorzeigetitel und da bin ich schon auch froh bei aktiviertem RT auf DLSS setzen zu können. Ich freue mich auf jeden Fall auf die kommende Entwicklung und hoffe, dass die Performance von Spielen dadurch generell wieder auf höherem Niveau liegt.
Stimmt. Ich finde DLSS halt auch ohne RT spannend, da man so "gratis" Leistung bekommt und zB meine Vega 56 sich in 1440p abmüht. Wenn ich theoretisch dann eine RDNA fähige Karte hab, die DLSS nutzen köntte, würde ich in so einem Fall profitieren.
 
Link zum Fakt! Bitte! Lass mich raten, hat Dir auch Dein Kumpel erzählt?
Bitte.
Eine erhöhte Framerate resultiert allerdings in flüssigeren Animationen, reduziertem Ghosting sowie Tearing oder auch einer besseren Latenz. Werden diese Faktoren in den Kontext gesetzt, erklärt es die positive Beziehung der beiden Werte in der obenstehenden Grafik.
Das ist doch hier ein Gamingforum, Ich dachte, sowas ist klar.
Das ist auch der Grund warum ich kein Konsolero bin, 30 FPS wären mir persönlich zu wenig.
 
Aber eben im Moment nur mit Manko!

Persönlich würde ich beispielsweise für den Sprung von 50 fps auf 100 fps nicht fünf Prozent Bildqualität opfern wollen. Ich! Was andere entscheiden ist deren Sache. Ich! würde es nicht. Genau das drücken hier aber viele nicht aus. In diesem thread gibt es bestimmt zwanzig User oder mehr, die einfach sagen DLSS ist toll und ich kann mit einer xx60 Karte in 4K spielen. Allerdings ohne die Abstriche zu erwähnen. Genau das ist halt eben nicht so. Warum bitte spielt man denn in hoher Auflösung? Weil man maximale Bildqualität will.
So einfach ist die Sache eben nicht. DLSS ist auch eine Art Kantenglättung und kann tatsächlich Bildinhalte rekonstruieren die es im 16k Master gelernt hat. Die fallen bei nativ 4k und gerade bei Auflösungen darunter durch das Pixelraster. Gibt es genug Beispiele in Control und Wolfenstein Youngblood in DF Videos die zeigen dass DLSS im Quality Mode mehr Details im Bild haben kann als höhere native Auflösungen.
Vergleich dürfte oft eben TAA als Alternative sein weil gefühlt 90% aller Games darauf setzen. Was hast da alles für Nachteile/Manko die man jetzt von Dir nicht hört? Ghosting und ordentlich Schärfeverlust gegenüber anderen AA-Methoden gehören mitunter dazu. Da sieht jedes native 4k Bild mit TAA ohne Softwarenachschärfen oft wie 1440-1600p eher aus. Ja auch DLSS kann unschärfer aussehen was in der Natur der Sache liegt wenn es von niedrigere Renderauflösung hochrechnet. Jetzt bitte nicht Cyberpunk als Beispiel nehmen wo nur TAA mit Nachschärfung arbeitet aber DLSS nicht.
Nur wo du natürlich etwas Bildschärfe gegenüber schärferen AA Methoden opferst bekommst Bilddetails eben auch angezeigt die oft nicht dargestellt werden. Zumindest wenn man nicht selber von 8k Downsampling betreibt.

Wie bei allen AA-Methoden gibt es eben gute Ausführungen und eben schlechte. je nach Entwickler und Engine und Artsyle kann es zu einem anderen Endergebnis führen.

Letzten Endes ist es doch eher zu begrüßen wenn es mehr Optionen im Grafikmenü gibt. Man entscheidet dann eben selber ob DLSS, TAA, SMAA usw was einem gefällt. Gibt nicht das eine was Richtig ist. Bild allein greift nicht nur Upscaling, AA sondern allein schon Bildeinstellung deines Monitor/TV. Ob die Farben, Bildschärfe usw korrekt sind hängt da auch von der Bildschirmgüte und eigenen Einstellungen ab.


Ich persönlich entscheide es eben halt dann einfach von Spiel zu Spiel. Es gibt genug wo man mit 2008Ti nicht konstant nativ 4k/60fps halten kann. Marvel Avengers z.B. kannst ersten Schlauchlevel und Innenraummissionen in hohen Setting mit 4k/60 locker stemmen. Kaum kommen die offen Außenarelae muss man auf 1440p runter trotz TAA bei gleichen Einstellungen. Was willst jetzt also machen außer den aggressiven Auflösuungsscaler zu benutzen. Nur der stellt dann 1080p-1800p ein. Erst als gute DLSS Implementierung nachgepatch wurde kann man dass Game locker in hohen Settings in DLSS Quality spielen ohne jedes mal ins Grafikmenü zu müssen. Finde ich persönlich sehr großen Vorteil. Unterschied zu nativ 4k ist nur im direkten vergleich zu suchen selbst auf 48" OLED Monitor. Wette dass die meisten Leute im Blindtest in Bewegtbilddarstellung nicht erraten können was was genau ist. Nur auf Fotos in Ruhe nach Unterschieden zu suchen stellt nicht die Realität da. Spielt Spiele meist in Bewegung und nicht in Standbildern.

Daher begrüß ich es sehr dass selbst PS5 und Series X/S auf AI Upscaling bzw generell gute Upscaler setzen und nicht nativ 4k anpeilen. 60fps sind auch in Bewegung detailreicher als 30fps.
Auch die ganzen 33080/3090 und 6800/6900er werden mit neuen Engine wie UE5 mit mehr Rechenaufwand in die Knie gehen. Glaubt man man bleibt von der Grafik Stand 2020 stehen? Also werden auch diese Karten irgendwann kaum mehr nativ 4k packen. Was willst dann also machen wenn nicht DLSS oder AMD Super Resolution bemühen?
 
Also der aktuelle Stand ist
AMDs Alternative zu DLSS. Zu diesem Thema gebe es nichts Neues - man werde es alle Interessierten wissen lassen, sobald sich das ändere.
Find ich schon wieder einen ziemlich frechen Clickbait. Dachte es gäbe endlich was neues, aber das neue ist, dass es eben nichts neues und somit weiterhin keinen Termin gibt.
Wieder ein Artikel bei dem ich froh bin, Adblock, Ghostery und Co aktiviert zu haben.
Bitte.

Das ist doch hier ein Gamingforum, Ich dachte, sowas ist klar.
Das ist auch der Grund warum ich kein Konsolero bin, 30 FPS wären mir persönlich zu wenig.
Quelle der Studie: NVIDIA
 
Es geht auch nicht ums ZIELEN in 180ms, nur ums SEHEN. Mit 60 FPS (vs 30 FPS) sieht man den Gegner IMMER zwischen 16-33ms früher als der Gegner einen selbst wenn man um eine Ecke kommt.
Ich habe mal drei Durchgänge hintereinander gemacht um mich zu testen.

dritter.PNG


erster.PNG


drei.PNG


Ich habe nun 12 Durchgänge gemacht und war immer zwischen 130 und 160 ms, ist das gut?
 
Bitte.

Das ist doch hier ein Gamingforum, Ich dachte, sowas ist klar.
Das ist auch der Grund warum ich kein Konsolero bin, 30 FPS wären mir persönlich zu wenig.

Eigentlich sagt dieser Artikel auch nur das der Bildlauf harmonischer wird und man dadurch BS-Inhalte besser erkennt. Du meintest (applizierst) aber:

Mit mehr FPS trifft man besser.

Und das ist nicht belegt. Wenn Du im bedienen der Maus schlecht bist, wird aus dir ein hoher Hz-Wert des Monitors keinen Übermenschen machen. Mit Sync hast du einen angepassten Bildaufbau zur Übertragung des Bildsignals, was die Darstellung signifikant verbessert. Aber es verbessert dein Spiel nicht.
Godmode-Monitore gibt´s nur in der Werbung.

Edith: probier mal den Aim-Tester auf der selben Seite
 
Aber eben im Moment nur mit Manko!
Ich habe das real auf dem Bildschirm gesehen und das Manko ohne DLSS ist für mich höher.
Weniger FPS und ein deutlicheres Flimmern in Bewegung und weniger Objektdetails.
Habe eine RTX 3060 im Hardwareluxx Forum für 500 Euro gekauft und kann es hoffentlich am Samstag gleich selbst probieren. Fachartikel von rapid81 verlinkt dazu sind eindeutig. Für mich stimmt es einfach nicht was du behauptest.
Und das ist nicht belegt.
Genau das belegt der Artikel, lies ihn doch.
Das KDR Verhältnis steigt an je höher die Framerrate ist und das ist auch völlig klar.
Weniger Latenz, bessere Bildabläufe und auch das Maussignal kommt schneller an.

Wenn Du im bedienen der Maus schlecht bist, wird aus dir ein hoher Hz-Wert des Monitors keinen Übermenschen machen.
Das habe ich ja auch nicht gesagt.
Beim Aiming habe ich im Durchschnitt 320ms.
 
Zuletzt bearbeitet:
doppelte fps = doppelte Informationen. Nicht nur sieht man Spieler schneller, alle Bewegungsabläufe dieser Spieler sind flüssiger und vollständiger. Dasselbe gilt für die Mausbewegung und Mausbeschleunigung. Es ist ziemlich naiv zu glauben, dass das kein enormer Vorteil ist. Ich kann jedem 144hz-Spieler mal empfehlen auf 60hz zu wechseln. Dann spricht man plötzlich nicht mehr von "kleineren Nachteilen", sondern denkt sein Monitor wäre kaputt.
Gsync etc. ist zwar genial, ich würde es nie wieder hergeben wollen, packt aber wieder Latenz drauf. Die meisten "Sportler" haben lieber Tearing, dafür immer die aktuellsten Bildinformationen in einem halbwegs konsistenten Zeitfenster.
Beim Thema DLSS gibt es absolut keine Gründe warum man es nicht nutzen sollte - gute Integration vorausgesetzt. Die Bildqualität wird in den meisten Fällen nicht schlechter, die Performance so viel besser wie sonst eine gute, neue Grafikkartengeneration. Scheinbar vergessen alle wie unterirdisch TAA ist und diese Artefakte sind in den Vergleichsscreenshots nichtmal sichtbar.
 
Quelle der Studie: NVIDIA
Vollkommen egal ob das eine Studie zur Marketing Unterstützung ist, das macht sie nicht falsch.

Fakt ist dass in Multiplayer Games jegliche Verzögerung, sei es durch:

- Input Lag
- Niedrige FPS
- Niedrige Hertz des Monitors
- Hohe Latenz zum Server

Einfluss auf die Performance des Spielers hat. Geht man von einem gleichen Skill-Level aus, dann "gewinnt" im direkten Vergleich der Spieler mit den besseren Voraussetzungen mehr Matches als der Spieler mit schlechten Voraussetzungen.

Es ist ja nicht nur der Unterschied 30 vs 60 FPS, es addiert sich alles aufeinander, und am Ende kommen dann beim "optimierten" Setup locker 100ms Vorteil heraus. Spiel mal mit Ping 120ms gegen jemand mit Ping 20ms der ähnlich gut ist, ich garantiere dass Du 9/10 1v1 Matches verlierst.
Gsync etc. ist zwar genial, ich würde es nie wieder hergeben wollen, packt aber wieder Latenz drauf. Die meisten "Sportler" haben lieber Tearing, dafür immer die aktuellsten Bildinformationen in einem halbwegs konsistenten Zeitfenster.
Das wurde zum Glück behoben und vom allmächtigen Igor bewiesen, aktuelle Treiber und korrekte Einstellungen vorausgesetzt hat man durch G-Sync / Freesync keine erhöhte Latenz.

Link

I could not determine a latency influence by adaptive sync technologies, no matter if G-SYNC or FreeSync. The rumor that adaptive sync affects the latency could be dismissed to the realm of fables!

Auch schön:
Greetings to all 60 Hz gamers: 35% lower latency on a 240 Hz panel at 325 FPS. So much for that, a 60 Hz monitor is good enough for me! This means that not only does the 60 Hz player lose out in terms of end-to-end latency, but more importantly, the 240 Hz player can see you on average about 35% faster than you can see the opponent on the 60 Hz monitor.
 
Zuletzt bearbeitet von einem Moderator:
Die 48ms waren ein Zufallsklick, du musst 10 Durchläufe machen, dann siehst du in etwa was du leisten kannst.
Alles unter 180 ist laut der Website hervorragend.
 
Die 48ms waren ein Zufallsklick, du musst 10 Durchläufe machen, dann siehst du in etwa was du leisten kannst.
Alles unter 180 ist laut der Website hervorragend.

der zufall war eine 8 :D ..ich habe heute cr. 20 durchläufe gemacht die besten werden nach dem man sich etwas einge klikt hat aber bin zwischen 145 und 170 ms der oebre war der beste wert.
 
Unter dem Artikel steht "Fakten zu AMDs FSR" (oder so ähnlich) und dann, dass es AI bzw. Deep Learning nutzen soll um Upscaling/Kantenglättung/Schärfung durchzuführen.

Ein AMD-Entwickler hat aber sehr deutlich gesagt, dass Deep Learning dafür überhaupt nicht notwendig sei und es in einem Talk so dargestellt, dass AMDs Lösung ohne ein neuronales Netz auskommt.
Naja, deren GPUs müssen ja auch ohne auf die Verarbeitung von solchen Aufgaben spezialisierte Kerne auskommen...
 
Zurück