• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Fidelity FX Super Resolution: Der aktuelle Stand zum DLSS-Konkurrenten

raPid-81

Freizeitschrauber(in)
96ms sind schon cool. Ich hatte als kleinsten Wert gerade mal 121ms. Ich gucke aber auch auf einen 60Hz Bildschirm. Du hast einen 144er, richtig? Da wären wir ja bei raPids Aussage.
Ok, das konnte ich jetzt nicht auf mir sitzen lassen. :D

1619109451643.png


144hz Monitor mit 6,4 ms Schaltzeit. Ich werde tatsächlich alt. Oder arbeite zuviel...
 

beastyboy79

Software-Overclocker(in)
rechnet man die 12ms hin und zurück zum server noch runter und den Input-lag weg. Wird man wahrscheinlich auf ein negatives Ergebnis kommen... :lol:
96ms sind schon cool. Ich hatte als kleinsten Wert gerade mal 121ms. Ich gucke aber auch auf einen 60Hz Bildschirm. Du hast einen 144er, richtig? Da wären wir ja bei raPids Aussage.

Edith sagt: auf der Seite gibts noch einen Aim Trainer, da wären die Ergebnisse weiter auseinander. Da die Seite leider dabei nicht den gesamten Monitorbereich abfragt, ist das Ergebnis auch wieder Asche.
 
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
rechnet man die 12ms hin und zurück zum server noch runter und den Input-lag weg. Wird man wahrscheinlich auf ein negatives Ergebnis kommen... :lol:
Puh, stimmt, danke. Ich dachte schon ich wäre "nur" noch Durchschnitt.

1619110285705.png


157ms - 40ms - (Input Lag geschätzt) 27ms = ~90ms

Wenn ich die 90ms ansetze, dann ist der Unterschied 30 FPS vs 60 FPS noch deutlicher bei 15-30%.

Edit: Es geht hier auch nicht um "Meinungen", man kann ganz einfach ausrechnen wie oft der Monitor bei x Hertz refreshed. 1000ms / hz = ms/refresh

1000ms / 30 = alle 33ms wird das Bild refreshed
1000ms / 60 = alle 16ms wird das Bild refreshed

Wenn man jetzt davon ausgeht dass man immer die maximale hz auch als FPS anliegen hat, dann sind wir bei den 16-33ms "früher sehen" beim 30 vs 60 FPS Vergleich.

Warum 16-33ms? Weil es sein kann dass die Grafikkarte dem Monitor ein Bild mit neuen Informationen am Anfang (33ms Unterschied) oder am Ende (16ms Unterschied) eines Refresh liefert.
 
Zuletzt bearbeitet:

SnaxeX

BIOS-Overclocker(in)
Warten wir mal ab, wenn RE Village als AMD Partner-Titel im Mai erscheint, was AMD bis dahin in Sachen RT-Leistung aus dem Hut zaubert und vor allem wie die Nvidia-Karten da voraussichtlich ohne DLSS performen :cool: Das wird sehr spannend. CP 2077 war ja der Nvidias RT-Vorzeigetitel und da bin ich schon auch froh bei aktiviertem RT auf DLSS setzen zu können. Ich freue mich auf jeden Fall auf die kommende Entwicklung und hoffe, dass die Performance von Spielen dadurch generell wieder auf höherem Niveau liegt.
Stimmt. Ich finde DLSS halt auch ohne RT spannend, da man so "gratis" Leistung bekommt und zB meine Vega 56 sich in 1440p abmüht. Wenn ich theoretisch dann eine RDNA fähige Karte hab, die DLSS nutzen köntte, würde ich in so einem Fall profitieren.
 

Opprobrium

PC-Selbstbauer(in)
Link zum Fakt! Bitte! Lass mich raten, hat Dir auch Dein Kumpel erzählt?
Bitte.
Eine erhöhte Framerate resultiert allerdings in flüssigeren Animationen, reduziertem Ghosting sowie Tearing oder auch einer besseren Latenz. Werden diese Faktoren in den Kontext gesetzt, erklärt es die positive Beziehung der beiden Werte in der obenstehenden Grafik.
Das ist doch hier ein Gamingforum, Ich dachte, sowas ist klar.
Das ist auch der Grund warum ich kein Konsolero bin, 30 FPS wären mir persönlich zu wenig.
 

KuroSamurai117

BIOS-Overclocker(in)
Aber eben im Moment nur mit Manko!

Persönlich würde ich beispielsweise für den Sprung von 50 fps auf 100 fps nicht fünf Prozent Bildqualität opfern wollen. Ich! Was andere entscheiden ist deren Sache. Ich! würde es nicht. Genau das drücken hier aber viele nicht aus. In diesem thread gibt es bestimmt zwanzig User oder mehr, die einfach sagen DLSS ist toll und ich kann mit einer xx60 Karte in 4K spielen. Allerdings ohne die Abstriche zu erwähnen. Genau das ist halt eben nicht so. Warum bitte spielt man denn in hoher Auflösung? Weil man maximale Bildqualität will.
So einfach ist die Sache eben nicht. DLSS ist auch eine Art Kantenglättung und kann tatsächlich Bildinhalte rekonstruieren die es im 16k Master gelernt hat. Die fallen bei nativ 4k und gerade bei Auflösungen darunter durch das Pixelraster. Gibt es genug Beispiele in Control und Wolfenstein Youngblood in DF Videos die zeigen dass DLSS im Quality Mode mehr Details im Bild haben kann als höhere native Auflösungen.
Vergleich dürfte oft eben TAA als Alternative sein weil gefühlt 90% aller Games darauf setzen. Was hast da alles für Nachteile/Manko die man jetzt von Dir nicht hört? Ghosting und ordentlich Schärfeverlust gegenüber anderen AA-Methoden gehören mitunter dazu. Da sieht jedes native 4k Bild mit TAA ohne Softwarenachschärfen oft wie 1440-1600p eher aus. Ja auch DLSS kann unschärfer aussehen was in der Natur der Sache liegt wenn es von niedrigere Renderauflösung hochrechnet. Jetzt bitte nicht Cyberpunk als Beispiel nehmen wo nur TAA mit Nachschärfung arbeitet aber DLSS nicht.
Nur wo du natürlich etwas Bildschärfe gegenüber schärferen AA Methoden opferst bekommst Bilddetails eben auch angezeigt die oft nicht dargestellt werden. Zumindest wenn man nicht selber von 8k Downsampling betreibt.

Wie bei allen AA-Methoden gibt es eben gute Ausführungen und eben schlechte. je nach Entwickler und Engine und Artsyle kann es zu einem anderen Endergebnis führen.

Letzten Endes ist es doch eher zu begrüßen wenn es mehr Optionen im Grafikmenü gibt. Man entscheidet dann eben selber ob DLSS, TAA, SMAA usw was einem gefällt. Gibt nicht das eine was Richtig ist. Bild allein greift nicht nur Upscaling, AA sondern allein schon Bildeinstellung deines Monitor/TV. Ob die Farben, Bildschärfe usw korrekt sind hängt da auch von der Bildschirmgüte und eigenen Einstellungen ab.


Ich persönlich entscheide es eben halt dann einfach von Spiel zu Spiel. Es gibt genug wo man mit 2008Ti nicht konstant nativ 4k/60fps halten kann. Marvel Avengers z.B. kannst ersten Schlauchlevel und Innenraummissionen in hohen Setting mit 4k/60 locker stemmen. Kaum kommen die offen Außenarelae muss man auf 1440p runter trotz TAA bei gleichen Einstellungen. Was willst jetzt also machen außer den aggressiven Auflösuungsscaler zu benutzen. Nur der stellt dann 1080p-1800p ein. Erst als gute DLSS Implementierung nachgepatch wurde kann man dass Game locker in hohen Settings in DLSS Quality spielen ohne jedes mal ins Grafikmenü zu müssen. Finde ich persönlich sehr großen Vorteil. Unterschied zu nativ 4k ist nur im direkten vergleich zu suchen selbst auf 48" OLED Monitor. Wette dass die meisten Leute im Blindtest in Bewegtbilddarstellung nicht erraten können was was genau ist. Nur auf Fotos in Ruhe nach Unterschieden zu suchen stellt nicht die Realität da. Spielt Spiele meist in Bewegung und nicht in Standbildern.

Daher begrüß ich es sehr dass selbst PS5 und Series X/S auf AI Upscaling bzw generell gute Upscaler setzen und nicht nativ 4k anpeilen. 60fps sind auch in Bewegung detailreicher als 30fps.
Auch die ganzen 33080/3090 und 6800/6900er werden mit neuen Engine wie UE5 mit mehr Rechenaufwand in die Knie gehen. Glaubt man man bleibt von der Grafik Stand 2020 stehen? Also werden auch diese Karten irgendwann kaum mehr nativ 4k packen. Was willst dann also machen wenn nicht DLSS oder AMD Super Resolution bemühen?
 

Rollora

Kokü-Junkie (m/w)
Also der aktuelle Stand ist
AMDs Alternative zu DLSS. Zu diesem Thema gebe es nichts Neues - man werde es alle Interessierten wissen lassen, sobald sich das ändere.
Find ich schon wieder einen ziemlich frechen Clickbait. Dachte es gäbe endlich was neues, aber das neue ist, dass es eben nichts neues und somit weiterhin keinen Termin gibt.
Wieder ein Artikel bei dem ich froh bin, Adblock, Ghostery und Co aktiviert zu haben.
Bitte.

Das ist doch hier ein Gamingforum, Ich dachte, sowas ist klar.
Das ist auch der Grund warum ich kein Konsolero bin, 30 FPS wären mir persönlich zu wenig.
Quelle der Studie: NVIDIA
 

Opprobrium

PC-Selbstbauer(in)
Es geht auch nicht ums ZIELEN in 180ms, nur ums SEHEN. Mit 60 FPS (vs 30 FPS) sieht man den Gegner IMMER zwischen 16-33ms früher als der Gegner einen selbst wenn man um eine Ecke kommt.
Ich habe mal drei Durchgänge hintereinander gemacht um mich zu testen.

dritter.PNG


erster.PNG


drei.PNG


Ich habe nun 12 Durchgänge gemacht und war immer zwischen 130 und 160 ms, ist das gut?
 

beastyboy79

Software-Overclocker(in)
Bitte.

Das ist doch hier ein Gamingforum, Ich dachte, sowas ist klar.
Das ist auch der Grund warum ich kein Konsolero bin, 30 FPS wären mir persönlich zu wenig.

Eigentlich sagt dieser Artikel auch nur das der Bildlauf harmonischer wird und man dadurch BS-Inhalte besser erkennt. Du meintest (applizierst) aber:

Mit mehr FPS trifft man besser.

Und das ist nicht belegt. Wenn Du im bedienen der Maus schlecht bist, wird aus dir ein hoher Hz-Wert des Monitors keinen Übermenschen machen. Mit Sync hast du einen angepassten Bildaufbau zur Übertragung des Bildsignals, was die Darstellung signifikant verbessert. Aber es verbessert dein Spiel nicht.
Godmode-Monitore gibt´s nur in der Werbung.

Edith: probier mal den Aim-Tester auf der selben Seite
 

Opprobrium

PC-Selbstbauer(in)
Aber eben im Moment nur mit Manko!
Ich habe das real auf dem Bildschirm gesehen und das Manko ohne DLSS ist für mich höher.
Weniger FPS und ein deutlicheres Flimmern in Bewegung und weniger Objektdetails.
Habe eine RTX 3060 im Hardwareluxx Forum für 500 Euro gekauft und kann es hoffentlich am Samstag gleich selbst probieren. Fachartikel von rapid81 verlinkt dazu sind eindeutig. Für mich stimmt es einfach nicht was du behauptest.
Und das ist nicht belegt.
Genau das belegt der Artikel, lies ihn doch.
Das KDR Verhältnis steigt an je höher die Framerrate ist und das ist auch völlig klar.
Weniger Latenz, bessere Bildabläufe und auch das Maussignal kommt schneller an.

Wenn Du im bedienen der Maus schlecht bist, wird aus dir ein hoher Hz-Wert des Monitors keinen Übermenschen machen.
Das habe ich ja auch nicht gesagt.
Beim Aiming habe ich im Durchschnitt 320ms.
 
Zuletzt bearbeitet:

Phenicks

Schraubenverwechsler(in)
doppelte fps = doppelte Informationen. Nicht nur sieht man Spieler schneller, alle Bewegungsabläufe dieser Spieler sind flüssiger und vollständiger. Dasselbe gilt für die Mausbewegung und Mausbeschleunigung. Es ist ziemlich naiv zu glauben, dass das kein enormer Vorteil ist. Ich kann jedem 144hz-Spieler mal empfehlen auf 60hz zu wechseln. Dann spricht man plötzlich nicht mehr von "kleineren Nachteilen", sondern denkt sein Monitor wäre kaputt.
Gsync etc. ist zwar genial, ich würde es nie wieder hergeben wollen, packt aber wieder Latenz drauf. Die meisten "Sportler" haben lieber Tearing, dafür immer die aktuellsten Bildinformationen in einem halbwegs konsistenten Zeitfenster.
Beim Thema DLSS gibt es absolut keine Gründe warum man es nicht nutzen sollte - gute Integration vorausgesetzt. Die Bildqualität wird in den meisten Fällen nicht schlechter, die Performance so viel besser wie sonst eine gute, neue Grafikkartengeneration. Scheinbar vergessen alle wie unterirdisch TAA ist und diese Artefakte sind in den Vergleichsscreenshots nichtmal sichtbar.
 

raPid-81

Freizeitschrauber(in)
Quelle der Studie: NVIDIA
Vollkommen egal ob das eine Studie zur Marketing Unterstützung ist, das macht sie nicht falsch.

Fakt ist dass in Multiplayer Games jegliche Verzögerung, sei es durch:

- Input Lag
- Niedrige FPS
- Niedrige Hertz des Monitors
- Hohe Latenz zum Server

Einfluss auf die Performance des Spielers hat. Geht man von einem gleichen Skill-Level aus, dann "gewinnt" im direkten Vergleich der Spieler mit den besseren Voraussetzungen mehr Matches als der Spieler mit schlechten Voraussetzungen.

Es ist ja nicht nur der Unterschied 30 vs 60 FPS, es addiert sich alles aufeinander, und am Ende kommen dann beim "optimierten" Setup locker 100ms Vorteil heraus. Spiel mal mit Ping 120ms gegen jemand mit Ping 20ms der ähnlich gut ist, ich garantiere dass Du 9/10 1v1 Matches verlierst.
Gsync etc. ist zwar genial, ich würde es nie wieder hergeben wollen, packt aber wieder Latenz drauf. Die meisten "Sportler" haben lieber Tearing, dafür immer die aktuellsten Bildinformationen in einem halbwegs konsistenten Zeitfenster.
Das wurde zum Glück behoben und vom allmächtigen Igor bewiesen, aktuelle Treiber und korrekte Einstellungen vorausgesetzt hat man durch G-Sync / Freesync keine erhöhte Latenz.

Link

I could not determine a latency influence by adaptive sync technologies, no matter if G-SYNC or FreeSync. The rumor that adaptive sync affects the latency could be dismissed to the realm of fables!

Auch schön:
Greetings to all 60 Hz gamers: 35% lower latency on a 240 Hz panel at 325 FPS. So much for that, a 60 Hz monitor is good enough for me! This means that not only does the 60 Hz player lose out in terms of end-to-end latency, but more importantly, the 240 Hz player can see you on average about 35% faster than you can see the opponent on the 60 Hz monitor.
 
Zuletzt bearbeitet:

Opprobrium

PC-Selbstbauer(in)
Die 48ms waren ein Zufallsklick, du musst 10 Durchläufe machen, dann siehst du in etwa was du leisten kannst.
Alles unter 180 ist laut der Website hervorragend.
 

TheFanaticTesters

Software-Overclocker(in)
Die 48ms waren ein Zufallsklick, du musst 10 Durchläufe machen, dann siehst du in etwa was du leisten kannst.
Alles unter 180 ist laut der Website hervorragend.

der zufall war eine 8 :D ..ich habe heute cr. 20 durchläufe gemacht die besten werden nach dem man sich etwas einge klikt hat aber bin zwischen 145 und 170 ms der oebre war der beste wert.
 

BlubberLord

Komplett-PC-Aufrüster(in)
Unter dem Artikel steht "Fakten zu AMDs FSR" (oder so ähnlich) und dann, dass es AI bzw. Deep Learning nutzen soll um Upscaling/Kantenglättung/Schärfung durchzuführen.

Ein AMD-Entwickler hat aber sehr deutlich gesagt, dass Deep Learning dafür überhaupt nicht notwendig sei und es in einem Talk so dargestellt, dass AMDs Lösung ohne ein neuronales Netz auskommt.
Naja, deren GPUs müssen ja auch ohne auf die Verarbeitung von solchen Aufgaben spezialisierte Kerne auskommen...
 

Rollora

Kokü-Junkie (m/w)
Vollkommen egal ob das eine Studie zur Marketing Unterstützung ist, das macht sie nicht falsch.

Fakt ist dass in Multiplayer Games jegliche Verzögerung, sei es durch:

- Input Lag
- Niedrige FPS
- Niedrige Hertz des Monitors
- Hohe Latenz zum Server



Auch schön:
Natürlich haben mehr FPS einen Vorteil, Lag, Inputlag etc. Ohne Frage. Aber es wird auch viel übertrieben.
 

Cleriker

PCGH-Community-Veteran(in)
Ich habe das real auf dem Bildschirm gesehen und das Manko ohne DLSS ist für mich höher.
Weniger FPS und ein deutlicheres Flimmern in Bewegung und weniger Objektdetails.
Habe eine RTX 3060 im Hardwareluxx Forum für 500 Euro gekauft und kann es hoffentlich am Samstag gleich selbst probieren. Fachartikel von rapid81 verlinkt dazu sind eindeutig. Für mich stimmt es einfach nicht was du behauptest.
Das ist ja auch völlig okay für mich. Ganz sicher will ich dich nicht zu einer anderen Meinung überreden. Ich allerdings empfand selbst die Asphalttexturen in death stranded schon störend unter DLSS quality. Ich bin da einfach empfindlich. Hätte ich es anders empfunden, ich hätte die Karte noch und nicht so schnell wieder verkauft.

Wie hier auch ein anderer User geschrieben hat, nativ hat auch seine Nachteile manchmal. Beispielsweise wenn der Entwickler sich beim TAA keine Mühe gegeben hat. Das habe ich ja auch nirgends bestritten. Nur wenn ich an einem Produkt ausschließlich positives aufzähle und die negativen Dinge weg lasse, dann ist das eben nur die halbe Wahrheit.
 

mylka

PC-Selbstbauer(in)
Nvidia hat da einfach nen natürlichen Vorteil mit den Tensor Cores.
Wenn AMD gleichziehen will, muss deren Lösung als schon von Grund auf besser sein, als die von Nvidia.
Das ist natürlich schon etwas ernüchternd...
ja mit der aktuellen generation wird AMD nicht mithalten können, aber die kann sich sowieso niemand leisten und es sieht auch wirklich nicht danach aus, als würden die dinger bald billiger werden
man kann nur hoffen, dass bald eine neue generation kommt, die minen hardwareseitig verhindert kann und dann wird AMD natürlich auch eigene rechenkerne für FFX dazubauen
falls das ganze dann funktioniert, dann hat AMD wieder den vorteil opensource zu sein
 

yingtao

Software-Overclocker(in)
Soweit ich das mit bekommen habe , haben sie auf der Xbox jetzt geliefert und darum wird auch dieser Artikel geschrieben worden sein ...
Vielleicht geht es auch schneller als gedacht , wenn die PS5 mal durch ist wird es nicht mehr lange dauern und wenn das ergebnis dann an DLSS 2 ran kommt ist doch alles Gut :)
Das DLSS wie es einmal war will sicher keiner haben ...
interessant , DLSS ist jetzt also schon bei einigen der Wurf der Letzen 15 Jahre und wenn man einige so ließt besser als Nativ ... Marketing von Nvidia funktioniert !
...

DLSS ist nicht nur Marketing. Guck dir einfach mal die letzten paar DLSS Test von z.B. der PCGH an zu Outriders oder Control wo DLSS Quality ein besseres Bild abliefert als ein nativ gerendertes. Besonders feine Strukturen wie Gitter werden mit DLSS besser dargestellt als beim nativ gerenderten Bild. Klar gibt es hier und da Artefakte aus der temporalen Komponente von DLSS die man beim nativen Bild nicht hat, aber im Schnitt hat man mit DLSS Quality das ruhigere Bild mit mehr Details als beim nativ gerenderten Bild. Wenn man mit DLSS runter geht auf Standard, Performance usw. überholt das nativ gerenderte Bild DLSS.

Was den Artikel angeht, hat AMD im Bereich FSR bisher weiterhin nichts geliefert. Was für Xbox freigeschaltet wurde ist AMD Fidelity FX was CAS (Contrast Adaptive Sharpening), CACAO (Combined Adaptive Compute Ambient Occlusion), VRS (Variable Rate Shading) und SSSR (Stochastic Screens Space Reflecttons) beinhaltet. Dazu gab es aber eine eigene News.

In dieser News soll es um FSR gehen und da wird nur gesagt das in der letzten Aussage aus dem März gesagt wurde dass es irgendwann ende diesen Jahres kommen soll und es auch dann erst weitere Infos dazu geben soll. Also eine News komplett ohne neue Infos. Im März wurde gesagt das es neue Infos gegen Ende des Jahres geben wird und jetzt im April gab es noch keine neuen Infos.
 

Eragoss

Freizeitschrauber(in)
Gerade in Cyberpunk bzw. jetzt auch in cod warzone ist DLSS 2.0 ein echter Gamechanger. Bei CoD musst ich in 4k die Details massiv runter schrauben um auf 4k/120hz zu kommen. Mit DLSS kann ich alle Regler auf max stellen und hab in recht stabile 120hz und obendrein auch eine brauchbare Kantenglättung.
AMD sollte möglichst bald liefern, spätestens wenn es wieder einen echten Wettbewerb gibt, ist es ein durchaus wichtiges Verkaufsargument.

Aktuell und die nächsten Monate könnte AMD die Vorgänger teurer verkaufen ;). Hier muss man AMD aber positiv zugestehen, das Sie immernoch in Ihrem Shop zum UVP verkaufen (wenn auch immer nur wenige Sekunden).
 

Cleriker

PCGH-Community-Veteran(in)
Okay, du legst Wert auf die hohen fps, da ist das wirklich ein Unterschied. Für mich, dem alles über 60fps nicht wichtig ist, ist es bisher noch kein Gamechanger.
Allerdings finde ich wirklich gut was für einen Schritt Nvidia von 1.0 zu 2.0 hingelegt hat. DLSS war zu Beginn wirklich unbrauchbar in meinen Augen. Inzwischen aber hat sich das tatsächlich in manchen Spielen zu einem Mehrwert gemausert und das ist stark, das gestehe ich gern ein. So Spiele wie outriders sind halt speziell. Die haben mit DLSS top Performance und das bessere Bild. Das liegt aber eben nicht allein an DLSS, sondern daran dass das TAA im Spiel komplett für den Poppes ist. Das können andere besser. Hier hat der Entwickler mMn nicht genug Mühen investiert, einfach weil sie ja DLSS schon drin hatten. Auf der einen Seite kann ich das nachvollziehen, auf der anderen ist es aber eine Frechheit.
Es ist also wie es immer war, wir sind davon abhängig wie sich der Entwickler bemüht.

In so einem Fall hätte AMD mMn kaum Chancen einen Fuß in die Tür zu bekommen. Dieses Studio hat sich ein fast fertiges System geschnappt und mit wenigen Klicks integriert und der Rest war nicht so wichtig. Wie bitte will AMD so jemanden von ihrem neuen, anderen, unerprobten und evtl. schlechteren Ansatz überzeugen? Dass AMD hier weiterhin den open source Ansatz verfolgt, ist bestimmt auch zu großen Teilen genau dieser Situation geschuldet. Die hatten mMn zwei Möglichkeiten. Einmal die Leistung in Hardware brachial steigern, dass hätte das optisch beste Ergebnis zur Folge gehabt, oder aber zeitnah mit ihrem Ansatz um die Ecke kommen. Letzteres ist allerdings nicht eingetreten bisher und es wird mit jedem verstrichenen Monat schwieriger überhaupt zu konkurrieren.
Haben sie die Ruhe weg, weil sie wissen dass die neuen Konsolen nicht auf DLSS setzen können, oder was lässt sie noch ruhig schlafen? Vielleicht ist ihr Ansatz auch so unfassbar effizient dass sie so selbstsicher sein können, aber ich wüsste nicht wie das gehen sollte. Momentan wundere ich mich sehr darüber.
 

raPid-81

Freizeitschrauber(in)
ja mit der aktuellen generation wird AMD nicht mithalten können, aber die kann sich sowieso niemand leisten und es sieht auch wirklich nicht danach aus, als würden die dinger bald billiger werden
man kann nur hoffen, dass bald eine neue generation kommt, die minen hardwareseitig verhindert kann und dann wird AMD natürlich auch eigene rechenkerne für FFX dazubauen
falls das ganze dann funktioniert, dann hat AMD wieder den vorteil opensource zu sein
Laut Steam Hardware Umfrage vom März gibt es vergleichbar viele "neue" Ampere User wie damals in der gleichen Zeit nach dem Turing Release. Also irgendwie kommen die Leute an Karten, zu welchen Preisen weiss man nicht.

Was meinst Du mit "Open Source"? Sowohl DLSS als auch FFXSR lassen sich in alle Engines / Spiele integrieren, aber ohne Zutun der Entwickler geht es nicht. Ob AMD eigene Kerne für FFXSR baut ist Spekulation und alles andere als gesichert. Gerade wenn für FFXSR keine Extra-Hardware benötigt wird könnte sich das Feature schneller verbreiten.
 

Scorpionx01

Software-Overclocker(in)
Das ist ja auch völlig okay für mich. Ganz sicher will ich dich nicht zu einer anderen Meinung überreden. Ich allerdings empfand selbst die Asphalttexturen in death stranded schon störend unter DLSS quality. Ich bin da einfach empfindlich. Hätte ich es anders empfunden, ich hätte die Karte noch und nicht so schnell wieder verkauft.

Wie hier auch ein anderer User geschrieben hat, nativ hat auch seine Nachteile manchmal. Beispielsweise wenn der Entwickler sich beim TAA keine Mühe gegeben hat. Das habe ich ja auch nirgends bestritten. Nur wenn ich an einem Produkt ausschließlich positives aufzähle und die negativen Dinge weg lasse, dann ist das eben nur die halbe Wahrheit.
Das Problem ist oftmals eine fehlerhafte Implementierung von DLSS. Du möchtest mit DLSS in 4K ja die 4K Optik erreichen. Manche Engines erkennen aber nur die interne Auflösung (bei DLSS Leistung nur FullHD) und spielen dann fälschlicherweise auch nur die FullHD Texturen ein.
 

raPid-81

Freizeitschrauber(in)
Das Problem ist oftmals eine fehlerhafte Implementierung von DLSS. Du möchtest mit DLSS in 4K ja die 4K Optik erreichen. Manche Engines erkennen, aber nur die interne Auflösung (bei DLSS Leistung nur FullHD) und spielen dann fälschlicherweise auch nur die FullHD Texturen ein.
Du hast DLSS anscheinend nicht so ganz verstanden (no offense). Aber es sollen in Deinem Beispiel ja die FullHD Texturen geladen werden. Das sieht man auch am verringerten VRAM Verbrauch durch DLSS.

Beispiel CP2077 mit guter DLSS Integration:
- nativ WQHD + max Details + RT Psycho = 7 GB VRAM Usage / 8 GB allocated VRAM
- DLSS Quality WQHD + max Details + RT Psycho = 6,3 GB VRAM Usage / 7,1 GB allocated VRAM

Hab auch Screenshots dazu falls mal wieder Beweise nötig sind.
 

projectneo

Software-Overclocker(in)
Aber eben im Moment nur mit Manko!

Persönlich würde ich beispielsweise für den Sprung von 50 fps auf 100 fps nicht fünf Prozent Bildqualität opfern wollen. Ich! Was andere entscheiden ist deren Sache. Ich! würde es nicht. Genau das drücken hier aber viele nicht aus. In diesem thread gibt es bestimmt zwanzig User oder mehr, die einfach sagen DLSS ist toll und ich kann mit einer xx60 Karte in 4K spielen. Allerdings ohne die Abstriche zu erwähnen. Genau das ist halt eben nicht so. Warum bitte spielt man denn in hoher Auflösung? Weil man maximale Bildqualität will. Genau die dann zu verringern um die Bildrate für diese Auflösung zu generieren ist doch Quatsch. Das ist mMn das was viele bestreiten. Also nicht dass DLSS in der Lage ist das zu ermöglichen, sondern unter gleichen Voraussetzungen.

Ja klar das ist ja okay, aber mit DLSS Quality machst du keine Abstriche in der Bildqualität sonder diese steigt ggü. nativer Auflösung. Es gibt noch ein paar Spiele wo dem nicht so ist aber die neueren Implementation, gerade in der UE4, sind sehr gelungen. Das Problem ist eben AMD wird eine Lösung geschätzt erst in einem Jahr fertig haben (seihe Aussagen von AMD selbst). Dann müssen die Entwickler das auch noch in ihre Engine einbauen.
Das kostet wieder Zeit. Und AMD hat keine separaten Recheneinheiten für KI Beschleunigung. Daher ist davon auszugehen, dass die AMD Lösung deutlich langsamer agieren wird. Von demher komme ich zu der Einschätzung, dass AMDs Ansatz erst mit der nächten AMD Generation so richtig zünden und konkurrenzfähig sein wird.
 

Korben06

Schraubenverwechsler(in)
In einem PCWorld interview diese Woche hat Frank Azor auf meine Frage zum Status von Super Resolution geantwortet: "... soon.. you don't have to wait until 2022 or 2023..."


Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

DKK007

PCGH-Community-Veteran(in)
Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Adaptive-Sync ist ein VESA-Standard.

Der Große Cache bei RDNA2 ist eine Innovation, die NVidia auch erst bei der nächsten Gen nutzen kann und dann hoffentlich ein sinnvolles SI für 16 GiB in der Mittelklasse und 24 bis 32 GiB bei den großen Karten hinbekommt.
 

Korben06

Schraubenverwechsler(in)
Frank Azor hat auch gegen einen RX6000 Paperlaunch gewettet:

Anhang anzeigen 1361622
Ja, hat er. Und über die Definition was eines Paperlaunch ist wird noch heute fleisig gestritten... Meiner Meinung nach wurde über den Tweet viel zu viel Aufhebens gemacht, vermutlich weil viele einfach ein Ziel für ihren Frust benötigten. Aber es war auch eine blöde Idee sowas zu posten, und man kann hoffen das er daraus gelernt hat.
 

raPid-81

Freizeitschrauber(in)
Adaptive-Sync ist ein VESA-Standard.

Der Große Cache bei RDNA2 ist eine Innovation, die NVidia auch erst bei der nächsten Gen nutzen kann und dann hoffentlich ein sinnvolles SI für 16 GiB in der Mittelklasse und 24 bis 32 GiB bei den großen Karten hinbekommt.
Joah, und SAM ist ein PCIe-Standard. Kann man jetzt drüber streiten, NV hat Adaptive-Sync zuerst in den Consumer Markt gebracht, AMD dafür Resize-BAR. Klammern wir das also mal aus.

Der Infinity Cache ist keine Innovation sondern eine Design-Entscheidung. Dadurch wird grafisch nichts verbessert, nur die Performance unter bestimmten Umständen (niedrigere Auflösungen).

Raytracing ist meines Wissens nach die einzige grafische Innovation der letzten 10 Jahre.
DLSS ist keine grafische Innovation im Sinne von neuen Effekten, ohne ist RT aber mit massivem Performance Verlust verbunden.

Welche neuen Grafikeffekte hat AMD zuerst integriert?
Ja, hat er. Und über die Definition was eines Paperlaunch ist wird noch heute fleisig gestritten... Meiner Meinung nach wurde über den Tweet viel zu viel Aufhebens gemacht, vermutlich weil viele einfach ein Ziel für ihren Frust benötigten. Aber es war auch eine blöde Idee sowas zu posten, und man kann hoffen das er daraus gelernt hat.
Ich wollte damit nur sagen dass man Release Dates nie trauen kann. Generell nicht, egal wer sie kommuniziert.
 

owned139

BIOS-Overclocker(in)
Puh, stimmt, danke. Ich dachte schon ich wäre "nur" noch Durchschnitt.
Ich nehme an, dass das ein Fehlannahme ist. Wie kommt ihr darauf, dass euer Click zum Server geschickt werden muss?
Das ist Wahrscheinlich einfach nur clientseitiges Javascript.

Rotes Bild anzeigen -> Random Timer -> Grünes Bild. Dafür brauch ich keinen Server-Request.
 

raPid-81

Freizeitschrauber(in)
Ich nehme an, dass das ein Fehlannahme ist. Wie kommt ihr darauf, dass euer Click zum Server geschickt werden muss?
Das ist Wahrscheinlich einfach nur clientseitiges Javascript.

Rotes Bild anzeigen -> Random Timer -> Grünes Bild. Dafür brauch ich keinen Server-Request.
Du machst mich fertig.... :heul:

Naja, wenigstens den Input Lag kann man abziehen. :D
 

Scorpionx01

Software-Overclocker(in)
Du hast DLSS anscheinend nicht so ganz verstanden (no offense). Aber es sollen in Deinem Beispiel ja die FullHD Texturen geladen werden. Das sieht man auch am verringerten VRAM Verbrauch durch DLSS.

Beispiel CP2077 mit guter DLSS Integration:
- nativ WQHD + max Details + RT Psycho = 7 GB VRAM Usage / 8 GB allocated VRAM
- DLSS Quality WQHD + max Details + RT Psycho = 6,3 GB VRAM Usage / 7,1 GB allocated VRAM

Hab auch Screenshots dazu falls mal wieder Beweise nötig sind.
Zufälliger Weise ist CP so ein Beispiel für schlechte DLSS integration. Die Texturen sind verschwommen.
 

freezer255

Komplett-PC-Käufer(in)
Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Wie eigentlich immer, oder? Ich meine, was kam den von AMD als Innovation (SAM mal außen vorgelassen, das ist keine eigenständige Entwicklung)? NV hat uns in den letzten 10 Jahren Adaptive Sync, DLSS und RT gebracht, AMD hat jedes Mal nachgezogen. Das wird mit RTX IO vermutlich nicht anders laufen.
Ja so ist es. Nvidia legt immer vor und hat zusätzlich die fortschrittlichere Lösung. Amd kommt dann irgendwann hinterher und kann bestenfalls aufschließen. Ich finde das echt schade und weil ich nicht auf die neuesten Innovation verzichten möchte oder ewig warten will ,kaufe ich keine radeons mehr .
 

Maggolos

PC-Selbstbauer(in)
Ja so ist es. Nvidia legt immer vor und hat zusätzlich die fortschrittlichere Lösung. Amd kommt dann irgendwann hinterher und kann bestenfalls aufschließen. Ich finde das echt schade und weil ich nicht auf die neuesten Innovation verzichten möchte oder ewig warten will ,kaufe ich keine radeons mehr .
In der Unterhundposition bringt aber AMD auch einiges (wenn auch nicht so komplexes). Sei es durch Mantle -> Vulkan oder Sie nutzen aktuelle Schnittstellen effizienter aus, weil sie es müssen "SAM bzw. rBar".
 
Oben Unten