AMD Fidelity FX Super Resolution: Der aktuelle Stand zum DLSS-Konkurrenten

Die Leistung hat mit Spaß ja nix zu tun.?? Man kann auch mit 20 FPS Spaß haben.
Mit mehr Leistung ist es eben flüssiger und genug Leistung kann man nie haben. Ich hab dir gezeigt, dass man in Outriders mit einer 3060 nicht genug Leistung hat um flüssig zu spielen.
Ich wäre froh wenn meine verkaufte 980Ti DLSS gehabt hätte, so würde ich nicht nach einer 2070 oder 3060 Ausschau halten. Will sagen hätte nicht verkauft.
Ich hatte auch mit der PS4 Pro viel Spaß, also keine Frage und hätte auch mit meiner ehemaligen 980ti jetzt noch Spaß, wäre sie mir nicht abgeraucht.
Mich wundert ja, dass ich noch keinen Augenkrebs bekommen habe, so ganz ohne AI-Bildaufhübschung bei low res.


Link zum Fakt! Bitte!

Wärend der Soldat bei 60 fps immer nur "aufholt", liegt der Soldat bei 240fps immer 3 von 4 Bildern weiter vorne. Resultat, um einer Ecke herum sieht man Ihn schneller. Alles natürlich nur im 100stel Millisekundebereich.
 
Zuletzt bearbeitet:
Man darf nicht vergessen, dass der Markt für eine derartige AMD-Technik deutlich größer ist - schließlich werden davon auch alle Besitzer einer aktuellen MS oder Sony Spielekonsole profitieren. Dies macht FFXSR dann quasi über Nacht bereits zu einem Standard.
Kommt drauf an, viele große Engine Hersteller (UE4+5 und Unity als die größten seien hier stellvertretend genannt) unterstützen bereits RT + DLSS nativ, andere haben Beta Versionen oder es auf der Roadmap. Die Verbreitung von DLSS ist also bereits im vollen Lauf während AMD noch nicht mal etwas rausgebracht hat. Wenn die Engines es nativ unterstützen dann ist es mehr oder wenig eine "one-click" Aktion für die Entwickler, mit etwas Nachjustierung.

interessant , DLSS ist jetzt also schon bei einigen der Wurf der Letzen 15 Jahre und wenn man einige so ließt besser als Nativ ... Marketing von Nvidia funktioniert !
Aber mal ehrlich Freesync ist der größte Wurf seitdem es TFT Monitore gibt, ist man mehr oder minder auf die Vsync Pest angewiesen gewesen und auch die Möglichkeit auf Vsync ohne Tearing zu verzichten brachte locker mal 10% mehr FPS ohne irgendwas negatives im gegenteil ...
mal sehen was aus dem AI Bildfilter noch wird, aber ich bleib dabei die Synchronisation zwischen GPU und TFT ist der grosse Wurf der letzten 15 Jahre oder bis zum guten alten CRT :)

DLSS ist wohl der bisher beste Upscaler mit integriertem AA der massiv Performance BRINGT und nicht KOSTET. Der Großteil der anderen AA Techniken kostet Leistung, wenn es qualitativ viel bringen soll (SSAA) mit möglichst wenig Artefakten, dann sogar richtig viel.

Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Wie eigentlich immer, oder? Ich meine, was kam den von AMD als Innovation (SAM mal außen vorgelassen, das ist keine eigenständige Entwicklung)? NV hat uns in den letzten 10 Jahren Adaptive Sync, DLSS und RT gebracht, AMD hat jedes Mal nachgezogen. Das wird mit RTX IO vermutlich nicht anders laufen.
 
Lass mich raten, Du kannst den Flügelschlag eines Kolibri sehen und die Flügelschläge mitzählen... :crazy:
Mit genügend Red Bull jaaaa...:ugly: ... neeee, ich bin jeher der Singleplayertyp. Viele Spiele auf der PS4 Pro habe ich mit 30fps mittels Zwischenbildberechnung meines TVs flüssig zocken können, aber dafür relativ hohen Inputlag (> 50ms) in Kauf genommen.
 
AMD soll liefern und nicht immer Scheinheilig leere Versprechen abgeben. Erst dann haben wir Fakten auf dem Tisch und können uns endlich verbal prügeln.
Fakt (siehe Anhang) ist, dass wer just noch auf RT verzichten kann / will, für den hat AMD geliefert ... :nicken:

MfG Föhn.
 

Anhänge

  • NEUE Games.jpg
    NEUE Games.jpg
    453,6 KB · Aufrufe: 100
  • GPU CP 2077.jpg
    GPU CP 2077.jpg
    376,4 KB · Aufrufe: 82
Kommt drauf an, viele große Engine Hersteller (UE4+5 und Unity als die größten seien hier stellvertretend genannt) unterstützen bereits RT + DLSS nativ, andere haben Beta Versionen oder es auf der Roadmap. Die Verbreitung von DLSS ist also bereits im vollen Lauf während AMD noch nicht mal etwas rausgebracht hat. Wenn die Engines es nativ unterstützen dann ist es mehr oder wenig eine "one-click" Aktion für die Entwickler, mit etwas Nachjustierung.



DLSS ist wohl der bisher beste Upscaler mit integriertem AA der massiv Performance BRINGT und nicht KOSTET. Der Großteil der anderen AA Techniken kostet Leistung, wenn es qualitativ viel bringen soll (SSAA) mit möglichst wenig Artefakten, dann sogar richtig viel.

Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Wie eigentlich immer, oder? Ich meine, was kam den von AMD als Innovation (SAM mal außen vorgelassen, das ist keine eigenständige Entwicklung)? NV hat uns in den letzten 10 Jahren Adaptive Sync, DLSS und RT gebracht, AMD hat jedes Mal nachgezogen. Das wird mit RTX IO vermutlich nicht anders laufen.
Du solltest Deine Beiträge mittlerweile eindeutig als "Dauerwerbesendung" kennzeichnen. Dann können User auch besser filtern, ob sie Dein Geschwalle auch lesen wollen.
 
Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Ich meine, was kam den von AMD als Innovation (SAM mal außen vorgelassen, das ist keine eigenständige Entwicklung)? NV hat uns in den letzten 10 Jahren Adaptive Sync.
Also wenn ich mich recht entsinne, ist VRR auch keine Nvidia-Innovation, sie waren nur die ersten die es genutzt haben.

Möchte damit nur darauf anspielen, dass Du AMD ja auch den Innovationsstatus bei SAM absprichst.

Beides gab es schon, bevor einer der beiden es tatsächlich umgesetzt hat. Da gebührt der jeweilige Ruhm also weder Nvidia noch AMD (oder eben beiden, je nach Sichtweise ;) ).
 
Ich hab eine 3060ti und es ist keine 4K Karte, mit DLSS Performance bekomme ich aber viel höhere FPS mit sehr guter Bildqualität und es gibt andere Karten die langsamer sind als meine. Deine Aussage das aktuelle Karten ohne RT ausreichend Leistung haben ist absoluter Schwachsinn und auch wenn es so wäre
Aber das heißt ja im Umkehrschluss, dass nVidia mit ihrer Ampere Generation OHNE das (Killer) Feature DLSS eine mehr als fragwürdige Leistung abgeliefert (zumindest vorgestellt) hat ?!? :devil:

MfG Föhn.
 
Lass mich raten, Du kannst den Flügelschlag eines Kolibri sehen und die Flügelschläge mitzählen... :crazy:
60hz vs 30hz (diese Diskussion gibt es bei den Konsolen schon ewig):

Der Spieler mit 60 FPS, im Vergleich zu einem 30 FPS Spieler, sieht die Aktion seines Gegners IMMER früher.
60hz = 16ms pro Refresh
30hz = 33ms pro Refresh

Jetzt kommt: Aber hz != FPS. Stimmt, aber es ist vergleichbar. Ein Spieler mit 60 FPS + 60hz Monitor vs einem Spieler mit 30 FPS + 60hz Monitor sieht auch die Aktionen seines Gegners 16-33ms früher (je nachdem wann ein neuer Frame im Refresh Verlauf des Monitors ausgeliefert wird).

16-33ms mag wenig klingen, die menschliche Durchschnittsreaktion liegt aber bei nur 180ms. Einige sind schneller, andere sind langsamer. Das sind immerhin 10-20% Unterschied. Und das über einen Spielverlauf von Stunden macht sich eben doch bemerkbar.
Also wenn ich mich recht entsinne, ist VRR auch keine Nvidia-Innovation, sie waren nur die ersten die es genutzt haben.

Möchte damit nur darauf anspielen, dass Du AMD ja auch den Innovationsstatus bei SAM absprichst.

Beides gab es schon, bevor einer der beiden es tatsächlich umgesetzt hat. Da gebührt der jeweilige Ruhm also weder Nvidia noch AMD (oder eben beiden, je nach Sichtweise ;) ).
Ok, mea culpa, das wusste ich nicht. Dann belassen wir es bei grafischen Innovationen wie DLSS, RT, Hairworks, PhysX.
 
Aber das heißt ja im Umkehrschluss, dass nVidia mit ihrer Ampere Generation OHNE das (Killer) Feature DLSS eine mehr als fragwürdige Leistung abgeliefert (zumindest vorgestellt) hat ?!? :devil:

MfG Föhn.
Die Leistung ist halt ähnlich zu AMD, mit eventuell leichtem Preis/Leistungs-Vorteil für AMD. Jedoch nur, wenn man RT und DLSS ausklammert. Und das ist ne ziemlich fette Klammer! ;-)
 
Ok, mea culpa, das wusste ich nicht. Dann belassen wir es bei grafischen Innovationen wie DLSS, RT, Hairworks, PhysX.
Okay, aber soll ich drauf herumreiten? :D Na gut, PhysX wurde von Nvidia eingekauft, gab es dementsprechend schon. Entwickelt durch Novodex und von Ageia übernommen, dann eben später von Nvidia gekauft. In Spielen hat es das aber längst gegeben. Das hat also tatsächlich auch absolut nichts mit einer Nvidia-Innovation zu tun. :)

edit: Es gab sogar extra Ageia-Beschleunigerkarten für PhysX! So, wie man später eine zusätzliche Nvidia-Grafikkarte einbauen konnte, die sich nur um die PhysX-Beschleunigung kümmern sollte! Aus heutiger Sicht totaler Nonsense, aber damals im Kleinen ja schon fast vergleichbar mit den Voodoo-Karten (natürlich nicht so einen Einfluss nehmend). :)
 
Ich dachte AMD Fidelity FX Super Resolution wäre ein Feature ähnlich wie DLSS, wenn man so die Verantwortlichen von AMD hört, klingt das eher als würde man eine Flasch Wein anbieten.
Adrian Castelo, der Senior Produktmanager bei AMD, hat unter anderem gegenüber PCGH erklärt, dass man darüber sprechen werde, wenn die Zeit reif ist. :huh:
Wenn die Zeit reif ist, welch präzise und nichtssagende Auskunft, das freut sicher alle User die eine entsprechende RX 6XXX im Rechner haben. Und in 6. Monaten fragt dann der User einer RX 6800XT einen User mit der RX 6900XT: Gibts denn schon AMD Fidelity FX Super Resolution?
Die Antwort vom User mit der 6900XT: Nein, die Zeit ist noch nicht reif!
Daraufhin der User mit der 6800XT: :what:
 
Da AMD selbst gesagt hat die Lösung kommt frühestens Ende des Jahres, kann man das für die Generation fast schon abschreiben. 2022 kommt dann sicher die nächste Generation. DLSS wird so langsam für NV zu einem Killerfeature. Es ist mittlerweile ja in Unreal Engine nativ implementiert und soll ja auch in die Unity Engine.
Es ist ja mittlerweile nicht nur eine Leistungssteigerung sondern auch noch ein besseres AA.
Abseits davon ist es bspw. selbst ohne Raytracing sinnvoll zu nutzen wenn man statt 80 FPS dann eben 100 FPS haben kann.
 
Immer wieder herrlich, dass Du einem Dinge erklären möchtest, die man weiß und man auch nie etwas anderes behauptet hat. ^^

Okay, damit Du Dich mit Deiner Kenntnis nicht angegriffen fühlst, darfst Du auch der Aussage von mir, dass die Karten für alles ohne RT ausreichen, gerne ein "meiner Meinung nach" hinzufügen. Und ja, das ist meine Meinung dazu. ;)
Es kommt auch auf die Hardware an, ob "die Karten" für alles ohne RT ausreichen. Ein RTX2060-Besitzer wird sich auch bei abgeschaltetem Raytracing über den Performance-Boost von DLSS freuen, für RTX3090-Besitzer ist es weniger wichtig sein.
 
Es kommt auch auf die Hardware an, ob "die Karten" für alles ohne RT ausreichen. Ein RTX2060-Besitzer wird sich auch bei abgeschaltetem Raytracing über den Performance-Boost von DLSS freuen, für RTX3090-Besitzer ist es weniger wichtig sein.
Im Grunde kommt es ausschließlich auf die eigenen Wünsche und Ansprüche an (und ob man so dann eben Spaß mit dem Spiel haben kann). Das definiert sich für jeden anders, daher mag ich eben diese Pauschalaussagen nicht.
 
DLSS ist fürmich einfach top. Besonders für die schwächeren Turing Karten ein Segen. Man muß das Feature ja nicht unbedingt mit RT nutzen. DLSS hebt zB meine RTX 2070 super in einen Bereich, der ansonsten einfach nicht nutzbar ist. Meine auf 2.5GHz getaktete RX 6800 ist hier langsamer wie die RTX 2070 super, obwohl die RX 6800 normal in dem Spiel sogar schneller als eine RTX 3070 ist.

RX 6800.JPG

RTX 2070 super.JPG
 
Zurück