Fidelity FX Super Resolution: Zweifel an Bildqualität durch Trailer-Analyse

Absolut. Allerdings muss sich AMD den Vergleich in der Gegenwart gefallen lassen, schließlich geht es um Kaufentscheidungen. Selbstverständlich sehen wir uns FSR sehr genau an, sobald das live geht. =)

MfG
Raff
Das wird ein spannender Vergleichs-Test mit DLSS :daumen:Als Nvidia-Nutzer kann man dann mit großer Wahrscheinlichkeit Ingame direkt FSR mit DLSS vergleichen und entscheiden, was einem mehr zusagt. Find es auch von AMD einfach absolut vorbildlich und lobenswert, dass sie sogar die Pascal-Karten noch mit ins Boot holen und so viele GPUs bzw. APUs mit FSR unterstützen. Dann kann meine Freundin mit meiner ausrangierten 1080 Ti auch noch ne Weile flüssig in FullHD spielen :)

ja das denke ich auch nvidia hat mit DLSS 2.0 einen Schärfefilter ins Bild eingebaut, dies scheint bei AMD noch nicht der Fall zu sein, sollten sie definitiv auch machen.
Richtig und wem das noch nicht scharf genug ist, der schärft über den Treiber nach.

Fakt ist, DLSS 2.0 ist ein absoluter Gamechanger. Man bekommt quasi Antialiasing umsonst + hochgerechnete Bilddetails die mit nativer Auflösung auf einer Stufe sind oder sie teilweise sogar übertreffen. Beim hochrechnen von feinen Details in der Ferne und bei starken Kontrastunterschieden (Ghosting) hat DLSS noch Probleme, das wird aber mit jeder Iteration besser werden, denke ich.
Sehe ich auch so und ich hoffe FSR wird da auch an die Qualität von DLSS 2.0 ran kommen. Bei CP 2077 sehe ich schon einen leichten Qualitätsverlust aber dafür gibt's Kantenglättung umsonst und schärfe ich über den Treiber leicht nach. Bei MEE sah das Qualitäts-Setting besser aus als nativ und das ohne Ghosting.
 
Ob man den Unterschied zwischen "Brei" und "nicht Brei" auch noch erkennt, wenn...

... man nicht die 16-fach Vergrößerungslupe anlegt. (Beispiel hat 4x Vergrößerung in X und Y Dimension)
... das Bild sich anfängt zu bewegen.
... man einen Monitor mit "nur" 1ms hat

Auch bei DLSS gilt immer: gut genug muss nicht perfekt sein. Man macht es ja für die fps und wenn man da toleranter wäre, hätte man ja auch wieder die Bildschärfe.

Und außerdem, Godfall in Ultra4k und 50fps. Die meisten von uns würden eher fragen: Wo kann ich so eine Grafikkarte überhaupt kaufen, das Ding nehme ich auch ohne 78fps in Godfall 4k Ultra. Gefolgt von: Guten Tag, ich möchte ein Spiel zurückgeben: Godfall. Ach ihr nehmt das nicht zurück? 1 Monat Burning Crusade auf Kulanz? Ok, irgendwas muss man ja auf der neuen Grafikkarte zocken.
 
Man muss bedenken dass diese Screens und das Video aus einer AMD Präsi kommen. Also die sollten ihr "Produkt" schon von der besten Seite präsentieren.
Wenn das dass beste ist was FSR zu bieten hat sehe ich (im ersten Wurf) schwarz gegen DLSS
Naja im Worst case nutzt man es halt nicht. Wir haben ja nichts zu verlieren.
Der für FSR relevante Gradmesser ist insbesondere das aktuelle Upscaling auf den Konsolen. Wenn FSR hier besser ist, wird es sich durchsetzen und kann dann sicher auch am PC gewisse Relevanz haben.
Ansonsten hat man sicher nicht ohne Grund einen wirklichen Bildvergleich eben NICHT gezeigt. Vielleicht ist die Implementierung in Godfall auch noch WIP, sodass die finale Performance aber noch nicht die finale Bildqualität bekannt ist. Ich bin erstmal neugierig und unvoreingenommen.
 
"Für eine Version 1.0, analog zum damals noch eher umstrittenen DLSS 1.0, falle das Ergebnis gar nicht schlecht aus. Version 2.0 könnte es dann wie bei Nvidia richten."

Der Meinung bin ich ebenso. Damit ist doch eigentlich schon alles gesagt.

MfG Föhn.
Grundsätzlich muss man erst mal abwarten, was in einer konkreten Implementation abgeliefert werden wird. Das Video ist sicherlich keine zuverlässige Vergleichsquelle, auch wenn hier jetzt so mancher aufgrund mangelnder Geduld vorschnell etwas ableiten möchte.

Darüber hinaus gilt aber grundsätzlich das Bessere ist des Guten Feind und wenn der erste Wurf hier nur DLSS 1.0-Niveau abliefern würde, wäre das sicherlich schon enttäuschend ... ein technischer Stand, den der Hauptkonkurrent vor fast drei Jahren implementierte.
Und dass hier dann zeitnah Abhilfe geschaffen wird, erscheint nicht unbedingt wahrscheinlich, da man ansonsten einfach noch zwei oder drei Monate mit dem Release hätte warten können, um dann mit dem sprichtwortlichen Knall aufzuwarten.
Zudem kommt darüber hinaus noch hinzu, dass auch nVidia sicherlich sein DLSS 2.1 weiter verbessern wird und im worst case wartet man dort nur, bis man von AMD was zum "Zerpflücken" vorgelegt bekommen hat um dann im simpelsten Fall möglicherweise die Überlegenheit der eigenen Bestandstechnik herauszustreichen oder im worst case gar eine erneut weiterentwickelte Version vorlegen zu können, denn absehbar wird es auch mal ein DLSS 2.5 oder gar 3.0 geben, denn nVidia hat nach aktuellem Stand keinen Grund diese Technik einzumotten.

Schlussendlich könnte FSR aber selbst mit deutlich schlechterer Qualität für zumindest einige Gamer einen Mehrwert bieten, denen FPS wichtiger als Qualität ist, denn nVidia behält seine Technik derzeit den RTX-Karten vor.
Einfach mal abwarten bis echte Vergleichsmöglichkeiten gegeben sind ... wobei, wie gesagt, vermutlich schwierig, da ich davon ausgehe, dass es in nächster Zeit keinen Titel geben wird, der beide Techniken implementiert haben wird.
 
ja das denke ich auch nvidia hat mit DLSS 2.0 einen Schärfefilter ins Bild eingebaut, dies scheint bei AMD noch nicht der Fall zu sein, sollten sie definitiv auch machen.
Hast du automatisch über den Treiber bei AMD und kannst du dir dann selbst einstellen.
Momentan ist es sowieso müßig, das ganze zu vergleichen, da es einerseits kein unabhängiges Material gibt und andererseits vom wichtigen Performance Modus wenig zu sehen war.
Sehe ich auch so, die aktuellen Vergleiche sind eher Vodoo als nützlich. Man muss sich aber fragen warum AMD kein vergleichbares Material zur Verfügung gestellt hat und nun so Reddit pseudo Experten auftauchen...
 
Soll jetzt kein AMD Verteidigung sein. Aber was soll AMD auch anders machen? Ist doch die selbe Technik, dass die ihren Einstieg nicht mit DLLS 3.0 feiern, sowas darf keiner erwarten. DLSS 1.0 war doch auch nicht so toll.

Für mich sieht die Technik so gut wie immer verwaschen aus. Ich merk das bei den Vergleichsbildern sehr gut, weil mir irgendwie komisch wird, ka wie ich das beschreiben soll xD

Wichtiger ist doch, ob man es während dem Spielen merkt. Den vergrößerten Standbilder konnte ich noch nie was abgewinnen :rollen:
 
Ich verstehe gar nicht warum irgendeiner überhaupt etwas vergleichbares wie DLSS erwartet??
Ohne Tensor Kerne wird da nichts besseres kommen, ich bin mir sicher das die Analyse ziemlich genau das wiedergibt was mit der Rx 6000 Serie möglich ist, etwas anders wird es erst mit der Rx 7000 Serie aussehen.
Ich denke die Leute blenden einfach aus dass die Rx 6000 bei weitem den Preis nicht wert sind, liegen preislich immer knapp über dem direkten Kontrahenten.
Keine Tensor ähnlichen Kerne, sehr niedrige und belanglose Rtx Leistung, zuviel Speicher für die gebotene Leistung, kein vernünftiger Videoencoder, hoher Stromverbrauch.
Im direkten vergleich gegen Nvidia haben die Karten keine Chance. Die dürften in dem Zustand nicht mal das selbe wie die direkten Kontrahenten kosten.
Selbst bei Nvidia ist mir der Leistungseinbruch zu groß um wirklich Rtx als Kaufgrund zu sehen.
Der Grund warum die leergekauft werden weil Amd eben nur in einem Bruchteil davon liefern kann wozu Nvidia in der Lage ist, sonst würden die Karten kaum gehen.
Für mich selbst würde höchstens eine Rtx 3060 Ti in Frage kommen weil sie eben auch Powerbudget das aufnimmt was ich bereit wäre dafür aufzubringen, eine höhere Leistungsaufnahme ist für mich nicht duldbar, alle gehen in eine Richtung nur Grafikkarten erfinden das Rad neu=).
Wären die Pandemie/ Mining -Folgen nicht würden diese Punkte den Leuten einfach viel mehr ins Auge stechen aber wie gesagt sie blenden es aus.
 
Sieht aus wie dlss 0,5 , echt scheiße da ist noch viel arbeit für amd, man sollte nich den 3 jahre vorsprung von nv vergessen, wobei ich persönlich nicht glaube das es jemals zu dlss rankommen wird
 
Tut mir Leid, aber 720p auf 4K ist technisch beeindruckend, qualitativ aber Grotte.
Das kann nicht dein Ernst sein das als use-case auszugeben.

Ich finde das ganze sieht noch relativ gut aus. Ich würde mir da definitiv keine neue Graka kaufen, wenn ein Spiel auftaucht, dass nur so läuft. Bei 720p ist das eine andere Sache, das kann ich dann nicht vernünftig zocken, auch 1080p sind schon sehr problematisch.

Definitiv eine gute Möglichkeit um den Grakakauf nochmal etwas hinauszuschieben. Die andere Alternative lautet GeForce Now.

Man muss sich aber fragen warum AMD kein vergleichbares Material zur Verfügung gestellt hat und nun so Reddit pseudo Experten auftauchen...

Es ist ja nur die Vorstellung. Man danke an das Material zurück, das Nvidia ursprünglich (2018) für DLSS geliefert hat. Da hat sich eigentlich keinem erschlossen, was das sein soll.

Ohne Tensor Kerne wird da nichts besseres kommen, (...)

Das ist bis heute nachweislich ein großes Mysterium. Nvidia hat ja nachweislich gelogen, am Ende funktionierte RTX Voice auch ohne Tensorkerne. Bei PhysX haben sie damals auch nachweislich gelogen. Für mich ist fraglich ob die Tensorkerne überhaupt genutzt werden, zumindest existieren sie.
 
Ich verstehe gar nicht warum irgendeiner überhaupt etwas vergleichbares wie DLSS erwartet??
Ohne Tensor Kerne wird da nichts besseres kommen, ich bin mir sicher das die Analyse ziemlich genau das wiedergibt was mit der Rx 6000 Serie möglich ist, etwas anders wird es erst mit der Rx 7000 Serie aussehen.

Ich denke die Leute blenden einfach aus dass die Rx 6000 bei weitem den Preis nicht wert sind, liegen preislich immer knapp über dem direkten Kontrahenten.

Also ich liebe ja Kommentare, welche nur so vor Unfug strotzen. :ugly:

Mhm ja 629€ für die RX 6800XT liegt auf jeden Fall über 719€ für die RTX 3080.
Mit Worten wie immer wäre ich sehr vorsichtig, gerade in dem Forum wo alles auf die Goldwage gelegt wird. :D

Keine Tensor ähnlichen Kerne, sehr niedrige und belanglose Rtx Leistung,
Also ich bin auch nicht zufrieden mit der RT Leistung.
Bei Nvidia liegt sie ja nun bei ~70% bei AMD bei ~50% ggü der Normal Leistung.
Alles unter 85% ist schlecht mMn.

Die 35% unterschied zwischen AMD und Nvidia sind enorm viel, keine Frage.
Zum Vergleich: Ich find nicht das die 3060ti ggü der 3080 eine Belanglose Karte ist ;)
zuviel Speicher für die gebotene Leistung,

In Battlefield braucht man mit Raytracing in 4k 11GB VRAM, sonst werden Texturen nachgeladen, sieht man kaum bis gar nicht. Das wird bei BF6 bestimmt nicht weniger.... Für spielbare Framerates reicht allerdings ne RTX 3080 die aber wieder nur 10GB hat.

kein vernünftiger Videoencoder,
Also ich hab mit meinem Kumpel, der ne 3060ti hat, mal H265 und H264 verglichen, wir konnten keinen merkbaren Unterschied feststellen.
Eine Erkenntnis hat sich wieder bestätigt: Gegen vernüftiges CPU Encoding ist GPU Encoding einfach nur Schmutz egal ob AMD oder Nvidia.

Du kannst mir gern ein vernüftiges und aktuelles Video verlinken was deine Aussage untermauert.
Hab vor paar Monaten mal geschaut und nichts aktuelles Gescheites gefunden.
GamerNexus hatte ein altes Review und hat auch dort keine Unterschiede feststellen können.
hoher Stromverbrauch.

Ja, leider ist der bei Nvidia nochmal ne ganze Ecke höher ( Ausnahme Doppelmonitor Setup, da stinkt AMD ,warum auch immer, ab)

Im direkten vergleich gegen Nvidia haben die Karten keine Chance. Die dürften in dem Zustand nicht mal das selbe wie die direkten Kontrahenten kosten.
Selbst bei Nvidia ist mir der Leistungseinbruch zu groß um wirklich Rtx als Kaufgrund zu sehen.
Der Grund warum die leergekauft werden weil Amd eben nur in einem Bruchteil davon liefern kann wozu Nvidia in der Lage ist, sonst würden die Karten kaum gehen.
Für mich selbst würde höchstens eine Rtx 3060 Ti in Frage kommen weil sie eben auch Powerbudget das aufnimmt was ich bereit wäre dafür aufzubringen, eine höhere Leistungsaufnahme ist für mich nicht duldbar, alle gehen in eine Richtung nur Grafikkarten erfinden das Rad neu=).
Kann die MSI Trio X 3060ti empfehlen, gibts vllt iwann bei Mediamarkt wieder für 470€ :)
Wären die Pandemie/ Mining -Folgen nicht würden diese Punkte den Leuten einfach viel mehr ins Auge stechen aber wie gesagt sie blenden es aus.
Ausblenden gabs bei Fanboys schon immer :ka:

On Topic:

Ich verspreche mir von DLSS und FXSR eine vernüftige Auflösungsskalierung. Mehr nicht.
Was mich an DLSS nervt:
Das Bild lädt sichtbar nach. Der Erste Frame ist Unscharf, der zweite schön Scharf.

Solange das nicht weg ist, ist es für mich kein Kaufargument.
Genauso falls das bei FXSR auch der Fall ist.

NATIV :hail:
 
War nur eine Frage der Zeit bis der erste das nörgeln anfängt...........MähMäh, Mimimi......Ich bin Fanboy von XYZ und ich muss immer Meckern wenn der "Gegner" mal was bringt was "MEIN VEREIN" schon hat, könnte ja besser sein.
Noch hat man keine handfesten Tests, hat es noch nicht wirklich selber ausprobiert und will schon dazu was sagen, auf Grund eines Videos?!?!! Nee, jetzt wirklich? Oder?

Verdammt jetzt mach ich auch schon Mimimi...... :lol:
 
Zuletzt bearbeitet von einem Moderator:
Das ist bis heute nachweislich ein großes Mysterium. Nvidia hat ja nachweislich gelogen, am Ende funktionierte RTX Voice auch ohne Tensorkerne. Bei PhysX haben sie damals auch nachweislich gelogen. Für mich ist fraglich ob die Tensorkerne überhaupt genutzt werden, zumindest existieren sie.
Was wollen immer alle mit ihrer Zwangskopplung von dlss und Tensorcores?
Die nvidia shield tv und nvidia shield pro bietet mit "ai-upscaling" das dezeit beste Upscaling (für niedrig aufgelöstes Material wie 480p z.B.).
Natürlich nicht direkt mit dlss vergleichbar, aber es werden auch hier fehlende Informationen ergänzt bzw. möglichst passend hinzuerfunden.
Die switch pro wird höchstwahrschl. viel performancezuwachs durch dlss generieren, hat die dann auch "Tensorcores"?

Was mich gar nicht erfreuen würde, ich aber genauso und nicht anders von amd erwarte, ist eine verfrühte Vorstellung von diesem fx resolution dings in einem qualitativ unausgereifgen Zustand.
Nvidia hats vorgemacht, nun wollen alle das von amd auch sehen und zwar schnellstmöglich, also muss amd auch zeitig reagieren.
Nö, müssen sie nicht, warum nicht mal warten, bis das Ergebnis überzeugen kann?
 
Tensor@Nvidia ist letztlich auch das Problem mit dem Hammer und den Nägeln: Man hat die Dinger für andere Zwecke entwickelt und wie bei allen spezialisierten Einheiten dürfte ihre Effizienz im jeweiligen Fachgebiet absolut überragend sein. (Ob pro Fläche, Kosten, Energie definiert lasse ich offen.) Der nächste Schritt ist jetzt, irgendwelche Probleme zu finden, die man von ihnen bearbeiten lassen kann – aber das heißt keineswegs, dass damit umgesetzte Operationen nur damit berechnet werden können. Es heißt nicht einmal, dass Tensor-Kerne der optimale Weg sind.
 
Was wollen immer alle mit ihrer Zwangskopplung von dlss und Tensorcores?
Die nvidia shield tv und nvidia shield pro bietet mit "ai-upscaling" das dezeit beste Upscaling (für niedrig aufgelöstes Material wie 480p z.B.).

Nvidia hat einen Mehrwert versprochen, den diese Tensorkerne bieten sollen. Bisher war da aber recht wenig zu sehen. Sollte das nun auch auf DLSS zutreffen, dann wäre ein ähnlicher Betrug, wie bei Segas "Blastprocessing"

Die switch pro wird höchstwahrschl. viel performancezuwachs durch dlss generieren, hat die dann auch "Tensorcores"?

Wenn sie den Orin Chip nehmen, dann ja.

Nvidia hats vorgemacht, nun wollen alle das von amd auch sehen und zwar schnellstmöglich, also muss amd auch zeitig reagieren.
Nö, müssen sie nicht, warum nicht mal warten, bis das Ergebnis überzeugen kann?

Man kann aber auch ewig warten und ist dann weg vom Fenster.
 
Wenn man das fx resolution ding in zu frühem Stadium auf den Markt wirft, muss man sich nicht über die negative Kritik wundern.
Was soll man als Anwender damit, außer ausgeschaltet lassen?
Na, hauotsache, amd macht IWIE darauf aufmerksam, dass man sich des Themas annimmt, Qualität erstmal egal, die wird später iwann zugepatcht.
Weiß nicht, wie und wem man mit diesem Verhalten einen Gefallen tut, nvidia hätte auch besser dlss 1.0 nicht so vorzeigen sollen.
 
wollmer nicht erstmal die Fakten abwarten? entweder es kommt wie in dem Video,
oder besser und das video war nur um zu zeigen das AMD alte NVIDIA Generationen nicht ausschliesst, im Gergensatz zu Nvidia.
 
Zurück