Fidelity FX Super Resolution: Zweifel an Bildqualität durch Trailer-Analyse

Mhm ja 629€ für die RX 6800XT liegt auf jeden Fall über 719€ für die RTX 3080.
Mit Worten wie immer wäre ich sehr vorsichtig, gerade in dem Forum wo alles auf die Goldwage gelegt wird.
Ja die Karte liegt auch in der Rasterisierungsleistung, in 4k, im Schnitt 10 % zurück. Das spiegelt sich hier im Preis auch wieder. In dem Leistungs/Kosten- bereich schaue ich nicht mehr auf 1080P Leistung. Der Preis ist dennoch nicht angemessen im direkten vergleich, aus vorher genannten gründen (Dlss -(Tensorkerne), Rtx, Videoencoder).
Ich sage ja auch nicht das die Karten im ganzen schlecht sind sondern im direkten Vergleich einfach schlechter dastehen. Bin auch kein Fanboy, ich sehe nur keinen Grund die Rx 6000 Serie zu kaufen.

Also ich bin auch nicht zufrieden mit der RT Leistung.
Bei Nvidia liegt sie ja nun bei ~70% bei AMD bei ~50% ggü der Normal Leistung.
Alles unter 85% ist schlecht mMn.
Kann es gerade nicht nennen, aber es gibt Spielebenchmarks in denen ist der Leistungsabfall grösser als 60 %, gerade noch oder kleiner als 40 % der normal Leistung. Im Schnitt wird deine Angabe stimmen. Für mich ist das damit kein Feature mehr als Kaufargument, entweder etwas besseres oder gar nicht. Ich bedenke dazu dass Rtx noch so gut wie gar nicht eingesetzt wird, mal sehen was die Abstände sagen wenn der Einsatz von Rtx gesteigert wird.

In Battlefield braucht man mit Raytracing in 4k 11GB VRAM, sonst werden Texturen nachgeladen, sieht man kaum bis gar nicht. Das wird bei BF6 bestimmt nicht weniger.... Für spielbare Framerates reicht allerdings ne RTX 3080 die aber wieder nur 10GB hat.
Hast du eine Rtx 3080, sieht man das da? Klar mehr Speicher ist besser, aber Speicher erhöht eben auch den Preis, schlimm ist nur wenn er in der Leistungsklasse einfach nicht benötigt wird.
Bei der 6900Xt sind die 16Gb okay.
Die 6800XT wären 12Gb ausreichend, 6800 10Gb und darunter 8Gb und weniger. Der Preis wäre niedriger und der Verbrauch auch. So ein Augenwisch Kaufargument ist halt nötig um die anderen Defizite zu kaschieren, nur wird das mehr an Speicher selten was nützen. Amd ist bei der Texturkompression eben nicht so gut wie Nvidia, auch da liegt eben die Würze. Die Augenscheinlicher bessere Speicherbestückung wird wahrscheinlich nötig sein um überhaupt mit dem Nachladen auf ein gleiches Niveau zu kommen, wenn auch noch nicht jetzt.

Also ich hab mit meinem Kumpel, der ne 3060ti hat, mal H265 und H264 verglichen, wir konnten keinen merkbaren Unterschied feststellen.
Eine Erkenntnis hat sich wieder bestätigt: Gegen vernüftiges CPU Encoding ist GPU Encoding einfach nur Schmutz egal ob AMD oder Nvidia.

Du kannst mir gern ein vernüftiges und aktuelles Video verlinken was deine Aussage untermauert.
Hab vor paar Monaten mal geschaut und nichts aktuelles Gescheites gefunden.
GamerNexus hatte ein altes Review und hat auch dort keine Unterschiede feststellen können.
Habe auch leider lange Vergleiche gesucht und bin auf Gamersnexus gestoßen und dazu noch ein Paar andere Videos auf Youtube. Ich habe nicht viel gefunden aber ich muss sagen ich bin mit Nvenc voll zufrieden, habe selbst ein Paar Test gemacht und verglichen, Cpu/4K vs Nvenc/4K, ich erkenne kaum einen Unterschied naja vielleicht schon aber das ist es mir nicht wert 10 Std oder mehr zu Codieren. Der Hardware Encoder packt das in halber Film Länge. Dazu habe ich ein Paar Videos zu Amd (komme gerade nicht auf den Namen) gesehen also da sind Welten dazwischen.

Kann die MSI Trio X 3060ti empfehlen, gibts vllt iwann bei Mediamarkt wieder für 470€
=) Für den Preis würde ich die nehmen. Habe eine Gtx 1080, ich warte ab bis sich das alles normalisiert.
Hätte halt einfach nur gerne Hdmi 2.1, Feature bedingt mehr Leistung bräuchte ich nicht, vor allem nicht für einen exorbitanten Mehrverbrauch.
Das ist bis heute nachweislich ein großes Mysterium. Nvidia hat ja nachweislich gelogen, am Ende funktionierte RTX Voice auch ohne Tensorkerne. Bei PhysX haben sie damals auch nachweislich gelogen. Für mich ist fraglich ob die Tensorkerne überhaupt genutzt werden, zumindest existieren sie.
Ja ich denke halt schon, dass die Kerne der eigentlichen Gpu schon Last abnehmen, sonst würden die nicht verbaut werden. Kostet Ressourcen und nimmt Leistung auf. Ohne merklich eine Funktion wäre das ziemlich blöd, die zu verbauen.
Umgekehrt muss Amd diese Funktion mit der eigentlichen Gpu erledigen, kostet Leistung bei wahrscheinlich niedrigerer Effektivität.
 
Zuletzt bearbeitet:
Kann nicht glauben wieder negativ Kommentarte zu lesen für etwas das gratis.

Nicht nur für AMD nein, gleich wie die Schärfung die meine NV dringend nötig hatte, bekommen sogar NVidia Besitzer von denen AMD keinen Cent bekommt die Möglichkeit gleiches zu nutzen.

Ich persönlich verstehe nicht warum man daraus nicht mehr Profit schlägt und gleichzeitig den Supportumfang in Grenzen hält.
Um nicht gleich zu schreiben, "es gab noch nie eine bessere Zeit eine GTX/RTX zu besitzen".

Trotz allem müssen die sich noch solche Kommentare an tun.
....
=) Für den Preis würde ich die nehmen. Habe eine Gtx 1080, ich warte ab bis sich das alles normalisiert.
Hätte halt einfach nur gerne Hdmi 2.1, Feature bedingt mehr Leistung bräuchte ich nicht, vor allem nicht für einen exorbitanten Mehrverbrauch.

Ja ich denke halt schon, dass die Kerne der eigentlichen Gpu schon Last abnehmen, sonst würden die nicht verbaut werden. Kostet Ressourcen und nimmt Leistung auf. Ohne merklich eine Funktion wäre das ziemlich blöd, die zu verbauen.
Umgekehrt muss Amd diese Funktion mit der eigentlichen Gpu erledigen, kostet Leistung bei wahrscheinlich niedrigerer Effektivität.

Muss sagen auch mich hat AMD mit dieser Generation nicht überzeugt.
Interessiert mich überhaupt nicht ob AMD im Enthusiasten Bereich mithalten kann, mich interessiert Preis/Performance und dazu kann man grad gar keine Aussage machen.

Ob so ein anstandsloser Lügner wie NV jetzt wirklich das auf dem Silizium hat wie marketingstark angepriesen können wir doch garnicht nachweisen.
Das könnte genau so heisse Luft sein.

Was nachgewiesen wurde konnte meist durch Firmware oder GPU-Z recherchiert werden. Gerade Speicher wird nicht nach NV hergestellt sondern eingekauft und nach Standards angebunden.
Das einzige das drauf hinweisen könnte wäre der Stromverbrauch aber vielleicht stellen sie auch im 28nm Verfahren her. Das können wir alle nicht sagen.

Nach 25Jahren muss ich sagen, ich traue denen alles zu. Aber auch, dass sie die Ziehlperformance innert kurzer Zeit verdoppelt anbieten könnten wenn nötig.
Also, dass sie sich zurück halten für zukünftige Verkäufe.
 
Zuletzt bearbeitet:
Ich hatte den Vergleich auch schon gezogen. ^^ Peinlich, wenn man bedenkt, dass das schon die Cherrypicking-Vorstellung von AMD auf dem "Ultra-Quality-Preset" ist. Von Ultra-Quality ist nichts zu sehen.




1.png


2.png
 
Das ist bis heute nachweislich ein großes Mysterium. Nvidia hat ja nachweislich gelogen
Womit? Quellen?
, am Ende funktionierte RTX Voice auch ohne Tensorkerne.
Wo wurde da gelogen?
Bei PhysX haben sie damals auch nachweislich gelogen
Auch hier? Quelle?
Für mich ist fraglich ob die Tensorkerne überhaupt genutzt werden, zumindest existieren sie.
NSIGHT ist Dein Freund. -> Ja
 
Ich sagte, WENN man es in zu frühem Stafium auf den Markt bringt, erntet man Kritik.
Wenn NICHT, dann nicht.
Ich persönlich glaube aber eher, dass amd es so wie nvidia mit dlss 1.0 überstürzen wird, aber lasse mich sehr gerne vom Gegenteil über5eugen.
 
Manche müssen Ihr DLSS Trauma aktiv überwinden.
Die einzige die ein DLSS Trauma hatte war meine RX 6800 als sie von meiner RTX 2070 super in CP vorgeführt wurde :lol:.

RX 6800.JPG

RTX 2070 Super.JPG

aber ich muss sagen ich bin mit Nvenc voll zufrieden, habe selbst ein Paar Test gemacht und verglichen, Cpu/4K vs Nvenc/4K, ich erkenne kaum einen Unterschied naja vielleicht schon aber das ist es mir nicht wert 10 Std oder mehr zu Codieren. Der Hardware Encoder packt das in halber Film Länge. Dazu habe ich ein Paar Videos zu Amd (komme gerade nicht auf den Namen) gesehen also da sind Welten dazwischen.
Die Qualität hat sich mit Turing und dann Ampere noch ein Stück verbessert. CPU encoding kommt für mich nicht mehr in Frage. Qualitativ kein Unterschied (3.5m/4K Tv) und die Zeitersparnis ist enorm.
 
Zuletzt bearbeitet:
Wieso ist boost eigentlich kein Thema mehr? Den Ansatz finde ich eigentlich auch vielsprechend. Sollte Standard sein bei allen Spielen.
Früher war es auch Standard, das man bei neuer HW deutlich mehr Leistung zum "gleichen" Geld bekommen hat, heute steigt nur noch der Preis..., da ist es kein Wunder das man dieses Defizit durch solche verlustbehafteten Verfahren wie DLSS und FSR ausgleichen muss. ;-) Sobald die HW wieder nachzieht, ist das hier alles unnützt.

MfG
 
da ist es kein Wunder das man dieses Defizit durch solche verlustbehafteten Verfahren wie DLSS und FSR ausgleichen muss. ;-) Sobald die HW wieder nachzieht, ist das hier alles unnützt.
DLSS hat nicht nur Modi, die die Leistung erhöhen, sondern mit dem "Ultra-Quality-Preset" auch einen Modus, der das native Bild intern hochskaliert und dabei auf das 16K-Rohmaterial aus dem neuronalen Netzwerk zurückgreift. Somit ist DLSS kein reines leistungssteigerndes Feature, sondern es kommt immer darauf an, welches Preset man nutzt. Aktuell soll es natürlich primär Leistung bereitstellen und Raytracing ermöglichen.

Und ich glaube kaum, dass man DLSS nochmal wegbekommt. Das wird auch in der nächsten und übernächsten GraKa-Generation noch eingesetzt und geupgradet werden. Es ist ja nicht so, als würde man irgendwann "genug Leistung" haben. Man kann immer Features, wie Raytracing hardwarehungriger implementieren (was auch wieder einen optischen Vorteil bietet) oder neue Features erfinden, die mehr Leistung benötigen und ebenfalls optisch reinhauen.

In wenigen Jahren werden DLSS-fähige Grafikkarten auch sehr weit verbreitet sein. Sie sind es ja jetzt schon. Alle RTX-Karten können es. Und die Spiele werden jetzt zunehmend auch immer mehr.

Die Zeit des AI-Upscalings ist angebrochen und wird auch in einigen Jahren bei den Konsolen zum Einsatz kommen. Kostenlose Leistung bei gleicher Optik. AMDs FSR ist eine Übergangstechnologie. Da muss eher sowas wie DLSS2.0, nur offen, kommen. Oder die Konsolenhersteller machen den nächsten Vertrag mit Nvidia. ^^
 
Zuletzt bearbeitet:
Vielleicht ist die Implementierung in Godfall auch noch WIP, sodass die finale Performance aber noch nicht die finale Bildqualität bekannt ist.
Wenn FSR in 3 Wochen offiziell rauskommt, also zu dem Zeitpunkt in mindestens einem Titel drin ist, soll man jetzt noch WIP Material zeigen?

Ob man den Unterschied zwischen "Brei" und "nicht Brei" auch noch erkennt, wenn...

... man nicht die 16-fach Vergrößerungslupe anlegt. (Beispiel hat 4x Vergrößerung in X und Y Dimension)
... das Bild sich anfängt zu bewegen.
beides sieht man am Beispiel der 1060 mit Quality Mode, da braucht man keine Lupe oder Screenshots, man sieht aus dem Video heraus deutlich, wie viel schlechter das aussieht.
Wohlgemerkt aus einem komprimierten Video heraus, wodurch die Unterschiede zwischen links und rechts noch eher verschleiert werden.

Es ist ja nur die Vorstellung. Man danke an das Material zurück, das Nvidia ursprünglich (2018) für DLSS geliefert hat. Da hat sich eigentlich keinem erschlossen, was das sein soll.
Damals war das auch was komplett neues, AMD bringt FSR nun zu einem Zeitpunkt, wo die Leute schon genau wissen, was es machen soll und vor Allem dass es sich mit DLSS vergleichen können muss.
 
Jetzt ist das Thema doch müßig. Warten wir Tests ab. Dann kann jeder für sich entscheiden was er davon hält. Für mich ist das Thema simpel. Sieht es ähnlich mies aus wie DLSS 1, oder erzeugt das gleiche nachziehen wie DLSS 2 manchmal, bleibt es bei mir deaktiviert.
DLSS 3.0, oder FSR 2.0 dürfen es bitte gern besser machen und mich überzeugen. :nicken:

@deady1000
Ich konnte nur bis quality hoch, von Ultra war nichts zu sehen. Wann kam das denn?
 
Oh man,,, und ich hatte kurz gedacht die Ampere zu früh weitergereicht zu haben. Was soll denn das? Genau auf dieses feature warte ich seit Beginn und was ist? Pustekuchen! Als hätte Nvidia überhaupt kein Interesse an höherer Bildqualität. Es wirkt ja eh schon so als hätten die Fans das nicht, so oft wie behauptet wird es hätte keine Nachteile.

Gurdi, danke für die Aufklärung.
Ich muss aber sagen, deady ist konsequent. Ein Feature von AMD wird runter geputzt obwohl noch gar nicht existent. Ein ebenfalls nicht existentes feature von Nvidia wird aber schön geredet. Peinlich.

Efot
Letztere Aussage hab ich im Affekt geschrieben, ich war sauer/enttäuscht und entsprechend ist sie unreflektiert geraten.
 
Zuletzt bearbeitet:
Wie läuft das bei dir? Kannst du bitte mal Vergleichsbilder nativ mit DLSS Ultra machen? Das wäre cool.
 
Klar, ja an sich läuft das super, manchmal aber auch nicht ... da muss der Entwickler dann wieder nachbessern daher weiss ich nicht zu 100% wie gut das implementiert ist. Ich merke da erlich gesagt keinen Unterschied von der Qualität zum nativen. Nutze ne 2080 Ti auf nen asus vg289q1a Monitor. Natürlich bemerkt man was in FPS und auch flackernde Schatten verschwinden durch die Verwendung von DLSS. Letzteres ist auch eher so der Hauptgrund wieso ich es in diesem Spiel nutze.

1.jpg

Ohne DLSS

2.jpg

DLSS Qualität Ultra (evtl. nur Quality nicht sicher)

3.jpg

Ohne DLSS

4.jpg

DLSS Qualität Ultra (evtl. nur Quality nicht sicher)
 
Zuletzt bearbeitet:
Nvidia hat einen Mehrwert versprochen, den diese Tensorkerne bieten sollen. Bisher war da aber recht wenig zu sehen. Sollte das nun auch auf DLSS zutreffen, dann wäre ein ähnlicher Betrug, wie bei Segas "Blastprocessing"
....
Das machen die schon seit 20 Jahren so. Da die Kundschaft wohl ein sehr vergesslicher Haufen ist, klappt es immer wieder. :crazy:
 
Gibt es auch nicht, er kreiert sich dass lediglich zurecht weil es in dem Plugin in der UE5 aufgeführt wird.
Was stimmt eigentlich nicht bei dir?
DLSS Ultra-Quality ist real und kann schon seit einiger Zeit implementiert werden.
Jedenfalls ist es realer als AMDs FSR.

Es erhöht die Bildqualität durch Upscaling des (nahezu) Nativmaterials (glaube 83,3% Scale). Google es halt selbst. Hab zwar schon mehrfach Quellen dazu verlinkt, aber naja.

Es wird aktuell halt noch nicht großartig genutzt, weil es kaum oder keinen einen Performancevorteil bietet.
(Warum es oben in den Screenshots augenscheinlich die FPS erhöht, erschließt sich mir nicht direkt.)

Du bist auch nur noch am Müll labern bezüglich DLSS. In jedem Thread nur Gehate gegen DLSS.
Und man fragt MICH warum ich auch mal zur Abwechslung gegen die Konkurrenztechnologie austeile.

Wir werden ja sehen wer zuletzt lacht.


DLSS verdoppelt Performance​

Robin testet eine UE4-Szene mit Deferred Rendering und Forward Rendering mit unterschiedlichen DLSS-Einstellungen und unterschiedlichen Ziel-Bildwiederholraten.
90 Hz @ Forward Rendering, ohne MSAA ohne DLSS
  • Bildberechnungszeit: 4,07 ms
  • Bildqualität: Das Aliasing ist sehr deutlich. Unschönes Bild, das in den Augen schmerzt.
90 Hz  @ Forward Rendering, ohne MSAA mit DLSS Ultra Performance
  • Bildberechnungszeit: 3,90 ms
  • Bildqualität: Das Aliasing ist nicht mehr sichtbar, aber dafür wirkt das ganze Bild etwas unscharf. Trotzdem kürzere Bildberechnungszeit bei besserer Bildqualität.
144 Hz @ Forward Rendering, ohne MSAA mit DLSS Ultra Quality
  • Bildberechnungszeit: 6,60 ms
  • Bildqualität: Das Bild ist gestochen scharf, es lässt sich kein Aliasing mehr wahrnehmen. Ohne DLSS wären 120 Bilder pro Sekunde für mein Testsystem kaum zu erreichen.
 
Zuletzt bearbeitet:
Es wird aktuell halt noch nicht großartig genutzt, weil es kaum oder keinen einen Performancevorteil bietet.
(Warum es oben in den Screenshots augenscheinlich die FPS erhöht, erschließt sich mir nicht direkt.)
Das liegt wohl am Spiel ich merke gerade das zwischen Qualität und Qualität Ultra kein Unterschied ist. Wahrscheinlich ist es in den Optionen dann nur als Platzhalter im Moment oder noch nicht 100%ig implementiert, wie gesagt das Spiel ist noch in Entwicklung.
 
Zurück