Ja die Karte liegt auch in der Rasterisierungsleistung, in 4k, im Schnitt 10 % zurück. Das spiegelt sich hier im Preis auch wieder. In dem Leistungs/Kosten- bereich schaue ich nicht mehr auf 1080P Leistung. Der Preis ist dennoch nicht angemessen im direkten vergleich, aus vorher genannten gründen (Dlss -(Tensorkerne), Rtx, Videoencoder).Mhm ja 629€ für die RX 6800XT liegt auf jeden Fall über 719€ für die RTX 3080.
Mit Worten wie immer wäre ich sehr vorsichtig, gerade in dem Forum wo alles auf die Goldwage gelegt wird.
Kann es gerade nicht nennen, aber es gibt Spielebenchmarks in denen ist der Leistungsabfall grösser als 60 %, gerade noch oder kleiner als 40 % der normal Leistung. Im Schnitt wird deine Angabe stimmen. Für mich ist das damit kein Feature mehr als Kaufargument, entweder etwas besseres oder gar nicht. Ich bedenke dazu dass Rtx noch so gut wie gar nicht eingesetzt wird, mal sehen was die Abstände sagen wenn der Einsatz von Rtx gesteigert wird.Also ich bin auch nicht zufrieden mit der RT Leistung.
Bei Nvidia liegt sie ja nun bei ~70% bei AMD bei ~50% ggü der Normal Leistung.
Alles unter 85% ist schlecht mMn.
Hast du eine Rtx 3080, sieht man das da? Klar mehr Speicher ist besser, aber Speicher erhöht eben auch den Preis, schlimm ist nur wenn er in der Leistungsklasse einfach nicht benötigt wird.In Battlefield braucht man mit Raytracing in 4k 11GB VRAM, sonst werden Texturen nachgeladen, sieht man kaum bis gar nicht. Das wird bei BF6 bestimmt nicht weniger.... Für spielbare Framerates reicht allerdings ne RTX 3080 die aber wieder nur 10GB hat.
Habe auch leider lange Vergleiche gesucht und bin auf Gamersnexus gestoßen und dazu noch ein Paar andere Videos auf Youtube. Ich habe nicht viel gefunden aber ich muss sagen ich bin mit Nvenc voll zufrieden, habe selbst ein Paar Test gemacht und verglichen, Cpu/4K vs Nvenc/4K, ich erkenne kaum einen Unterschied naja vielleicht schon aber das ist es mir nicht wert 10 Std oder mehr zu Codieren. Der Hardware Encoder packt das in halber Film Länge. Dazu habe ich ein Paar Videos zu Amd (komme gerade nicht auf den Namen) gesehen also da sind Welten dazwischen.Also ich hab mit meinem Kumpel, der ne 3060ti hat, mal H265 und H264 verglichen, wir konnten keinen merkbaren Unterschied feststellen.
Eine Erkenntnis hat sich wieder bestätigt: Gegen vernüftiges CPU Encoding ist GPU Encoding einfach nur Schmutz egal ob AMD oder Nvidia.
Du kannst mir gern ein vernüftiges und aktuelles Video verlinken was deine Aussage untermauert.
Hab vor paar Monaten mal geschaut und nichts aktuelles Gescheites gefunden.
GamerNexus hatte ein altes Review und hat auch dort keine Unterschiede feststellen können.
Für den Preis würde ich die nehmen. Habe eine Gtx 1080, ich warte ab bis sich das alles normalisiert.Kann die MSI Trio X 3060ti empfehlen, gibts vllt iwann bei Mediamarkt wieder für 470€
Ja ich denke halt schon, dass die Kerne der eigentlichen Gpu schon Last abnehmen, sonst würden die nicht verbaut werden. Kostet Ressourcen und nimmt Leistung auf. Ohne merklich eine Funktion wäre das ziemlich blöd, die zu verbauen.Das ist bis heute nachweislich ein großes Mysterium. Nvidia hat ja nachweislich gelogen, am Ende funktionierte RTX Voice auch ohne Tensorkerne. Bei PhysX haben sie damals auch nachweislich gelogen. Für mich ist fraglich ob die Tensorkerne überhaupt genutzt werden, zumindest existieren sie.
....
Für den Preis würde ich die nehmen. Habe eine Gtx 1080, ich warte ab bis sich das alles normalisiert.
Hätte halt einfach nur gerne Hdmi 2.1, Feature bedingt mehr Leistung bräuchte ich nicht, vor allem nicht für einen exorbitanten Mehrverbrauch.
Ja ich denke halt schon, dass die Kerne der eigentlichen Gpu schon Last abnehmen, sonst würden die nicht verbaut werden. Kostet Ressourcen und nimmt Leistung auf. Ohne merklich eine Funktion wäre das ziemlich blöd, die zu verbauen.
Umgekehrt muss Amd diese Funktion mit der eigentlichen Gpu erledigen, kostet Leistung bei wahrscheinlich niedrigerer Effektivität.
Womit? Quellen?Das ist bis heute nachweislich ein großes Mysterium. Nvidia hat ja nachweislich gelogen
Wo wurde da gelogen?, am Ende funktionierte RTX Voice auch ohne Tensorkerne.
Auch hier? Quelle?Bei PhysX haben sie damals auch nachweislich gelogen
NSIGHT ist Dein Freund. -> JaFür mich ist fraglich ob die Tensorkerne überhaupt genutzt werden, zumindest existieren sie.
Die einzige die ein DLSS Trauma hatte war meine RX 6800 als sie von meiner RTX 2070 super in CP vorgeführt wurde .Manche müssen Ihr DLSS Trauma aktiv überwinden.
Die Qualität hat sich mit Turing und dann Ampere noch ein Stück verbessert. CPU encoding kommt für mich nicht mehr in Frage. Qualitativ kein Unterschied (3.5m/4K Tv) und die Zeitersparnis ist enorm.aber ich muss sagen ich bin mit Nvenc voll zufrieden, habe selbst ein Paar Test gemacht und verglichen, Cpu/4K vs Nvenc/4K, ich erkenne kaum einen Unterschied naja vielleicht schon aber das ist es mir nicht wert 10 Std oder mehr zu Codieren. Der Hardware Encoder packt das in halber Film Länge. Dazu habe ich ein Paar Videos zu Amd (komme gerade nicht auf den Namen) gesehen also da sind Welten dazwischen.
Früher war es auch Standard, das man bei neuer HW deutlich mehr Leistung zum "gleichen" Geld bekommen hat, heute steigt nur noch der Preis..., da ist es kein Wunder das man dieses Defizit durch solche verlustbehafteten Verfahren wie DLSS und FSR ausgleichen muss. Sobald die HW wieder nachzieht, ist das hier alles unnützt.Wieso ist boost eigentlich kein Thema mehr? Den Ansatz finde ich eigentlich auch vielsprechend. Sollte Standard sein bei allen Spielen.
DLSS hat nicht nur Modi, die die Leistung erhöhen, sondern mit dem "Ultra-Quality-Preset" auch einen Modus, der das native Bild intern hochskaliert und dabei auf das 16K-Rohmaterial aus dem neuronalen Netzwerk zurückgreift. Somit ist DLSS kein reines leistungssteigerndes Feature, sondern es kommt immer darauf an, welches Preset man nutzt. Aktuell soll es natürlich primär Leistung bereitstellen und Raytracing ermöglichen.da ist es kein Wunder das man dieses Defizit durch solche verlustbehafteten Verfahren wie DLSS und FSR ausgleichen muss. Sobald die HW wieder nachzieht, ist das hier alles unnützt.
Wenn FSR in 3 Wochen offiziell rauskommt, also zu dem Zeitpunkt in mindestens einem Titel drin ist, soll man jetzt noch WIP Material zeigen?Vielleicht ist die Implementierung in Godfall auch noch WIP, sodass die finale Performance aber noch nicht die finale Bildqualität bekannt ist.
beides sieht man am Beispiel der 1060 mit Quality Mode, da braucht man keine Lupe oder Screenshots, man sieht aus dem Video heraus deutlich, wie viel schlechter das aussieht.Ob man den Unterschied zwischen "Brei" und "nicht Brei" auch noch erkennt, wenn...
... man nicht die 16-fach Vergrößerungslupe anlegt. (Beispiel hat 4x Vergrößerung in X und Y Dimension)
... das Bild sich anfängt zu bewegen.
Damals war das auch was komplett neues, AMD bringt FSR nun zu einem Zeitpunkt, wo die Leute schon genau wissen, was es machen soll und vor Allem dass es sich mit DLSS vergleichen können muss.Es ist ja nur die Vorstellung. Man danke an das Material zurück, das Nvidia ursprünglich (2018) für DLSS geliefert hat. Da hat sich eigentlich keinem erschlossen, was das sein soll.
Gibt es auch nicht, er kreiert sich dass lediglich zurecht weil es in dem Plugin in der UE5 aufgeführt wird.Ich konnte nur bis quality hoch, von Ultra war nichts zu sehen. Wann kam das denn?
Das machen die schon seit 20 Jahren so. Da die Kundschaft wohl ein sehr vergesslicher Haufen ist, klappt es immer wieder.Nvidia hat einen Mehrwert versprochen, den diese Tensorkerne bieten sollen. Bisher war da aber recht wenig zu sehen. Sollte das nun auch auf DLSS zutreffen, dann wäre ein ähnlicher Betrug, wie bei Segas "Blastprocessing"
....
Was stimmt eigentlich nicht bei dir?Gibt es auch nicht, er kreiert sich dass lediglich zurecht weil es in dem Plugin in der UE5 aufgeführt wird.
DLSS verdoppelt Performance
Robin testet eine UE4-Szene mit Deferred Rendering und Forward Rendering mit unterschiedlichen DLSS-Einstellungen und unterschiedlichen Ziel-Bildwiederholraten.
90 Hz @ Forward Rendering, ohne MSAA ohne DLSS
90 Hz @ Forward Rendering, ohne MSAA mit DLSS Ultra Performance
- Bildberechnungszeit: 4,07 ms
- Bildqualität: Das Aliasing ist sehr deutlich. Unschönes Bild, das in den Augen schmerzt.
144 Hz @ Forward Rendering, ohne MSAA mit DLSS Ultra Quality
- Bildberechnungszeit: 3,90 ms
- Bildqualität: Das Aliasing ist nicht mehr sichtbar, aber dafür wirkt das ganze Bild etwas unscharf. Trotzdem kürzere Bildberechnungszeit bei besserer Bildqualität.
- Bildberechnungszeit: 6,60 ms
- Bildqualität: Das Bild ist gestochen scharf, es lässt sich kein Aliasing mehr wahrnehmen. Ohne DLSS wären 120 Bilder pro Sekunde für mein Testsystem kaum zu erreichen.
Das liegt wohl am Spiel ich merke gerade das zwischen Qualität und Qualität Ultra kein Unterschied ist. Wahrscheinlich ist es in den Optionen dann nur als Platzhalter im Moment oder noch nicht 100%ig implementiert, wie gesagt das Spiel ist noch in Entwicklung.Es wird aktuell halt noch nicht großartig genutzt, weil es kaum oder keinen einen Performancevorteil bietet.
(Warum es oben in den Screenshots augenscheinlich die FPS erhöht, erschließt sich mir nicht direkt.)