• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Grafikkarten-Benchmarks 2021: 20 Benchmarks, 18 Grafikkarten, 4 Auflösungen - Ampere vs. RDNA 2 & Co.

raPid-81

PC-Selbstbauer(in)
Nö, ich hab nur gesagt dass DLSS "auch" (wichtiges Wort) eine Hardware Lösung ist, nicht dass es eine reine Hardware Lösung ist. Verstehst Du es wirklich nicht? Sowohl für DLSS als auch SAM benötigt man ein Zusammenspiel von Hardware und Software.

hier behauptest du explizit das jedes UR Engine Spiel in Zukunft DLSS unterstützt, das ist definitiv gelogen
Nö, ich habe nur gesagt dass DLSS in Zukunft in der Unreal-Engine immer verfügbar ist (für die Entwickler), und wenn es unterstützt wird dann sollte man die Benchmarks nach eurer Logik "NV mit DLSS vs. AMD ohne DLSS" erstellen. Das kann nicht euer Ernst sein, da würde AMD jedes Benchmark massiv verlieren. Wir sprechen hier von min. 25% mehr Frames bei gleichbleibender (oder sogar verbesserter) Optik.
 
Zuletzt bearbeitet:

Illithide

Freizeitschrauber(in)
Bin nur kurz drübergeflogen... dass man mal ein Spiel nimmt das AMD nicht liegt (Desperados 3), ok. Aber einen alten Schinken wie Witcher 3 mit irgendwelchen Mods die "zufällig" AMD überhaupt nicht liegen, SAM lediglich optional bei einer einzigen Karte, Renderscale bei Games die AMD liegen auf 150% (Battlefield V), weil man weiß, dass Nvidia die High-End-Ampere-Karten bei zu kleiner Auflösung nicht augelastet bekommt. Der Test zeigt klar wessen Geistes Kind PCGH ist.

Sowas wie Nioh 2 dagegen würde man bei euch nicht mal in einem einfachen Techniktest sehen, geschweige denn in einem Testparcour: https://gamegpu.com/rpg/ролевые/nioh-2-the-complete-edition-test-gpu-cpu

...
Dito. Aber daran gab`s doch von vornherein wenig Zweifel, oder? ;-)

Wenn man sich dann noch die Vorwürfe, die Raff gegen CB-Wolfgang rausgehauen hat, mal als Maßstab danebenlegt... OMG!
 
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
SAM erzeugt in der Regel aber auch eine höhere Speicherbelegung. Etwas was die aktuelle NV Generation nicht so mögen dürfte. Zudem bleibt abzuwarten wie die Arches darauf ansprechen, es ist bei liebe nicht gesagt das die NV Version gleich arbeitet wie die bei AMD. Es kann schlechter oder besser ausfallen oder gleich, das weiß bisher schlicht niemand. So einfach kann das alles nicht sein wenn es erst jetzt genutzt wird. Die Lösung von AMD mit dem Cache könnte in dem Zusammenhang deutlich Vorteile bringen.
Mal gucken. Wir werden es ja sehen. Genau wie wir sehen werden ob AMDs Fidelity FX Super Resolution DLSS2.0 Konkurrenz machen kann oder nicht. Das zweifle ich wiederum nämlich mal stark an.
 

Gurdi

Kokü-Junkie (m/w)
Bin nur kurz drübergeflogen... dass man mal ein Spiel nimmt das AMD nicht liegt (Desperados 3), ok. Aber einen alten Schinken wie Witcher 3 mit irgendwelchen Mods die "zufällig" AMD überhaupt nicht liegen (Zitat: Besonderheiten: Grafisch aufgewertet via Config; Nvidia-Faible (sic!)), SAM lediglich optional bei einer einzigen Karte, Renderscale bei Games die AMD liegen auf 150% (Battlefield V), weil man weiß, dass Nvidia die High-End-Ampere-Karten bei zu kleiner Auflösung nicht augelastet bekommt. Der Test zeigt klar wessen Geistes Kind PCGH ist.
Man muss sich nicht immer auf den Tabellenplatz beschränken bei seiner Sicht. Der Renderscale ist für mich tendenziell interessant weil ich via VSR eigentlich immer auf 1800p gehe da meine Karte Leistung satt hat und ich mit Fps oberhalb von 100 recht wenig anfangen kann meist.
Mal gucken. Wir werden es ja sehen. Genau wie wir sehen werden ob AMDs Fidelity FX Super Resolution DLSS2.0 Konkurrenz machen kann oder nicht. Das zweifle ich wiederum nämlich mal stark an.
Was hat das eine wieder mit dem anderen zu tun. Ich erwarte da keine Wunder von Super Resolution, das wird wohl eine Skalierung mit Nachbearbeitung werden. Wichtig wäre mit da eher ein breiter Ansatz, weil die tollste Technik mir absolut nichts bringt wenn nicht in meinen Spielen vorhanden.

@PCGH_Raff Die Ergebnisse bei Gredfall kommen mir etwas merkwürdig vor wenn ich da mir die Abstände zwischen den verschiedenen Auflösungen anschaue.
 

perupp

Software-Overclocker(in)
Nö, ich hab nur gesagt dass DLSS "auch" (wichtiges Wort) eine Hardware Lösung ist, nicht dass es eine reine Hardware Lösung ist. Verstehst Du es wirklich nicht? Sowohl für DLSS als auch SAM benötigt man ein Zusammenspiel von Hardware und Software.


Nö, ich habe nur gesagt dass DLSS in Zukunft in der Unreal-Engine immer verfügbar ist (für die Entwickler), und wenn es unterstützt wird dann sollte man die Benchmarks nach eurer Logik "NV mit DLSS vs. AMD ohne DLSS" erstellen. Das kann nicht euer Ernst sein, da würde AMD jedes Benchmark massiv verlieren. Wir sprechen hier von min. 25% mehr Frames bei gleichbleibender (oder sogar verbesserter) Optik.
Bin ich jetzt echt zu blöd zum lesen??

Außerdem ist DLSS z.B. in der Unreal Engine jetzt immer verfügbar, also sollten Unreal-Engine Games auf NV Karten immer mit DLSS getestet werden

Du behauptest doch eindeutig das UL engine Spiele immer mit DLSS getestet werden sollen... Das impliziert doch das UL Engine Spiele immer DLSS unterstützen...
KOPFSCHÜTTELND
 

Freiheraus

BIOS-Overclocker(in)
Man muss sich nicht immer auf den Tabellenplatz beschränken bei seiner Sicht. Der Renderscale ist für mich tendenziell interessant weil ich via VSR eigentlich immer auf 1800p gehe da meine Karte Leistung satt hat und ich mit Fps oberhalb von 100 recht wenig anfangen kann meist.
Eben, siehe mein Renderscale-Edit mit Doom, das ist mir alles zu selektiv.
 

Illithide

Freizeitschrauber(in)
Man muss sich nicht immer auf den Tabellenplatz beschränken bei seiner Sicht. Der Renderscale ist für mich tendenziell interessant weil ich via VSR eigentlich immer auf 1800p gehe da meine Karte Leistung satt hat und ich mit Fps oberhalb von 100 recht wenig anfangen kann meist.
...
Das ist als subjektive Anforderung erklärbar und natürlich auch o.k. PCGH macht hier aber nunmal hauptsächlich Tabellenplätze und erhebt ausdrücklich den Anspruch auf deren allgemeine Aussagefähigkeit. Das Kleingedruckte nehmen schon heute nur die 1% ohnehin Informierten zur Kenntnis und in drei Wochen ist es ganz vergessen. Den Bias kann und muss man imho deshalb schon mal anmerken.
 

Gurdi

Kokü-Junkie (m/w)
Eben, siehe mein Renderscale-Edit mit Doom, das ist mir alles zu selektiv.
Gut, das ist zumindest ein Argument.

Das ist als subjektive Anforderung erklärbar und natürlich auch o.k. PCGH macht hier aber nunmal hauptsächlich Tabellenplätze und erhebt ausdrücklich den Anspruch auf deren allgemeine Aussagefähigkeit. Das Kleingedruckte nehmen schon heute nur die 1% ohnehin Informierten zur Kenntnis und in drei Wochen ist es ganz vergessen. Den Bias kann und muss man imho deshalb schon mal anmerken.
Am Ende sollten man den Nutzen für die User bewerten und da muss sich PCGH natürlich an die wirkliche Käuferschicht halten. Klar orientieren sich auch viele Andere an dem Index die unbedarft sind aber der Parcour macht nunmal sehr viel aus derzeit und entsprechende Enginevertreter müssen dabei dann auch repräsentiert werden. AMD muss sich auch den Vorwurf gefallen lassen wo es denn aktuell immer noch hakt an der Cryengine, das Thema gehört zumindest mal in die RelaseNotes des Treibers mittlerweile.
 

raPid-81

PC-Selbstbauer(in)
Bin ich jetzt echt zu blöd zum lesen??

Außerdem ist DLSS z.B. in der Unreal Engine jetzt immer verfügbar, also sollten Unreal-Engine Games auf NV Karten immer mit DLSS getestet werden

Du behauptest doch eindeutig das UL engine Spiele immer mit DLSS getestet werden sollen... Das impliziert doch das UL Engine Spiele immer DLSS unterstützen...
KOPFSCHÜTTELND
Na du nimmst es jetzt aber ganz genau, jedes Wörtchen... Wie gesagt, ich meinte die generelle DLSS Unterstützung der UE. Nach Deiner Logik müsste man in jedem Spiel wo DLSS verfügbar ist, die Benchmarks auf NV Karten mit DLSS machen, weil "AMD hat nichts vergleichbares, Pech gehabt". Und das ist nunmal nicht zielführend wenn man vergleichbare, halbwegs akkurate Messungen der reinen Grafikkarten Power haben möchte.
 

PCGH_Dave

Redaktion
Teammitglied
Bin nur kurz drübergeflogen...
Ein finales Urteil sollte man sich erst bilden, wenn man den ganzen Artikel gelesen (und verstanden) hat. Das wäre dem Autor gegenüber auch fair. ;-)
In Doom Eternal: Ancient Gods 1 hängen mindestens die Top-Modelle (RTX 3090 und RX 6900 XT) im CPU-Limit,
Nö. Ein 5950X macht ohne Optimierung schon ~440 Fps in der Szene, das weiß ich, weil die GPU-Szene = die CPU-Szene ist. Eine 3090 macht da gerade mal 313 Fps, die kannste schon locker mit einem Ryzen 3600 auslasten. :D
 

X-Bow

PC-Selbstbauer(in)
Falsch, DLSS ist keine reine Softwarelösung:
https://www.nvidia.com/de-de/geforce/technologies/dlss/
https://en.wikipedia.org/wiki/Tensor_Processing_Unit

Wäre es so einfach, dann hätte AMD längst nachgezogen.

Mit anschalten von DLSS sinkt die FPS? Die FPS steigen um bis zu 150% je nach Zielauflösung und DLSS Modus! Man sieht, Du hast keine Ahnung was DLSS ist und macht...
Hast Du Dir deine Links mal dazu durchgelesen? Deep Learning Super Sampling ist genau dass, wie es ausgesprochen heißt. Mittels Deep Learning (Software) wird im Voraus ein Code (Software) kreiert welcher das Hochskalieren für diese Anwendung am besten Beschreibt. Mit was der Code dann ausgeführt wird, ist dem Code eigentlich schnurz, Code bleibt Code (nochmals, Software).
Das ist wie wenn Du sagen würdest GTA ist keine reine Software weil man doch Hardware braucht um die Auszuführen.

Nein, mit DLSS steigt die FPS NICHT! Keine der "Fachpressen" achtet auf den richtigen Terminus weswegen dem Laien verkauft wird das die FPS steigen würde. Um es dir mal zu verdeutlichen, Du denkst in etwa so:
"Ich hab 30 FPS bei 4K, ich aktivier DLSS und die FPS steigt auf 50 FPS bei 4K" Das ist aber Falsch. Richtig wäre:
"Ich hab 55 FPS bei FullHD, ich aktivier DLSS und hab 50 FPS bei FullHD mit 4K Optik"
Der Performenceboost kommt ja nicht davon das die Grafikkarte plötzlich viel mehr Power hat.

Und für Die, welche das immernoch zu hoch war hier ein typisch deutscher Autovergleich:

Stell dir vor man hat zwei Rennwagen, einer ist grün, der andere rot. Beide fahren auf dem Nürburgring (GP + Nordschleife) ähnliche Zeiten (4K). Das ist vergleichbar. Jetzt lässt man den Roten weiterhin GP + Nordschleife fahren aber den Grünen nur die GP Strecke (DLSS), schreibt aber zum Ergebnis die Zeit gelte für beide Strecken. Plötzlich ist der Grüne im Vergleich viel besser, aber nicht weil das Auto Besser geworden ist (oder das Rote schlechter), sondern weil die Strecke kürzer wurde.

Wenn das Regularium dann aber sagt die beiden dürfen ohne Restriktor fahren (rBAR) der Rote das macht aber der Grüne nicht, dann wird der Rote tatsächlich schneller im Verleich zu dem Grünen.
 
Zuletzt bearbeitet:

Illithide

Freizeitschrauber(in)
Gut, das ist zumindest ein Argument.


Am Ende sollten man den Nutzen für die User bewerten und da muss sich PCGH natürlich an die wirkliche Käuferschicht halten. Klar orientieren sich auch viele Andere an dem Index die unbedarft sind aber der Parcour macht nunmal sehr viel aus derzeit und entsprechende Enginevertreter müssen dabei dann auch repräsentiert werden. AMD muss sich auch den Vorwurf gefallen lassen wo es denn aktuell immer noch hakt an der Cryengine, das Thema gehört zumindest mal in die RelaseNotes des Treibers mittlerweile.
Es geht ja auch nicht um die Parcourauswahl sondern um im Kleingedruckten versteckte Sonderlocken wie willkürliche Rendertargeterhöhungen oder selbstgebastelte Ini- und sonstige Mods. Das ist das, was die Käuferschicht gerade nicht selbst macht und wohl auch gar nicht vermutet, dass so was im Test drinstecken könnte. Ob man das noch als seriös bezeichnen kann, kann man schon mal hinterfragen.
 

raPid-81

PC-Selbstbauer(in)
Hast Du Dir deine Links mal dazu durchgelesen? Deep Learning Super Sampling ist genau dass, wie es ausgesprochen heißt. Mittels Deep Learning (Software) wird im Voraus ein Code (Software) kreiert welcher das Hochskalieren für diese Anwendung am besten Beschreibt. Mit was der Code dann ausgeführt wird, ist dem Code eigentlich schnurz, Code bleibt Code (nochmals, Software).
Das ist wie wenn Du sagen würdest GTA ist keine reine Software weil man doch Hardware braucht um die Auszuführen.

Nein, mit DLSS steigt die FPS NICHT! Keine der "Fachpressen" achtet auf den richtigen Terminus weswegen dem Laien verkauft wird das die FPS steigen würde. Um es dir mal zu verdeutlichen, Du denkst in etwa so:
"Ich hab 30 FPS bei 4K, ich aktivier DLSS und die FPS steigt auf 50 FPS bei 4K" Das ist aber Falsch. Richtig wäre:
"Ich hab 55 FPS bei FullHD, ich aktivier DLSS und hab 50 FPS bei FullHD mit 4K Optik"
Der Performenceboost kommt ja nicht davon das die Grafikkarte plötzlich viel mehr Power hat.

Und für Die, welche das immernoch zu hoch war hier ein typisch deutscher Autovergleich:

Stell dir vor man Hat zwei Rennwagen,einer ist grün, der andere rot. Beide fahren auf dem Nürburgring (GP + Nordschleife) ähnliche Zeiten (4K). Das ist vergleichbar. Jetzt lässt man den Roten weiterhin GP + Nordschleife fahren aber den Grünen nur die GP Strecke (DLSS), schreibt aber zum Ergebnis die Zeit gelte für beide Strecken. Plötzlich ist der Grüne im Vergleich viel besser, aber nicht weil das Auto Besser geworden ist (oder das Rote schlechter), sondern weil die Strecke kürzer wurde.
Wenn das Regularium dann aber sagt die beiden dürfen ohne Restriktor fahren (rBAR) der Rote das macht aber der Grüne nicht, dann wird der Rote tatsächlich schneller im Verleich zu dem Grünen.
Joah, und worauf läuft DLSS dann? Reine Software Lösung? Mitnichten, die Tensor Cores sind u.a. speziell für DLSS auf den Grafikchips. Also ist es, wie ich sagte, eine Kombination aus Hardware und Software.

Wenn es eine reine Software Lösung wäre, dann hätten die Konkurrenten längst nachgezogen. Siehe Wiki-Artikel zu Tensor Cores. Ohne diese lässt sich der DLSS Algorithmus nicht in der Geschwindigkeit ausführen.

Doch, mit DLSS steigt die FPS für den User. Sie steigt nur nicht wenn man die gerenderten Auflösungen direkt vergleicht, trotzdem habe ich am Ende ein Bild was qualitativ z.B. 4K entspricht, in WQHD gerendert wurde, nur mit einer deutlich erhöhten FPS Zahl.

DLSS verbessert das Ausgangsbild anhand des trainierten Algorithmus sodass aus 720p/1080p etc eine höhere Ausgabequalität (vergleichbar mit 1-2 Stufen höherer Auflösung) erreicht wird.

Dein Rennwagen Vergleich hinkt. Am Ende müssten nämlich beide Rennwagen dieselbe Strecke zurückgelegt haben (Ausgabequalität), nur dass der grüne Wagen viel schneller am Ziel angekommen ist (mehr FPS)...
 

Gurdi

Kokü-Junkie (m/w)
Es geht ja auch nicht um die Parcourauswahl sondern um im Kleingedruckten versteckte Sonderlocken wie willkürliche Rendertargeterhöhungen oder selbstgebastelte Ini- und sonstige Mods. Das ist das, was die Käuferschicht gerade nicht macht udn auch gar nicht vermutet. Ob man das noch als seriös bezeichnen kann, habe ich dann schon Zweifel.
Wie gesagt die Rendertargeterhöhungen stören mich jetzt in den Beispielen nicht, wobei man schon sagen muss dass die RX Karten in BF5 dadurch schlechter abschneiden und im Multiplayer allgemein auch niedrigere Fps herrschen würden.

Die Mods bei Witcher stören mich aber persönlich auch, erstens halte ich das nicht für sonderlich repräsentativ da die Modauswahl bei den meisten sehr unterschiedlich ausfallen dürfte und zweitens kann ich da durch die Koppelung an das DLC und die Mods nichts nachstellen da ich lediglich das Hauptspiel habe(wie bei Anno auch).
Ich finde den Titel aber allgemein nicht mehr angebracht für einen Parcour aus technischer Sicht, aber da ist PCGH auch nicht alleine und wenn es immer nich viele Fans hat, hat es sicher auch seine Begründung.
Doch, mit DLSS steigt die FPS für den User. Sie steigt nur nicht wenn man die gerenderten Auflösungen direkt vergleicht, trotzdem habe ich am Ende ein Bild was qualitativ z.B. 4K entspricht, in WQHD gerendert wurde, nur mit einer deutlich erhöhten FPS Zahl.
Bitte verschont uns doch mit der drölfzigsten DLSS Diskussion.
 

Heisenberg23

Komplett-PC-Käufer(in)
Das ist das, was die Käuferschicht gerade nicht selbst macht und wohl auch gar nicht vermutet, dass so was im Test drinstecken könnte. Ob man das noch als seriös bezeichnen kann, kann man schon mal hinterfragen.

Ich finde es durchaus seriös. Es steht ja da:D Klar, klein geschrieben aber es steht da.

Anders als die Bedingungen unter denen andere Portale "Technik Tests" veröffentlichen. Da biste froh wenn du weißt welche Settings genau genommen wurden bzw mit welchen Frequenzen die Karte lief.
 

gaussmath

Lötkolbengott/-göttin
Anders als die Bedingungen unter denen andere Portale "Technik Tests" veröffentlichen. Da biste froh wenn du weißt welche Settings genau genommen wurden bzw mit welchen Frequenzen die Karte lief.
Ich wollt's gerade sagen. Wie kann man bei der "knallharten" Transparenz von PCGH von unseriös sprechen? Versucht doch mal, auch nur einen Benchmark von bekannten Tech-Youtubern nachzustellen. ;)
 

perupp

Software-Overclocker(in)
Joah, und worauf läuft DLSS dann? Reine Software Lösung? Mitnichten, die Tensor Cores sind u.a. speziell für DLSS auf den Grafikchips. Also ist es, wie ich sagte, eine Kombination aus Hardware und Software.

Wenn es eine reine Software Lösung wäre, dann hätten die Konkurrenten längst nachgezogen. Siehe Wiki-Artikel zu Tensor Cores. Ohne diese lässt sich der DLSS Algorithmus nicht in der Geschwindigkeit ausführen.

Doch, mit DLSS steigt die FPS für den User. Sie steigt nur nicht wenn man die gerenderten Auflösungen direkt vergleicht, trotzdem habe ich am Ende ein Bild was qualitativ z.B. 4K entspricht, in WQHD gerendert wurde, nur mit einer deutlich erhöhten FPS Zahl.

DLSS verbessert das Ausgangsbild anhand des trainierten Algorithmus sodass aus 720p/1080p etc eine höhere Ausgabequalität (vergleichbar mit 1-2 Stufen höherer Auflösung) erreicht wird.

Dein Rennwagen Vergleich hinkt. Am Ende müssten nämlich beide Rennwagen dieselbe Strecke zurückgelegt haben (Ausgabequalität), nur dass der grüne Wagen viel schneller am Ziel angekommen ist (mehr FPS)...
Die Tensor cores sind mitnichten nur für dlss entwickelt worden..
Die kommen aus dem Server Umfeld..
Ja sein Vergleich ist richtig gut.. Für dich müsste jedes Spiel eine Hardware Sache sein und keine Software, denn mann braucht ja für den Code z.b
avx..
Nein dlss ist eine reine Software Sache.. so st müssten es ja Spiele nicht explizit implementieren..
Dagegen ist SAM eine Hardware Sache, da muss am Spiel nichts geändert werden
 

raPid-81

PC-Selbstbauer(in)
Die Tensor cores sind mitnichten nur für dlss entwickelt worden..
Die kommen aus dem Server Umfeld..
Ja sein Vergleich ist richtig gut.. Für dich müsste jedes Spiel eine Hardware Sache sein und keine Software, denn mann braucht ja für den Code z.b
avx..
Nein dlss ist eine reine Software Sache.. so st müssten es ja Spiele nicht explizit implementieren..
Dagegen ist SAM eine Hardware Sache, da muss am Spiel nichts geändert werden
Und wieder verdrehst du meine Worte... Ich sagte "die Tensor Cores sind u.a. speziell für DLSS auf den Grafikchips." Nirgends ein Wort davon dass sie "nur für DLSS entwickelt wurden". Zwecks Weiterbildung, lies doch mal hier: https://www.datacenter-insider.de/was-sind-tensor-cores-a-949046/

Für mathematisch weniger beschlagene Menschen reicht es, sich vorzustellen, dass Tensor Cores sehr komplexe Multiplikationen und Additionen von Zahlenfeldern extrem schnell durchführen und wenn gewünscht etwas vereinfachen können, so dass es noch schneller geht.

Tensor Core SIND speziell für Machine Learning entwickelt worden, und DLSS NUTZT einen Machine Learning Algorithmus. Ob sie im Server Umfeld oder sonstwo zuerst eingesetzt wurden ist irrelevant.

Was für Unfug bezüglich "jedes Spiel ist Hardware", wo sage ich denn sowas? Ich sage nur dass DLSS UND SAM nur funktionieren wenn Hardware UND Software zusammen arbeiten. Kannst Du das Gegenteil beweisen? Ich habe genügend dargelegt warum beides Hardware benötigt (DLSS - Tensor Cores, SAM - kompatibles MB) und natürlich auch Software (DLSS - trainierter Algorithmus + Spiele Integration, SAM - Treiber + BIOS).

DLSS ist und bleibt KEINE reine Software Sache. Deine Definition von Hardware und Software ist wirklich kurios. SAM benötigt zwar keine explizite Integration in Spielen, aber ohne Tensor Cores kannst Du kein Spiel dazu bringen DLSS zu nutzen. Somit benötigen BEIDE Features jeweils passende Hardware UND Software.
 

perupp

Software-Overclocker(in)
Und wieder verdrehst du meine Worte... Ich sagte "die Tensor Cores sind u.a. speziell für DLSS auf den Grafikchips." Nirgends ein Wort davon dass sie "nur für DLSS entwickelt wurden". Zwecks Weiterbildung, lies doch mal hier: https://www.datacenter-insider.de/was-sind-tensor-cores-a-949046/



Tensor Core SIND speziell für Machine Learning entwickelt worden, und DLSS NUTZT einen Machine Learning Algorithmus. Ob sie im Server Umfeld oder sonstwo zuerst eingesetzt wurden ist irrelevant.

Was für Unfug bezüglich "jedes Spiel ist Hardware", wo sage ich denn sowas? Ich sage nur dass DLSS UND SAM nur funktionieren wenn Hardware UND Software zusammen arbeiten. Kannst Du das Gegenteil beweisen? Ich habe genügend dargelegt warum beides Hardware benötigt (DLSS - Tensor Cores, SAM - kompatibles MB) und natürlich auch Software (DLSS - trainierter Algorithmus + Spiele Integration, SAM - Treiber + BIOS).

DLSS ist und bleibt KEINE reine Software Sache. Deine Definition von Hardware und Software ist wirklich kurios. SAM benötigt zwar keine explizite Integration in Spielen, aber ohne Tensor Cores kannst Du kein Spiel dazu bringen DLSS zu nutzen. Somit benötigen BEIDE Features jeweils passende Hardware UND Software.
Wenn das keine reine Software Lösung ist, nur weil es zum schnelleren berechnen die Tensor Cores benutzt ist keine Software eine Software Lösung....
Die benutzen z.b avx oder sse Einheiten..
Man könnte Dlss genauso direkt auf der CPU oder Grafikkarte berechnen, das dauert nur..
Aber ich gebe auf
 

perupp

Software-Overclocker(in)
Was den Sinn dann völlig verfehlt......
Wenn es eine Hardwarelösung wäre würde es nur mit dieser Hardware funktionieren genauso wie eine Software die AVX voraussetzt oder Windows ab Vista nur mit SSE3 läuft, also ist Vista und danach eine Hardware Lösung..
Es wo anders berechnen lassen verliert den Sinn weil es extrem Leistung kostet.. Wo ist jetzt noch einmal genau der Unterschied?
 

blautemple

Lötkolbengott/-göttin
Wenn es eine Hardwarelösung wäre würde es nur mit dieser Hardware funktionieren genauso wie eine Software die AVX voraussetzt oder Windows ab Vista nur mit SSE3 läuft, also ist Vista und danach eine Hardware Lösung..
Es wo anders berechnen lassen verliert den Sinn weil es extrem Leistung kostet.. Wo ist jetzt noch einmal genau der Unterschied?
Nein, du kannst jede Hardware Lösung emulieren. Mit einer in Hardware gegossener Lösung läuft es nur viel schneller.
 

raPid-81

PC-Selbstbauer(in)
Wenn es eine Hardwarelösung wäre würde es nur mit dieser Hardware funktionieren genauso wie eine Software die AVX voraussetzt oder Windows ab Vista nur mit SSE3 läuft, also ist Vista und danach eine Hardware Lösung..
Es wo anders berechnen lassen verliert den Sinn weil es extrem Leistung kostet.. Wo ist jetzt noch einmal genau der Unterschied?
Worauf ich die ganze Zeit hinaus will: warum sollte man in Benchmarks bei AMD Karten immer mit SAM testen, bei NV Karten aber DLSS weglassen obwohl es verfügbar ist? Das Argument kann doch nicht sein "AMD hat SAM halt vor NV freigeschaltet, Pech für NV, Benchmarks immer mit SAM", aber umgekehrt sagen "NV DLSS ist proprietär, das ist nicht fair in Benchmarks".

Ich bin absolut dafür immer mit SAM/Resizeable BAR zu testen wenn es zum Standard geworden ist, aber das ist es nunmal nicht. Die meisten Leute haben aktuell PC's die dieses Feature nicht unterstützen, also macht es Sinn mit und ohne zu testen. Genauso wie es Sinn macht mit und ohne DLSS zu testen.

Ein weiteres Beispiel: demnächst kommt ja der Raytracing Test in der PCGH. Da könnte man auch sagen "NV immer mit DLSS testen" weil (soweit mir bekannt) alle RT Games auch DLSS supporten. Da sieht AMD kein Land mehr in den Benchmarks, das wäre dann bestimmt "unfair"?
 

Gurdi

Kokü-Junkie (m/w)
Worauf ich die ganze Zeit hinaus will: warum sollte man in Benchmarks bei AMD Karten immer mit SAM testen, bei NV Karten aber DLSS weglassen obwohl es verfügbar ist? Das Argument kann doch nicht sein "AMD hat SAM halt vor NV freigeschaltet, Pech für NV, Benchmarks immer mit SAM", aber umgekehrt sagen "NV DLSS ist proprietär, das ist nicht fair in Benchmarks".

Ich bin absolut dafür immer mit SAM/Resizeable BAR zu testen wenn es zum Standard geworden ist, aber das ist es nunmal nicht. Die meisten Leute haben aktuell PC's die dieses Feature nicht unterstützen, also macht es Sinn mit und ohne zu testen. Genauso wie es Sinn macht mit und ohne DLSS zu testen.

Ein weiteres Beispiel: demnächst kommt ja der Raytracing Test in der PCGH. Da könnte man auch sagen "NV immer mit DLSS testen" weil (soweit mir bekannt) alle RT Games auch DLSS supporten. Da sieht AMD kein Land mehr in den Benchmarks, das wäre dann bestimmt "unfair"?
Die Frage kannst du dir doch selbst beantworten, es ist schlicht nicht vergleichbar.

Es supporten nicht alle RT Spiele DLSS, nur die von NV finanzierten.
DLSS ist und bleibt eine Veränderung mit Vor,- und Nachteilen. Es gibt auch keinen Grund es zu aktivieren wenn die Leistung ausreicht

ResBar ist eine Funktion die keinerlei Änderungen an der visuellen Qualität vornimmt, daher spricht auch nichts dagegen es mit rein zu nehmen. Zudem funktioniert es überall in jeder Software ohne implementierung(ja ich weiß es bringt nicht überall ein Performance +)

DLSS in einen Leistungsvergleich mit rein zu nehmen ist schlicht Humbug.
 

deady1000

Volt-Modder(in)
@raPid-81 hat komplett recht mMn. Entweder man vergleicht komplett @stock ohne RT, ohne OC und ohne Zusatzfeatures oder man kloppt alle Tricks rein, die es gibt.

Wenn bald RT-Tests gemacht werden, dann hat man gefälligst auch DLSS2.0 im Quality-Modus hinzuzuschalten, denn DLSS ist eigentlich immer dabei und auch voreingestellt (zumal es auch besser aussieht - auch wenn die üblichen Verdächtigen hartnäckig anderes behaupten - anderes Thema). Sofern rBAR und SAM verfügbar sind, dann auch gerne die beiden reinpacken.

Dieses Cherrypicking ist so lächerlich wie verständlich, denn jeder weiß, unter fairen Voraussetzungen sieht BigNavi gegen Ampere im Gro kein Land. Deshalb kann jeder Ampere-User auch nur schmunzeln, wenn diese konstruierten Möchtegern-Vergleiche aufkommen, denn DLSS ist kein Feature, welches man ernsthaft abgeschaltet lässt, da es oft den Unterschied zwischen spielbar und unspielbar ausmacht.

PS: Eine Sache noch. Nvidia pusht DLSS gerade mächtig. Es ist seit kurzem vollkommen offen für die Unreal Engine 4 verfügbar (kann von Entwicklern problemlos reingepatcht werden) und ich kann mir vorstellen, dass die gerade daran arbeiten das großflächig auch für andere Engines freizugeben, um AMD noch weiter in Bedrängnis zu bringen. Sehr bald schon wird DLSS, genau wie die kompatiblen Grafikkarten, wohl breit verfügbar sein und dann wird man auch als Entwickler nicht mehr drum herum kommen.
 
Zuletzt bearbeitet:

raPid-81

PC-Selbstbauer(in)
Die Frage kannst du dir doch selbst beantworten, es ist schlicht nicht vergleichbar.

Es supporten nicht alle RT Spiele DLSS, nur die von NV finanzierten.
DLSS ist und bleibt eine Veränderung mit Vor,- und Nachteilen. Es gibt auch keinen Grund es zu aktivieren wenn die Leistung ausreicht

ResBar ist eine Funktion die keinerlei Änderungen an der visuellen Qualität vornimmt, daher spricht auch nichts dagegen es mit rein zu nehmen. Zudem funktioniert es überall in jeder Software ohne implementierung(ja ich weiß es bringt nicht überall ein Performance +)

DLSS in einen Leistungsvergleich mit rein zu nehmen ist schlicht Humbug.
Welches RT Game supported kein DLSS? Bitte ein Beispiel nennen, mir ist tatsächlich keins bekannt.

DLSS nicht aktivieren wenn die Leistung "ausreicht"? Was für ein Unsinn, mehr FPS sind immer besser bei gleichzeitig geringerer Leistungsaufnahme. Ja, DLSS spart quasi sogar Strom da die Leistungsaufnahme geringer sein kann um in 60+ FPS Regionen zu kommen. Meine 3080 läuft undervoltet und underclocked bei ~250-270 Watt Leistungsaufnahme während ich CP2077 in WQHD mit Psycho RT und max Details zocke (mit DLSS Quality) mit 60+ FPS.

SAM wird zwar von jedem Game "supported", trotzdem kann es nicht jeder mit einer RDNA2 Karte uneingeschränkt nutzen, daher macht es Sinn diesen Unterschied darzustellen (so klein er auch sein mag, wir sprechen hier immerhin von nur ~5% im Schnitt).
 

Cleriker

PCGH-Community-Veteran(in)
Ich wollt's gerade sagen. Wie kann man bei der "knallharten" Transparenz von PCGH von unseriös sprechen? Versucht doch mal, auch nur einen Benchmark von bekannten Tech-Youtubern nachzustellen. ;)
Also das ist doch wohl mehr als einfach! Brauchst doch nur ein paar Würfel und verdammt viel Langeweile. :ugly:
 

Gurdi

Kokü-Junkie (m/w)
@raPid-81 hat komplett recht mMn. Entweder man vergleicht komplett @stock ohne RT, ohne OC und ohne Zusatzfeatures oder man kloppt alle Tricks rein, die es gibt.
Tolle Idee, dann bringt AMD FFXSR einfach so dass es auf maximale Performance getrimmt ist und huscht dann um 20 % in den Benchmarks nach oben. Welche DLSS Stufe soll der Tester denn deiner Meinung nach wählen? Die Spielbare für alles, die mit der besten Qualität oder max Performance....
Am besten nehmen wir dann bei Borderlands und Co auch noch Radeon Boost dazu, die Reduzierung der Pixel in Bewegung merkt ja eh keiner, Slider ab auf 20 % und los gehts :wall:
Sehr bald schon wird DLSS, genau wie die kompatiblen Grafikkarten, wohl breit verfügbar sein und dann wird man auch als Entwickler nicht mehr drum herum kommen.
Das haben wir alles schon mal gehört, die meisten Studios interessieren die Konsolen am meisten, das ist der größte Markt und die Kohle bestimmt die Spielregeln. Der minimale Anteil am Gesamtmarkt für ein Studio mit DLSS komaptibler Hardware hält sich arg in Grenzen. Das Plugin für die UE funzt nur weil die UE quasi ein Baukasten ist und auch dort wird es nicht ohne Entwicklungsaufwand zu implementieren sein. Die kleinen Indies die meist die UE nutzen in der Form, haben alles nur keine Ressourcen und schon gar keine Zeit. Ohne Zuwendung von NV gab es bisher noch keine einzige RT Software.

Bitte ein Beispiel nennen, mir ist tatsächlich keins bekannt.
Na dann mach mal deine Hausaufgabe besser, SOTR, Godfall, Dirt 5 fallen mir schon mal spontan ein.
 

gaussmath

Lötkolbengott/-göttin
Also das ist doch wohl mehr als einfach! Brauchst doch nur ein paar Würfel und verdammt viel Langeweile. :ugly:
So was in der Art habe ich tatsächlich mal auf Twitter erlebt. Ein nicht näher genannter aber durchaus bekannter Nutzer bezogen auf Benchmarks von Hardware Unboxed: "Eure Benchmarks sind so großartig, ich habes das mit meiner Hardware auch mal probiert. Großartig!"

Meine Reaktion: "Joar, wie hast du denn die Szenen nachgestellt? Man weiß doch nix, es gibt keinen Methodikartikel (auf Techspot), kein Video dazu, nix..."

Der Nutzer darauf: "Bin einfach so im Spiel rumgelaufen und hab aufs Overlay geschaut..."

:klatsch:
 

perupp

Software-Overclocker(in)
Worauf ich die ganze Zeit hinaus will: warum sollte man in Benchmarks bei AMD Karten immer mit SAM testen, bei NV Karten aber DLSS weglassen obwohl es verfügbar ist? Das Argument kann doch nicht sein "AMD hat SAM halt vor NV freigeschaltet, Pech für NV, Benchmarks immer mit SAM", aber umgekehrt sagen "NV DLSS ist proprietär, das ist nicht fair in Benchmarks".

Ich bin absolut dafür immer mit SAM/Resizeable BAR zu testen wenn es zum Standard geworden ist, aber das ist es nunmal nicht. Die meisten Leute haben aktuell PC's die dieses Feature nicht unterstützen, also macht es Sinn mit und ohne zu testen. Genauso wie es Sinn macht mit und ohne DLSS zu testen.

Ein weiteres Beispiel: demnächst kommt ja der Raytracing Test in der PCGH. Da könnte man auch sagen "NV immer mit DLSS testen" weil (soweit mir bekannt) alle RT Games auch DLSS supporten. Da sieht AMD kein Land mehr in den Benchmarks, das wäre dann bestimmt "unfair"?
Weil sam eine reine Hardware Lösung ist..
Aktivieren das war es
Dlss muss extra in spiel implementiert werden.. darum
 

Cleriker

PCGH-Community-Veteran(in)
Ich verstehe die ganze Aufregung hier nicht. Klar stört mich die Tatsache dass ich momentan wieder AMD im Rechner habe und witcher 3 noch immer nicht durch habe, aber diese Engine Team Green bevorzugt. Jedoch läuft das Spiel in nativem 4K samt PCGH_config auf meiner alten Radeon VII gut und da juckt mich der Moment in dem ich hier in die Benchmark schaue absolut nicht mehr.
Selbst wenn es anders wäre, was bringt es. Ob die eigene Karte nun einen Platz weiter vor oder zurück rückt, ist doch wumpe. Dadurch ändert sich die Leistung im Rechner nicht im geringsten. Wer öfter mal High End Hardware hatte, der hat folglich auch schon öfter gesehen dass diese Hardware, welche ganz oben in den Listen stand, Stück für Stück nach unten wandert bis sie verschwindet. Das sind doch nur Momentaufnahmen. Heute hier, morgen dort.

Bei DLSS sehe ich das allerdings anders. Das ist in manchen Spielen zwar ein Gewinn, in absolut allen aber eine grafische Veränderung und damit kaum vergleichbar. Außerdem senkt es, wie du ja selbst bemerkt hast, den Rechenaufwand. Demnach wäre der Sinn eines Benchmarks ja komplett untergraben. RT an, aber ohne DLSS hingegen wäre richtig.
 
Zuletzt bearbeitet:

raPid-81

PC-Selbstbauer(in)
Na dann mach mal deine Hausaufgabe besser, SOTR, Godfall, Dirt 5 fallen mir schon mal spontan ein.
Tatsächlich, wobei SOTR nicht dazu gehört: Link
Nun endlich ist er erschienen – der DXR- und DLSS-Patch für Shadow of the Tomb Raider.

Nach 15 Minuten Suchen von RT-Benchmarks für Godfall und Dirt 5 habe ich aufgegeben. Soweit ich mich erinnern kann laufen die beiden Spiele aber mit RT auf den AMD Karten eher nicht so gut.
 

deady1000

Volt-Modder(in)
Bei DLSS sehe ich das allerdings anders. Das ist in manchen Spielen zwar ein Gewinn, in absolut allen aber eine grafische Veränderung und damit kaum vergleichbar.
Das sagen ja viele (in der Regel Leute, die keine kompatible Karte haben) bis sie es dann mal selbst getestet haben und es auf einmal lieben. Ihr guckt euch immer irgendwelche Vergleichsbilder mit 300% Zoom an und glaubt es sieht "anders" aus. Macht einfach mal den Praxistest. Würde wetten bei einer "Blindverkostung" zwischen WQHD-nativ vs WQHD-DLSS-Quality beziehungsweise 4K-nativ vs 4K-DLSS-Quality würden die wenigsten spontan rausfinden was denn jetzt DLSS war und was nicht. Das einzige was sofort auffallen würde, wäre die stark erhöhte Framerate.
 

Cleriker

PCGH-Community-Veteran(in)
Das sagen ja viele (in der Regel Leute, die keine kompatible Karte haben) bis sie es dann mal selbst getestet haben und es auf einmal lieben. Ihr guckt euch immer irgendwelche Vergleichsbilder mit 300% Zoom an und glaubt es sieht "anders" aus. Macht einfach mal den Praxistest. Würde wetten bei einer "Blindverkostung" zwischen WQHD-nativ vs WQHD-DLSS-Quality beziehungsweise 4K-nativ vs 4K-DLSS-Quality würden die wenigsten spontan rausfinden was denn jetzt DLSS war und was nicht. Das einzige was sofort auffallen würde, wäre die stark erhöhte Framerate.
Ist mir durchaus bewusst. Nur habe ich es in cyberpunk auf einer 3070 in WQHD und 3080 in 4K (Kumpel) gesehen und mir erzählt ganz sicher keiner, dass das wie nativ ausschaut. Ebenso konnte ich Spiele wie Control, death stranded und WD:legion auf meinem eigenen System mit 2070 Super FE, 2080 Gaming X Trio und 2080 Super FE getestet und obwohl ich RTX als Aufwertung für Control empfinde, hab ich es lieber deaktiviert. Nenn mich pingelig, aber bemerkt man einmal ein grieseln in den Ecken, oder Kanten die nachträglich schärfen, Farbverläufe hinter Glas, die in geringerer Qualität verlaufen, oder Gitter die nachlaufen, dann bin ich direkt angefressen und aus dem Spiel gerissen. Also ich mag eine Minderheit sein, aber für mich ist DLSS nicht gut genug um nativ zu ersetzen.
Ich kenne aber durchaus auch in meinem näheren Umfeld User die einfach alles schlecht reden. Ein wenig kann ich dich also verstehen.
 
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
Ja bei Cyberpunk stimmt irgendwas mit den Schärfefiltern nicht - ist halt ein sehr verbuggtes Spiel. Hatten wir hier schonmal besprochen. Man sollte über Geforce Experience eine einfache Schärfung aktivieren, dann sieht es deutlich besser aus. Gerade Cyberpunk ist aber auch son Game, was ohne DLSS und mit RT unspielbar wäre. Ampere-Nutzer spielen es ja, wie hier im Thread bereits bestätigt, mit WQHD/Ultra/RT-Psycho(!) und DLSS-Quality mit gut 60FPS im Schnitt. Ohne DLSS wäre das undenkbar und das Raytracing sieht in Cyberpunk einfach genial aus - würde darauf absolut nicht verzichten wollen.
 
Oben Unten