Grafikkarten-Benchmarks 2021: 20 Benchmarks, 18 Grafikkarten, 4 Auflösungen - Ampere vs. RDNA 2 & Co.

Joah, und worauf läuft DLSS dann? Reine Software Lösung? Mitnichten, die Tensor Cores sind u.a. speziell für DLSS auf den Grafikchips. Also ist es, wie ich sagte, eine Kombination aus Hardware und Software.

Wenn es eine reine Software Lösung wäre, dann hätten die Konkurrenten längst nachgezogen. Siehe Wiki-Artikel zu Tensor Cores. Ohne diese lässt sich der DLSS Algorithmus nicht in der Geschwindigkeit ausführen.

Doch, mit DLSS steigt die FPS für den User. Sie steigt nur nicht wenn man die gerenderten Auflösungen direkt vergleicht, trotzdem habe ich am Ende ein Bild was qualitativ z.B. 4K entspricht, in WQHD gerendert wurde, nur mit einer deutlich erhöhten FPS Zahl.

DLSS verbessert das Ausgangsbild anhand des trainierten Algorithmus sodass aus 720p/1080p etc eine höhere Ausgabequalität (vergleichbar mit 1-2 Stufen höherer Auflösung) erreicht wird.

Dein Rennwagen Vergleich hinkt. Am Ende müssten nämlich beide Rennwagen dieselbe Strecke zurückgelegt haben (Ausgabequalität), nur dass der grüne Wagen viel schneller am Ziel angekommen ist (mehr FPS)...
Die Tensor cores sind mitnichten nur für dlss entwickelt worden..
Die kommen aus dem Server Umfeld..
Ja sein Vergleich ist richtig gut.. Für dich müsste jedes Spiel eine Hardware Sache sein und keine Software, denn mann braucht ja für den Code z.b
avx..
Nein dlss ist eine reine Software Sache.. so st müssten es ja Spiele nicht explizit implementieren..
Dagegen ist SAM eine Hardware Sache, da muss am Spiel nichts geändert werden
 
Die Tensor cores sind mitnichten nur für dlss entwickelt worden..
Die kommen aus dem Server Umfeld..
Ja sein Vergleich ist richtig gut.. Für dich müsste jedes Spiel eine Hardware Sache sein und keine Software, denn mann braucht ja für den Code z.b
avx..
Nein dlss ist eine reine Software Sache.. so st müssten es ja Spiele nicht explizit implementieren..
Dagegen ist SAM eine Hardware Sache, da muss am Spiel nichts geändert werden
Und wieder verdrehst du meine Worte... Ich sagte "die Tensor Cores sind u.a. speziell für DLSS auf den Grafikchips." Nirgends ein Wort davon dass sie "nur für DLSS entwickelt wurden". Zwecks Weiterbildung, lies doch mal hier: https://www.datacenter-insider.de/was-sind-tensor-cores-a-949046/

Für mathematisch weniger beschlagene Menschen reicht es, sich vorzustellen, dass Tensor Cores sehr komplexe Multiplikationen und Additionen von Zahlenfeldern extrem schnell durchführen und wenn gewünscht etwas vereinfachen können, so dass es noch schneller geht.

Tensor Core SIND speziell für Machine Learning entwickelt worden, und DLSS NUTZT einen Machine Learning Algorithmus. Ob sie im Server Umfeld oder sonstwo zuerst eingesetzt wurden ist irrelevant.

Was für Unfug bezüglich "jedes Spiel ist Hardware", wo sage ich denn sowas? Ich sage nur dass DLSS UND SAM nur funktionieren wenn Hardware UND Software zusammen arbeiten. Kannst Du das Gegenteil beweisen? Ich habe genügend dargelegt warum beides Hardware benötigt (DLSS - Tensor Cores, SAM - kompatibles MB) und natürlich auch Software (DLSS - trainierter Algorithmus + Spiele Integration, SAM - Treiber + BIOS).

DLSS ist und bleibt KEINE reine Software Sache. Deine Definition von Hardware und Software ist wirklich kurios. SAM benötigt zwar keine explizite Integration in Spielen, aber ohne Tensor Cores kannst Du kein Spiel dazu bringen DLSS zu nutzen. Somit benötigen BEIDE Features jeweils passende Hardware UND Software.
 
Und wieder verdrehst du meine Worte... Ich sagte "die Tensor Cores sind u.a. speziell für DLSS auf den Grafikchips." Nirgends ein Wort davon dass sie "nur für DLSS entwickelt wurden". Zwecks Weiterbildung, lies doch mal hier: https://www.datacenter-insider.de/was-sind-tensor-cores-a-949046/



Tensor Core SIND speziell für Machine Learning entwickelt worden, und DLSS NUTZT einen Machine Learning Algorithmus. Ob sie im Server Umfeld oder sonstwo zuerst eingesetzt wurden ist irrelevant.

Was für Unfug bezüglich "jedes Spiel ist Hardware", wo sage ich denn sowas? Ich sage nur dass DLSS UND SAM nur funktionieren wenn Hardware UND Software zusammen arbeiten. Kannst Du das Gegenteil beweisen? Ich habe genügend dargelegt warum beides Hardware benötigt (DLSS - Tensor Cores, SAM - kompatibles MB) und natürlich auch Software (DLSS - trainierter Algorithmus + Spiele Integration, SAM - Treiber + BIOS).

DLSS ist und bleibt KEINE reine Software Sache. Deine Definition von Hardware und Software ist wirklich kurios. SAM benötigt zwar keine explizite Integration in Spielen, aber ohne Tensor Cores kannst Du kein Spiel dazu bringen DLSS zu nutzen. Somit benötigen BEIDE Features jeweils passende Hardware UND Software.
Wenn das keine reine Software Lösung ist, nur weil es zum schnelleren berechnen die Tensor Cores benutzt ist keine Software eine Software Lösung....
Die benutzen z.b avx oder sse Einheiten..
Man könnte Dlss genauso direkt auf der CPU oder Grafikkarte berechnen, das dauert nur..
Aber ich gebe auf
 
Was den Sinn dann völlig verfehlt......
Wenn es eine Hardwarelösung wäre würde es nur mit dieser Hardware funktionieren genauso wie eine Software die AVX voraussetzt oder Windows ab Vista nur mit SSE3 läuft, also ist Vista und danach eine Hardware Lösung..
Es wo anders berechnen lassen verliert den Sinn weil es extrem Leistung kostet.. Wo ist jetzt noch einmal genau der Unterschied?
 
Wenn es eine Hardwarelösung wäre würde es nur mit dieser Hardware funktionieren genauso wie eine Software die AVX voraussetzt oder Windows ab Vista nur mit SSE3 läuft, also ist Vista und danach eine Hardware Lösung..
Es wo anders berechnen lassen verliert den Sinn weil es extrem Leistung kostet.. Wo ist jetzt noch einmal genau der Unterschied?
Nein, du kannst jede Hardware Lösung emulieren. Mit einer in Hardware gegossener Lösung läuft es nur viel schneller.
 
Wenn es eine Hardwarelösung wäre würde es nur mit dieser Hardware funktionieren genauso wie eine Software die AVX voraussetzt oder Windows ab Vista nur mit SSE3 läuft, also ist Vista und danach eine Hardware Lösung..
Es wo anders berechnen lassen verliert den Sinn weil es extrem Leistung kostet.. Wo ist jetzt noch einmal genau der Unterschied?
Worauf ich die ganze Zeit hinaus will: warum sollte man in Benchmarks bei AMD Karten immer mit SAM testen, bei NV Karten aber DLSS weglassen obwohl es verfügbar ist? Das Argument kann doch nicht sein "AMD hat SAM halt vor NV freigeschaltet, Pech für NV, Benchmarks immer mit SAM", aber umgekehrt sagen "NV DLSS ist proprietär, das ist nicht fair in Benchmarks".

Ich bin absolut dafür immer mit SAM/Resizeable BAR zu testen wenn es zum Standard geworden ist, aber das ist es nunmal nicht. Die meisten Leute haben aktuell PC's die dieses Feature nicht unterstützen, also macht es Sinn mit und ohne zu testen. Genauso wie es Sinn macht mit und ohne DLSS zu testen.

Ein weiteres Beispiel: demnächst kommt ja der Raytracing Test in der PCGH. Da könnte man auch sagen "NV immer mit DLSS testen" weil (soweit mir bekannt) alle RT Games auch DLSS supporten. Da sieht AMD kein Land mehr in den Benchmarks, das wäre dann bestimmt "unfair"?
 
Worauf ich die ganze Zeit hinaus will: warum sollte man in Benchmarks bei AMD Karten immer mit SAM testen, bei NV Karten aber DLSS weglassen obwohl es verfügbar ist? Das Argument kann doch nicht sein "AMD hat SAM halt vor NV freigeschaltet, Pech für NV, Benchmarks immer mit SAM", aber umgekehrt sagen "NV DLSS ist proprietär, das ist nicht fair in Benchmarks".

Ich bin absolut dafür immer mit SAM/Resizeable BAR zu testen wenn es zum Standard geworden ist, aber das ist es nunmal nicht. Die meisten Leute haben aktuell PC's die dieses Feature nicht unterstützen, also macht es Sinn mit und ohne zu testen. Genauso wie es Sinn macht mit und ohne DLSS zu testen.

Ein weiteres Beispiel: demnächst kommt ja der Raytracing Test in der PCGH. Da könnte man auch sagen "NV immer mit DLSS testen" weil (soweit mir bekannt) alle RT Games auch DLSS supporten. Da sieht AMD kein Land mehr in den Benchmarks, das wäre dann bestimmt "unfair"?
Die Frage kannst du dir doch selbst beantworten, es ist schlicht nicht vergleichbar.

Es supporten nicht alle RT Spiele DLSS, nur die von NV finanzierten.
DLSS ist und bleibt eine Veränderung mit Vor,- und Nachteilen. Es gibt auch keinen Grund es zu aktivieren wenn die Leistung ausreicht

ResBar ist eine Funktion die keinerlei Änderungen an der visuellen Qualität vornimmt, daher spricht auch nichts dagegen es mit rein zu nehmen. Zudem funktioniert es überall in jeder Software ohne implementierung(ja ich weiß es bringt nicht überall ein Performance +)

DLSS in einen Leistungsvergleich mit rein zu nehmen ist schlicht Humbug.
 
@raPid-81 hat komplett recht mMn. Entweder man vergleicht komplett @stock ohne RT, ohne OC und ohne Zusatzfeatures oder man kloppt alle Tricks rein, die es gibt.

Wenn bald RT-Tests gemacht werden, dann hat man gefälligst auch DLSS2.0 im Quality-Modus hinzuzuschalten, denn DLSS ist eigentlich immer dabei und auch voreingestellt (zumal es auch besser aussieht - auch wenn die üblichen Verdächtigen hartnäckig anderes behaupten - anderes Thema). Sofern rBAR und SAM verfügbar sind, dann auch gerne die beiden reinpacken.

Dieses Cherrypicking ist so lächerlich wie verständlich, denn jeder weiß, unter fairen Voraussetzungen sieht BigNavi gegen Ampere im Gro kein Land. Deshalb kann jeder Ampere-User auch nur schmunzeln, wenn diese konstruierten Möchtegern-Vergleiche aufkommen, denn DLSS ist kein Feature, welches man ernsthaft abgeschaltet lässt, da es oft den Unterschied zwischen spielbar und unspielbar ausmacht.

PS: Eine Sache noch. Nvidia pusht DLSS gerade mächtig. Es ist seit kurzem vollkommen offen für die Unreal Engine 4 verfügbar (kann von Entwicklern problemlos reingepatcht werden) und ich kann mir vorstellen, dass die gerade daran arbeiten das großflächig auch für andere Engines freizugeben, um AMD noch weiter in Bedrängnis zu bringen. Sehr bald schon wird DLSS, genau wie die kompatiblen Grafikkarten, wohl breit verfügbar sein und dann wird man auch als Entwickler nicht mehr drum herum kommen.
 
Zuletzt bearbeitet:
Die Frage kannst du dir doch selbst beantworten, es ist schlicht nicht vergleichbar.

Es supporten nicht alle RT Spiele DLSS, nur die von NV finanzierten.
DLSS ist und bleibt eine Veränderung mit Vor,- und Nachteilen. Es gibt auch keinen Grund es zu aktivieren wenn die Leistung ausreicht

ResBar ist eine Funktion die keinerlei Änderungen an der visuellen Qualität vornimmt, daher spricht auch nichts dagegen es mit rein zu nehmen. Zudem funktioniert es überall in jeder Software ohne implementierung(ja ich weiß es bringt nicht überall ein Performance +)

DLSS in einen Leistungsvergleich mit rein zu nehmen ist schlicht Humbug.
Welches RT Game supported kein DLSS? Bitte ein Beispiel nennen, mir ist tatsächlich keins bekannt.

DLSS nicht aktivieren wenn die Leistung "ausreicht"? Was für ein Unsinn, mehr FPS sind immer besser bei gleichzeitig geringerer Leistungsaufnahme. Ja, DLSS spart quasi sogar Strom da die Leistungsaufnahme geringer sein kann um in 60+ FPS Regionen zu kommen. Meine 3080 läuft undervoltet und underclocked bei ~250-270 Watt Leistungsaufnahme während ich CP2077 in WQHD mit Psycho RT und max Details zocke (mit DLSS Quality) mit 60+ FPS.

SAM wird zwar von jedem Game "supported", trotzdem kann es nicht jeder mit einer RDNA2 Karte uneingeschränkt nutzen, daher macht es Sinn diesen Unterschied darzustellen (so klein er auch sein mag, wir sprechen hier immerhin von nur ~5% im Schnitt).
 
@raPid-81 hat komplett recht mMn. Entweder man vergleicht komplett @stock ohne RT, ohne OC und ohne Zusatzfeatures oder man kloppt alle Tricks rein, die es gibt.
Tolle Idee, dann bringt AMD FFXSR einfach so dass es auf maximale Performance getrimmt ist und huscht dann um 20 % in den Benchmarks nach oben. Welche DLSS Stufe soll der Tester denn deiner Meinung nach wählen? Die Spielbare für alles, die mit der besten Qualität oder max Performance....
Am besten nehmen wir dann bei Borderlands und Co auch noch Radeon Boost dazu, die Reduzierung der Pixel in Bewegung merkt ja eh keiner, Slider ab auf 20 % und los gehts :wall:
Sehr bald schon wird DLSS, genau wie die kompatiblen Grafikkarten, wohl breit verfügbar sein und dann wird man auch als Entwickler nicht mehr drum herum kommen.
Das haben wir alles schon mal gehört, die meisten Studios interessieren die Konsolen am meisten, das ist der größte Markt und die Kohle bestimmt die Spielregeln. Der minimale Anteil am Gesamtmarkt für ein Studio mit DLSS komaptibler Hardware hält sich arg in Grenzen. Das Plugin für die UE funzt nur weil die UE quasi ein Baukasten ist und auch dort wird es nicht ohne Entwicklungsaufwand zu implementieren sein. Die kleinen Indies die meist die UE nutzen in der Form, haben alles nur keine Ressourcen und schon gar keine Zeit. Ohne Zuwendung von NV gab es bisher noch keine einzige RT Software.

Bitte ein Beispiel nennen, mir ist tatsächlich keins bekannt.
Na dann mach mal deine Hausaufgabe besser, SOTR, Godfall, Dirt 5 fallen mir schon mal spontan ein.
 
Also das ist doch wohl mehr als einfach! Brauchst doch nur ein paar Würfel und verdammt viel Langeweile. :ugly:
So was in der Art habe ich tatsächlich mal auf Twitter erlebt. Ein nicht näher genannter aber durchaus bekannter Nutzer bezogen auf Benchmarks von Hardware Unboxed: "Eure Benchmarks sind so großartig, ich habes das mit meiner Hardware auch mal probiert. Großartig!"

Meine Reaktion: "Joar, wie hast du denn die Szenen nachgestellt? Man weiß doch nix, es gibt keinen Methodikartikel (auf Techspot), kein Video dazu, nix..."

Der Nutzer darauf: "Bin einfach so im Spiel rumgelaufen und hab aufs Overlay geschaut..."

:klatsch:
 
Worauf ich die ganze Zeit hinaus will: warum sollte man in Benchmarks bei AMD Karten immer mit SAM testen, bei NV Karten aber DLSS weglassen obwohl es verfügbar ist? Das Argument kann doch nicht sein "AMD hat SAM halt vor NV freigeschaltet, Pech für NV, Benchmarks immer mit SAM", aber umgekehrt sagen "NV DLSS ist proprietär, das ist nicht fair in Benchmarks".

Ich bin absolut dafür immer mit SAM/Resizeable BAR zu testen wenn es zum Standard geworden ist, aber das ist es nunmal nicht. Die meisten Leute haben aktuell PC's die dieses Feature nicht unterstützen, also macht es Sinn mit und ohne zu testen. Genauso wie es Sinn macht mit und ohne DLSS zu testen.

Ein weiteres Beispiel: demnächst kommt ja der Raytracing Test in der PCGH. Da könnte man auch sagen "NV immer mit DLSS testen" weil (soweit mir bekannt) alle RT Games auch DLSS supporten. Da sieht AMD kein Land mehr in den Benchmarks, das wäre dann bestimmt "unfair"?
Weil sam eine reine Hardware Lösung ist..
Aktivieren das war es
Dlss muss extra in spiel implementiert werden.. darum
 
Ich verstehe die ganze Aufregung hier nicht. Klar stört mich die Tatsache dass ich momentan wieder AMD im Rechner habe und witcher 3 noch immer nicht durch habe, aber diese Engine Team Green bevorzugt. Jedoch läuft das Spiel in nativem 4K samt PCGH_config auf meiner alten Radeon VII gut und da juckt mich der Moment in dem ich hier in die Benchmark schaue absolut nicht mehr.
Selbst wenn es anders wäre, was bringt es. Ob die eigene Karte nun einen Platz weiter vor oder zurück rückt, ist doch wumpe. Dadurch ändert sich die Leistung im Rechner nicht im geringsten. Wer öfter mal High End Hardware hatte, der hat folglich auch schon öfter gesehen dass diese Hardware, welche ganz oben in den Listen stand, Stück für Stück nach unten wandert bis sie verschwindet. Das sind doch nur Momentaufnahmen. Heute hier, morgen dort.

Bei DLSS sehe ich das allerdings anders. Das ist in manchen Spielen zwar ein Gewinn, in absolut allen aber eine grafische Veränderung und damit kaum vergleichbar. Außerdem senkt es, wie du ja selbst bemerkt hast, den Rechenaufwand. Demnach wäre der Sinn eines Benchmarks ja komplett untergraben. RT an, aber ohne DLSS hingegen wäre richtig.
 
Zuletzt bearbeitet:
Na dann mach mal deine Hausaufgabe besser, SOTR, Godfall, Dirt 5 fallen mir schon mal spontan ein.
Tatsächlich, wobei SOTR nicht dazu gehört: Link
Nun endlich ist er erschienen – der DXR- und DLSS-Patch für Shadow of the Tomb Raider.

Nach 15 Minuten Suchen von RT-Benchmarks für Godfall und Dirt 5 habe ich aufgegeben. Soweit ich mich erinnern kann laufen die beiden Spiele aber mit RT auf den AMD Karten eher nicht so gut.
 
Bei DLSS sehe ich das allerdings anders. Das ist in manchen Spielen zwar ein Gewinn, in absolut allen aber eine grafische Veränderung und damit kaum vergleichbar.
Das sagen ja viele (in der Regel Leute, die keine kompatible Karte haben) bis sie es dann mal selbst getestet haben und es auf einmal lieben. Ihr guckt euch immer irgendwelche Vergleichsbilder mit 300% Zoom an und glaubt es sieht "anders" aus. Macht einfach mal den Praxistest. Würde wetten bei einer "Blindverkostung" zwischen WQHD-nativ vs WQHD-DLSS-Quality beziehungsweise 4K-nativ vs 4K-DLSS-Quality würden die wenigsten spontan rausfinden was denn jetzt DLSS war und was nicht. Das einzige was sofort auffallen würde, wäre die stark erhöhte Framerate.
 
Das sagen ja viele (in der Regel Leute, die keine kompatible Karte haben) bis sie es dann mal selbst getestet haben und es auf einmal lieben. Ihr guckt euch immer irgendwelche Vergleichsbilder mit 300% Zoom an und glaubt es sieht "anders" aus. Macht einfach mal den Praxistest. Würde wetten bei einer "Blindverkostung" zwischen WQHD-nativ vs WQHD-DLSS-Quality beziehungsweise 4K-nativ vs 4K-DLSS-Quality würden die wenigsten spontan rausfinden was denn jetzt DLSS war und was nicht. Das einzige was sofort auffallen würde, wäre die stark erhöhte Framerate.
Ist mir durchaus bewusst. Nur habe ich es in cyberpunk auf einer 3070 in WQHD und 3080 in 4K (Kumpel) gesehen und mir erzählt ganz sicher keiner, dass das wie nativ ausschaut. Ebenso konnte ich Spiele wie Control, death stranded und WD:legion auf meinem eigenen System mit 2070 Super FE, 2080 Gaming X Trio und 2080 Super FE getestet und obwohl ich RTX als Aufwertung für Control empfinde, hab ich es lieber deaktiviert. Nenn mich pingelig, aber bemerkt man einmal ein grieseln in den Ecken, oder Kanten die nachträglich schärfen, Farbverläufe hinter Glas, die in geringerer Qualität verlaufen, oder Gitter die nachlaufen, dann bin ich direkt angefressen und aus dem Spiel gerissen. Also ich mag eine Minderheit sein, aber für mich ist DLSS nicht gut genug um nativ zu ersetzen.
Ich kenne aber durchaus auch in meinem näheren Umfeld User die einfach alles schlecht reden. Ein wenig kann ich dich also verstehen.
 
Zuletzt bearbeitet:
Ja bei Cyberpunk stimmt irgendwas mit den Schärfefiltern nicht - ist halt ein sehr verbuggtes Spiel. Hatten wir hier schonmal besprochen. Man sollte über Geforce Experience eine einfache Schärfung aktivieren, dann sieht es deutlich besser aus. Gerade Cyberpunk ist aber auch son Game, was ohne DLSS und mit RT unspielbar wäre. Ampere-Nutzer spielen es ja, wie hier im Thread bereits bestätigt, mit WQHD/Ultra/RT-Psycho(!) und DLSS-Quality mit gut 60FPS im Schnitt. Ohne DLSS wäre das undenkbar und das Raytracing sieht in Cyberpunk einfach genial aus - würde darauf absolut nicht verzichten wollen.
 
Zurück