Grafikkarten-Benchmarks 2021: 20 Benchmarks, 18 Grafikkarten, 4 Auflösungen - Ampere vs. RDNA 2 & Co.

Ich möchte explizit darauf hinweisen dass ich weder NV verteidige noch AMD schlecht mache! Mich nervt nur das AMD-Fanboy Gerede hier. SAM ist aktuell KEIN Standard und wird NICHT von jedem System unterstützt, deswegen hat es einen Extra-Test (wird ja auch im Artikel so erklärt).

Wenn SAM für AMD Standard sein soll, dann müsste man auch in jedem DLSS Titel auf NV Karten dieses Feature aktivieren und damit benchmarken. Um Vergleichbarkeit zu erhalten ist das aber Schwachsinn (genauso wie SAM aktuell immer zu aktivieren).
 
Ich bin da bei Gaussmath...

"SAM" ist nur der AMD Marketingname für rBAR. Ein seit Jahren(!) bestehender offener Standard, den alle nutzen können, wenn sie denn wollen.

AMD hat jetzt halt angefangen diesen zu nutzen.
Nvidia (noch) nicht.

Ergo: "Pech" für Nvidia. Aber es soll ja eh bald kommen, von daher ist die Diskussion eh bald hinfällig.
 
Im März kommt Resizable BAR für Ampere.
Dann erwarten wir einen neuen Vergleich zwischen RX6900XT/6800XT und RTX3090/3080.
Eigentlich reicht es aus die RTX3090 und RTX3080 nochmal durch den Parcours zu jagen.
Bin gespannt.

 
Falsch, DLSS ist keine reine Softwarelösung:
https://www.nvidia.com/de-de/geforce/technologies/dlss/
https://en.wikipedia.org/wiki/Tensor_Processing_Unit

Wäre es so einfach, dann hätte AMD längst nachgezogen.

Mit anschalten von DLSS sinkt die FPS? Die FPS steigen um bis zu 150% je nach Zielauflösung und DLSS Modus! Man sieht, Du hast keine Ahnung was DLSS ist und macht...



Falsch, siehe Links oben. Welche Nachteile hat DLSS? Die massiv erhöhten FPS oder das bessere Bild im Vergleich zur nativen Auflösung? DLSS war in Version 1.0 mies, seit 2.0 spricht man von einer der größten Grafik-Entwicklungen der letzten 10 Jahre...
Wie du selber sagst ist manchmal die Grafikqualität schlechter auch beim 2.0

Und trotzdem muss es ein Spiel explizit unterstützen.. Was die wenigsten machen..
Bei BAR.. anschalten und das war es
 
@perupp

DLSS für Unreal Engine ist die Zukunft von VR-Grafik
DLSS in der Unreal Engine ist auch für VR ein voller Erfolg. So ein glattes, scharfes Bild hat man bis dato in VR noch nicht gesehen.
Dass dabei sogar noch die Framerate verbessert wird, ist für mich wie Magie: bessere Grafik für weniger Leistung. DLSS für PC-VR ist eine Schlüsseltechnologie, die ich in Zukunft wohl in allen VR-Anwendungen am PC einsetzen werden.
Einen Haken gibt es allerdings: DLSS benötigt eine leistungsstarke Nvidia RTX Grafikkarte.

 
Guter Test - leider komplett ohne DLSS, aber egal. Bald kommt das SAM-Pendant "Resizable BAR" für Ampere und dann überholt die RTX3080 auch die RX6900XT wieder. Beim Preis der RX6900XT sehe ich die RTX3080 aber schon jetzt als Gewinner, denn es haben wohl die wenigsten mehr als 1000-1200€ für die Karte gezahlt. Wie gesagt, mit Resizable BAR dann sowieso. Es verwundert nicht, dass die RTX-Karten ausverkauft sind und man die BigNavi-Karten noch kaufen kann.

Anhang anzeigen 1355556
Gut das du schon weisst was die Zukunft bringt.... Gewinnst du auch im Lotto?
Bitte deine Quelle das Sam bzw. Das bedant auch bei Nvidia genauso viel bringt und was zukünftige Spiele daraus machen
@perupp

Jetzt bist bei 2.1... Was ist mit allem davor?
 
Jetzt bist bei 2.1... Was ist mit allem davor?
2.1 ist quasi 2.0 mit VR-Support soweit ich weiß.

Bitte deine Quelle das Sam bzw. Das bedant auch bei Nvidia genauso viel bringt und was zukünftige Spiele daraus machen
Ähm... es wird so sein. Warte es halt ab. Es geht ja auch letztendlich nur um 3% im Gesamtindex, die die RX6900XT+SAM vor der RTX3080 liegt. Diese 3% werden schon drinsitzen. 3080/3090 nutzen übrigens GDDR6X und nicht nur GDDR6. Sollte also was bringen.
 
2.1 ist quasi 2.0 mit VR-Support soweit ich weiß.


Ähm... es wird so sein. Warte es halt ab. Es geht ja auch letztendlich nur um 3% im Gesamtindex, die die RX6900XT+SAM vor der RTX3080 liegt. Diese 3% werden schon drinsitzen. 3080/3090 nutzen übrigens GDDR6X und nicht nur GDDR6. Sollte also was bringen.
Ich kann warten...aber ich würde mich nicht aus dem Fenster Lehnen zu behaupten..
Gddr6x dafür hat AMD den Infinitiv Catche und 60% mehr Speicher
 
Wie du selber sagst ist manchmal die Grafikqualität schlechter auch beim 2.0

Und trotzdem muss es ein Spiel explizit unterstützen.. Was die wenigsten machen..
Bei BAR.. anschalten und das war es
Wenn ich nen 3 Jahre altes Board hab, der Hersteller kein Bios Update für SAM hat, und mir eine XT6800 kaufe dann kann ich es NICHT einfach anschalten und es geht...

DLSS wird sich im Zuge der standardmäßigen Unreal Engine Implementierung vermutlich sehr schnell verbreiten.
 
2.1 ist quasi 2.0 mit VR-Support soweit ich weiß.


Ähm... es wird so sein. Warte es halt ab. Es geht ja auch letztendlich nur um 3% im Gesamtindex, die die RX6900XT+SAM vor der RTX3080 liegt. Diese 3% werden schon drinsitzen. 3080/3090 nutzen übrigens GDDR6X und nicht nur GDDR6. Sollte also was bringen.
SAM erzeugt in der Regel aber auch eine höhere Speicherbelegung. Etwas was die aktuelle NV Generation nicht so mögen dürfte. Zudem bleibt abzuwarten wie die Arches darauf ansprechen, es ist bei liebe nicht gesagt das die NV Version gleich arbeitet wie die bei AMD. Es kann schlechter oder besser ausfallen oder gleich, das weiß bisher schlicht niemand. So einfach kann das alles nicht sein wenn es erst jetzt genutzt wird. Die Lösung von AMD mit dem Cache könnte in dem Zusammenhang deutlich Vorteile bringen.
 
Wenn ich nen 3 Jahre altes Board hab, der Hersteller kein Bios Update für SAM hat, und mir eine XT6800 kaufe dann kann ich es NICHT einfach anschalten und es geht...

DLSS wird sich im Zuge der standardmäßigen Unreal Engine Implementierung vermutlich sehr schnell verbreiten.
Jo und wenn ich ein 3 Jahre altes Board habe wo der Hersteller kein PCIE 4.0 anbietet.. Was mach ich dann?
Also soll der Test bitte auf PCIE 3.0 oder besser auf 2.0 setzen?
Und 3 Jahre alte Boards. Zeig mir eins von einem Namhaften Hersteller der kein Sam unterstützt

Und ja so vermutlich wie jedes Spiel bis heute RT unterstützt?

Du machst hier Mutmaßungen, verteilt halbwahrheiten wie das Dlss eine Reine Hardware Sache ist die keinerlei Software Unterstützung braucht und behauptest sogar dadurch das UL Dlss unterstützt das jedes Spiel in der Zukunft was auf der UL Engine basiert Dlss unterstützt
 
Das mit der Perzentile check ich nicht ganz.

Ist der P1 Wert also keine Durschnittsangabe der FPS mit Ausklammerung der schlechtesten 1%, sondern der tiefste zu erwartende FPS Wert wenn man eben die schlechtesten 1% ausklammert?

Beispiel Anno 1800 Benchmark und einer RTX3090:
AVG FPS: 153.4
P1: 140.0

bedeutet also 99% aller FPS Werte sind gleich oder grösser als 140?
das 1 Perzentil bedeutet das 99% aller werte besser sind als dieser. Dementsprechend fallen kurze Spikes weniger ins Gewicht als bei min. das 99 Perzentil ist genau das Gegenteil nur 1% aller Wert liegt über diesem Wert.
Man kann also sagen das sind die genaueren bzw Stabileren min bzw Max werte. Der Median hingegen ist ein (genauere) Stabiliere avg wert.
 
Jo und wenn ich ein 3 Jahre altes Board habe wo der Hersteller kein PCIE 4.0 anbietet.. Was mach ich dann?
Also soll der Test bitte auf PCIE 3.0 oder besser auf 2.0 setzen?
Und 3 Jahre alte Boards. Zeig mir eins von einem Namhaften Hersteller der kein Sam unterstützt

Und ja so vermutlich wie jedes Spiel bis heute RT unterstützt?

Du machst hier Mutmaßungen, verteilt halbwahrheiten wie das Dlss eine Reine Hardware Sache ist die keinerlei Software Unterstützung braucht und behauptest sogar dadurch das UL Dlss unterstützt das jedes Spiel in der Zukunft was auf der UL Engine basiert Dlss unterstützt
Zitiere mich bitte und behaupte nicht so einen Unsinn.

Ich sagte explizit "Falsch, DLSS ist keine reine Softwarelösung", das heißt nicht dass es eine reine Hardware Lösung ist. Genauso wie SAM, da spielt auch Hardware UND BIOS UND Software zusammen...

Wie kommst Du auf RT Unterstützung? Davon habe ich nirgends gesprochen. Außerdem gibt es bei Spielen die RT unterstützen IMMER gesonderte Tests mit und ohne RT, wieso soll das bei SAM anders sein?

Ich sagte außerdem explizit "DLSS wird sich im Zuge der standardmäßigen Unreal Engine Implementierung vermutlich sehr schnell verbreiten." und nicht dass JEDES Unreal-Engine Game in Zukunft DLSS nutzt.

Verdreh mir nicht die Worte im Mund, man kann genau nachlesen was ich geschrieben habe und was nicht...
 
Zitiere mich bitte und behaupte nicht so einen Unsinn.

Ich sagte explizit "Falsch, DLSS ist keine reine Softwarelösung", das heißt nicht dass es eine reine Hardware Lösung ist. Genauso wie SAM, da spielt auch Hardware UND BIOS UND Software zusammen...

Wie kommst Du auf RT Unterstützung? Davon habe ich nirgends gesprochen. Außerdem gibt es bei Spielen die RT unterstützen IMMER gesonderte Tests mit und ohne RT, wieso soll das bei SAM anders sein?

Ich sagte außerdem explizit "DLSS wird sich im Zuge der standardmäßigen Unreal Engine Implementierung vermutlich sehr schnell verbreiten." und nicht dass JEDES Unreal-Engine Game in Zukunft DLSS nutzt.

Verdreh mir nicht die Worte im Mund, man kann genau nachlesen was ich geschrieben habe und was nicht...
Boa, das Ihr alle immer ein Problem mit eurem Kurzzeitgedächtnis habt, gut ich Zitiere dich:

DLSS ist "auch" eine Hardware Lösung -> Tensor Cores. Deswegen lässt AMD's Pendant auf sich warten und wird vermutlich auch nicht dieselbe Performance Steigerung bieten.
hier behauptest du explizit das jedes UR Engine Spiel in Zukunft DLSS unterstützt, das ist definitiv gelogen
Außerdem ist DLSS z.B. in der Unreal Engine jetzt immer verfügbar, also sollten Unreal-Engine Games auf NV Karten immer mit DLSS getestet werden
 
Bin nur kurz drübergeflogen... dass man mal ein Spiel nimmt das AMD nicht liegt (Desperados 3), ok. Aber einen alten Schinken wie Witcher 3 mit irgendwelchen Mods die "zufällig" AMD überhaupt nicht liegen (Zitat: Besonderheiten: Grafisch aufgewertet via Config; Nvidia-Faible (sic!)), SAM lediglich optional bei einer einzigen Karte, Renderscale bei Games die AMD liegen auf 150% (Battlefield V), weil man weiß, dass Nvidia die High-End-Ampere-Karten bei zu kleiner Auflösung nicht augelastet bekommt. Der Test zeigt klar wessen Geistes Kind PCGH ist.

Sowas wie Nioh 2 dagegen würde man bei euch nicht mal in einem einfachen Techniktest sehen, geschweige denn in einem Testparcour: https://gamegpu.com/rpg/ролевые/nioh-2-the-complete-edition-test-gpu-cpu

Edit:
Zur Battlefield 5 Renderscale-Sache nochmal:
Für die richtige Würze testen wir nun mit 150 statt 100 % Achsenauflösung, um auch aktuelle GPU-Boliden herauszufordern und gleichzeitig die Grafik zu verbessern.

In Doom Eternal: Ancient Gods 1 hängen mindestens die Top-Modelle (RTX 3090 und RX 6900 XT) im CPU-Limit, dort hätte sich die "Würze" 150% Upscaling angesicht der 300+ FPS @1080p und 250 FPS@1440p tatsächlich angeboten. Aber wahrscheinlich hätte das die VRAM-Kastraten (RTX 3060Ti/RTX 3070 und evtl. RTX 3080) möglicherweise abfallen lassen, sei es beim Texturstreaming oder den FPS/Frametimes. Ist ja fast wie ein Slalomlauf hier...

Ich verstehe nur nicht warum die 6800 XT nicht auch ohne getestet wird.
Du verdrehst hier gerade etwas, was es ist muss du aber selbst herausfinden. :)
 
Zuletzt bearbeitet von einem Moderator:
Ich bin der Meinung, dass ResBar als Standard gehandhabt werden sollte. Es bedarf keiner weiteren Implementierung durch Dritte, es ist ein grundsätzliches Feature, also einschalten und fertig. Dass Nvidia noch kein ResBar am Start hat, ist halt Pech für Nvidia.
Im Prinzip wäre es doch so wie es jetzt ist am besten. Also mit und einmal ohne. So sind alle glücklich. Ich verstehe nur nicht warum die 6800 XT nicht auch ohne getestet wird.

Falls ich aber wählen müsste wäre mit natürlich die bessere Wahl.
 
Zurück