Fps-Duell in 20 Spielen und 4 Auflösungen: RTX 3080 vs. RX 6800 XT und RTX 3070 vs. RX 6800

nein den raytracing games habe ich schon viele gezockt aber hatte noch kein game wo ich von 16 mehr gehabt hätte. lass auch immer gpu z mitlaufen. also in 2 jahren kauft sich keiner mehr eine 6800xt wegen speicher da logischerweise raytracing immer größer wir und dann selbst eine neue karte kaufe egal ob amd oder nvidia
Nein? Wie "Nein"? Ich erzähle hier von meinen Settings. Meinen. Und in dem Kontext stimmt alles, das kann ich dir versichern denn immerhin geht es um meine Settings. Und ich würde in 2 Jahren aus genannten Gründen auf jeden Fall eher eine 6800 als eine 3080 kaufen. Weil alles andere für mich keinen Sinn ergibt. Wozu soll ich eine Grafikkarte kaufen, die schon jetzt nicht schafft was ich will? Und auch bei mehr Spielen mit RT werde ich es nicht seltener abschalten, also ist das irrelevant, für mich. SSAO ist auch in jedem Spiel und in 90 Prozent meiner Spiele abgeschaltet. FPS/Grafischer Gewinn Verhältnis ist mir dafür viel zu schlecht.

Du machst den Fehler, von Dir auf Andere zu schließen. Deine Ausführungen sind ja nicht falsch, für dich gibt es wohl keinen Grund die 6800 zu holen, dir ist RT zu wichtig. Deswegen gilt das nur nicht für alle und "keiner" hat noch Grund eine 6800 zu kaufen.

Ausserdem hast du, mit Verlaub, keine Ahnung ob du von 16 GB Vram he profitiert hättest. PCGH hat hundertmal erklärt wie aktuelle Streaming Engines verhindern, dass der Vram überläuft: Durch das Laden niedrig(-er) aufgelöster Texturen.
Das verrät dir GPU-Z nicht.
 
Liest sich doch gut.

SAM vergleichen find ich erst aussagekräftig wenn grün und rot beiderseits SAM aktiv haben, dann kann man ein resume ziehen, ansonsten ist es ein Äpfel Birnen Vergleich.

Die 3080 ist im Durchschnitt knappe 8-10% schneller als eine 6800XT, was für AMD ja sehr gut ist, meiner Ansicht nach?

Prinzipiell macht man mit keiner was falsch, allerdings hat NV das rundere Paket.
 
@Schinken
Das stimmt schon so alles was du schreibst, mach dir kein Kopf. Ich habe da ähnliches. 8 oder 10GB langen bei weitem nicht. Jeder Zockt halt anders, Ich würde mir ende 2020 "auch" nie im leben eine 8 oder 10GB VRam Karte kaufen, für mich wäre das raus geschmissen Geld.
 
Zuletzt bearbeitet:
Wieso sind grüne Balken rechts vom Nullpunkt mit plus Prozent und rote Balken links vom Nullpunkt mit minus Prozent?
Wäre es nicht besser gewesen, den Vorteil einer GPU immer mit plus-Prozenten nach rechts vom Nullpunkt in der Farbe darzustellen, die man mit dem Hersteller assoziiert? Also roter Balken nach rechts, wenn die AMD Karte vorn liegt und grüner Balken nach rechts, wenn Nvidia vorn liegt. Das würde ich viel übersichtlicher finden!
 
Zuletzt bearbeitet:
Wieso sind grüne Balken rechts vom Nullpunkt mit plus Prozent und rote Balken links vom Nullpunkt mit minus Prozent?
Wäre es nicht besser gewesen, den Vorteil einer GPU immer mit plus-Prozenten nach rechts vom Nullpunkt in der Farbe darzustellen, die man mit dem Hersteller assoziiert? Also roter Balken nach rechts, wenn die AMD Karte vorn liegt und grüner Balken nach rechts, wenn Nvidia vorn liegt. Das würde ich viel übersichtlicher finden!

Hier würde ich mich anschließen. Grundsätzlich finde ich die Angaben in Ordnung. Ich würde die Vorzeichen allerdings komplett weglassen. Auch dann versteht man den Sinn hinter der Grafik. So liest es sich einfach "negativ" für AMD.
Ich hab allerdings auch nichts gegen einen roten und einen grünen Balken, die beide nach rechts gehen und man dann guckt, wer den längeren hat :P
 
Also ich kapier das jetzt auch nicht mit der Grafik. Heißt das jetzt die 6800 ist in rot dargestellt und in den oberen Games mit den Minus um sonsoviel % schlechter und unten die 3080 ist in dem unteren Bereich in grün um sonsoviel % schneller als die AMD Karte?
Das würde ja bedeuten AMD schlecht Nvidia gut ???
 
AHA!

Mir fehlt leider gerade die Zeit alle Kommentare zu durchforsten, mache ich später, aber ich möchte nur anmerken dass:

Es wirkt, als liefe Navi 21 mit einem deutlich langsameren Prozessor, irgendetwas hält den Chip zurück, sodass auch der Takt irgendwo im Low-Power-Bereich herumdümpelt.

GANZ genau meine Erfahrungen mit der Karte wiederspiegelt. Ich war super glücklich eine 6800XT von XFX ergattern zu können, aber seit dem Einbau ist die Erfahrung einfach nur ernüchternd und ich habe weniger FPS als mit meiner 1070Ti!

In Destiny 2 bei 3440x1440 habe ich 40 FPS. Die Karte chillt laut Treiber bei 575 MHz und ca 65 Watt Verbrauch. Tarkov ganz exakt das selbe! BF1 auf dem Papier 140FPS, aber die Frametimes passen überhaupt nicht und das Spiel stottert, unspielbar. Im Treiber habe ich einfach alles durch. Auto, leise, laut und vor allem den Auto overclock der das Target auf 2504 Mhz stellt, aber das interessiert sie (fast) nicht.

RDR2 und Wolfenstein 2 sind die einzigen bisher getesteten Titel die sofort die volle Performance abrufen, meine Karte geht locker ohne zu Murren über 2500 Mhz, fast 300 Watt verbrauch, super geile FPS. Aber in allen anderen Spielen chillt sie einfach. Selbst bei einstellen manueller Werte (!) (zB mindestens 2300 Mhz) interessiert sie sich gar nicht dafür und bleibt gerne bei meist 1700 Mhz .. mit gelegentlichen Drops auf 200 für ne Sekunde der das Gameplay extrem zerreist.

Ich habe den Rechner schon 2x komplett neu aufgesetzt, neueste Treiber, alle sondersoftware aus oder direkt weggelassen. Netzteil war vorher ein 550W be Quiet straight power, habe es gestern durch ein neues 750W Straight Power Platinum ersetzt, keine Veränderung. Ansonsten sind ein 2700X und 2x8GB CL16 GSkill Trident Z im System. Ich bin absolut ratlos und bisher einfach nur enttäuscht auf ganzer Linie.
 
AHA!

Mir fehlt leider gerade die Zeit alle Kommentare zu durchforsten, mache ich später, aber ich möchte nur anmerken dass:



GANZ genau meine Erfahrungen mit der Karte wiederspiegelt. Ich war super glücklich eine 6800XT von XFX ergattern zu können, aber seit dem Einbau ist die Erfahrung einfach nur ernüchternd und ich habe weniger FPS als mit meiner 1070Ti!

In Destiny 2 bei 3440x1440 habe ich 40 FPS. Die Karte chillt laut Treiber bei 575 MHz und ca 65 Watt Verbrauch. Tarkov ganz exakt das selbe! BF1 auf dem Papier 140FPS, aber die Frametimes passen überhaupt nicht und das Spiel stottert, unspielbar. Im Treiber habe ich einfach alles durch. Auto, leise, laut und vor allem den Auto overclock der das Target auf 2504 Mhz stellt, aber das interessiert sie (fast) nicht.

RDR2 und Wolfenstein 2 sind die einzigen bisher getesteten Titel die sofort die volle Performance abrufen, meine Karte geht locker ohne zu Murren über 2500 Mhz, fast 300 Watt verbrauch, super geile FPS. Aber in allen anderen Spielen chillt sie einfach. Selbst bei einstellen manueller Werte (!) (zB mindestens 2300 Mhz) interessiert sie sich gar nicht dafür und bleibt gerne bei meist 1700 Mhz .. mit gelegentlichen Drops auf 200 für ne Sekunde der das Gameplay extrem zerreist.

Ich habe den Rechner schon 2x komplett neu aufgesetzt, neueste Treiber, alle sondersoftware aus oder direkt weggelassen. Netzteil war vorher ein 550W be Quiet straight power, habe es gestern durch ein neues 750W Straight Power Platinum ersetzt, keine Veränderung. Ansonsten sind ein 2700X und 2x8GB CL16 GSkill Trident Z im System. Ich bin absolut ratlos und bisher einfach nur enttäuscht auf ganzer Linie.
Das hört sich übel an. Ich hoffe sehr, dass du nur Pech hast (Tut mir leid, klingt jetzt böser als es gemeint ist :D)
 
Nein? Wie "Nein"? Ich erzähle hier von meinen Settings. Meinen. Und in dem Kontext stimmt alles, das kann ich dir versichern denn immerhin geht es um meine Settings. Und ich würde in 2 Jahren aus genannten Gründen auf jeden Fall eher eine 6800 als eine 3080 kaufen. Weil alles andere für mich keinen Sinn ergibt. Wozu soll ich eine Grafikkarte kaufen, die schon jetzt nicht schafft was ich will? Und auch bei mehr Spielen mit RT werde ich es nicht seltener abschalten, also ist das irrelevant, für mich. SSAO ist auch in jedem Spiel und in 90 Prozent meiner Spiele abgeschaltet. FPS/Grafischer Gewinn Verhältnis ist mir dafür viel zu schlecht.

Du machst den Fehler, von Dir auf Andere zu schließen. Deine Ausführungen sind ja nicht falsch, für dich gibt es wohl keinen Grund die 6800 zu holen, dir ist RT zu wichtig. Deswegen gilt das nur nicht für alle und "keiner" hat noch Grund eine 6800 zu kaufen.

Ausserdem hast du, mit Verlaub, keine Ahnung ob du von 16 GB Vram he profitiert hättest. PCGH hat hundertmal erklärt wie aktuelle Streaming Engines verhindern, dass der Vram überläuft: Durch das Laden niedrig(-er) aufgelöster Texturen.
Das verrät dir GPU-Z nicht.

Nein!
 
Ich verstehe die Grafiken ja. Ist aber trotzdem unglücklich dargestellt... Rot links mit Minussen vermittelt grundsätzlich was negatives. Und wenn da noch positive Zahlen dabei sind, die scheinbar im grünem Bereich liegen... irgendwie voll daneben diese Darstellung.
(btw bin Nvida Fanboy)

RTX-3070-vs-RX-6800-UHD-pcgh.png
 
Kurzes und trockenes Feedback:
+ die Balken und Zahlen sind gut lesbar
+ die Übersicht insgesamt ist super
+ die Idee wurde klar dargestellt
- links ist ein Minus aber rechts kein Plus ... ich würde das Minus auf der linken Seite einfach ;-) weglassen
- direkt über oder unter den Bildern/Tabellen hätte ich mir eine kurze!! Kurzfassung!! des Systems gewünscht
 
Sorry aber die Spielauswahl ist einfach nur bescheiden.
Bezüglich Wolcen seid ihr noch nie auf die Idee gekommen mal beim Entwickler oder bei AMD direkt nachzufragen was da das Problem sein könnte?

Bei Computerbase dasselbe in Blau:
wolcen.png


Die veraltete Spielauswahl ist eben der Vergleichbarkeit mit den älteren Karten geschuldet, da kann man anscheinend nichts machen.

Das man für einen solchen Test nicht die beste Plattform bzw. CPU verwendet ebenfalls.

Aussagekräftiger wären weniger, dafür aktuellere Werte gewesen die auch auf der momentan besten Plattform: X570 + 5900x / 5950X (OC Speicher / CPU) erzeugt worden wären, mit hauptsächlich aktuellen Spielen.
Von mir aus darf auch noch das einte oder andere ältere dabei sein, wenn es denn sein muss.
2080Ti OC muss nicht dabei sein, das weiß jeder wie viele % man auf die 2080ti dazurechnen kann.
2070s und 2080s dito.

Sorry der Test vermittelt doch ein total falsches Bild, als könnte es eine 3070 mit einer 6800 aufnehmen, das ist einfach nur lächerlich.
 
Sorry aber die Spielauswahl ist einfach nur bescheiden.
Bezüglich Wolcen seid ihr noch nie auf die Idee gekommen mal beim Entwickler oder bei AMD direkt nachzufragen was da das Problem sein könnte?
Du hast unseren Text nicht gelesen. Dabei ist der diesmal echt ein kleiner, gut verdaulicher Happen für zwischendurch.

Da fällt mir auf: Jetzt geht das wieder los. Kaum sind die beiden Großen wieder auf Augenhöhe, kriegen wir als Tester Gegenwind für Software-Fehler - obwohl wir aufdecken, nicht verursachen. Total banane. Bitte mal darüber nachdenken. :-)

MfG
Raff
 
Du hast unseren Text nicht gelesen. Dabei ist der diesmal echt ein kleiner, gut verdaulicher Happen für zwischendurch.

Da fällt mir auf: Jetzt geht das wieder los. Kaum sind die beiden Großen wieder auf Augenhöhe, kriegen wir als Tester Gegenwind für Software-Fehler - obwohl wir aufdecken, nicht verursachen. Total banane. Bitte mal darüber nachdenken. :-)

MfG
Raff
Er Rafft es halt nicht !;):banane:
 
Die Art der Darstellung ist grundsätzlich gut, da sie schnell Stärken und Schwächen zeigen kann. Ich finde man sollte mit den Farben aufpassen, wenn man Minus und Plus mit einbringt. Die Darstellungsform hat aber Potenzial. :daumen:

+ Darstellungsform ist eye-catching
+ Stärken & Schwächend der Karten werden schnell deutlich
+ viele Informationen können Übersichtlich in eine Grafik

- Legende fehlt
- 0% Punkt ist unklar (was ist der Ausgangspunkt für + und -)
- Systemkonfiguration ist unklar
- Testeinstellungen der Titel sind unklar
- wurden DLSS, SAM, Rage Mode etc verwendet (Begründung)

persönliche Meinung: der Test hat bei mir einen nicht verlässlichen Eindruck hinterlassen. Das liegt nicht daran, dass ich eure Daten anzweifle, sondern viel mehr an der holprigen Aufbereitung. Es fehlt der Kontext.
 
Zurück