Fps-Duell in 20 Spielen und 4 Auflösungen: RTX 3080 vs. RX 6800 XT und RTX 3070 vs. RX 6800

Also ich kapier das jetzt auch nicht mit der Grafik. Heißt das jetzt die 6800 ist in rot dargestellt und in den oberen Games mit den Minus um sonsoviel % schlechter und unten die 3080 ist in dem unteren Bereich in grün um sonsoviel % schneller als die AMD Karte?
Das würde ja bedeuten AMD schlecht Nvidia gut ???
Geht mir auch so und habe ich mich auch gerade gefragt...
 
Die Infos zum System fehlen, weil wir dieselbe Datenbasis wie immer haben, nur anders aufbereitet. Alle Infos zum System, den Benchmarks, der Methodik und der großen Sorgfalt dahinter findet ihr hier:
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/

Die großen Unterschiede zwischen 6800 und 6800 XT oder RTX 3080 und RTX 3090 belegen, dass unser Anliegen, möglichst grafiklastige Szenen für Grafikkarten-Tests zu kreieren, funktioniert. Das klappt nicht überall im Netz. ;)

MfG
Raff
Sehr aufwendiger Test vielen Dank. Ich finde ihr hättet es wie die Ct machen sollen. Einen aktuellen Prozessor nehmen. Den 5900 XT.
 
Obwohl ich Sinn und Darstellung der Grafik verstanden habe, finde ich sie nicht optimal, es wirkt sogar indirekt wie Framing.

Als jemand der zurzeit rational über ein Upgrade nachdenkt, dem es auf den ersten Blick egal ist ob AMD und Nvidia (benutze seit 10 Jahren Nvidia-Grafikhardware), macht mich der Test etwas stutzig, da auf CB, Igors Lab, GN und HWU die Ergebnisse etwas geordneter erscheinen. Ich denke mir das Problem sind Spiele und plattformspezifische Feature-Einstellungen, die in bestimmten Spielen speziell, dank oder eben fehlender Optimierung, zum Tragen kommen. Es stellt sich deshalb die Frage, ob man Spiele weglassen sollte, bei dem selbst Vorgängermodelle oder Modelle aus einer tieferen Preisklasse genauso gut oder sogar besser abschneiden. Das zeigt eher ein Optimierungsproblem an (meine HLSL-Tage sind schon etwas her, aber ist meist ein Bock drin, der schnell mal die Performance nach unten ziehen kann) und würde eigentlich das Spiel disqualifizieren egal welche der beiden Architekturen jetzt bevorzugt werden würden. Rein der Fairness wegen würde ich einmal sagen.

Außerdem sehe ich es seit Jahren so, dass prozentuale Unterschiede eigentlich bis zu einem Grad Blendwerk sind, solange die angepeilte Minimal-Framerate zu 99 % erreicht ist: wenn mein Spiel in WQHD 144 FPS problemlos schafft, dann sind 5 % mehr eher ein kleiner Bonus-Puffer, den man in der Praxis nur selten wahrnimmt. Soweit ich das sehen kann, ist es weniger eine Performance, denn eine Feature-Frage. Wenn man polierte Pfützen in angenehmer FPS sehen will bzw. in 4k mit RT spielen will, gewinnt ganz klar Nvidia, da sie einen Entwicklungsvorsprung haben, deren neue Shader-Pipeline-Architektur erst richtig bei 4k und höher zum Tragen kommt, und wenn man noch einen „alten“ Zen 2 wird es ähnlich laufen, aber wer das nicht braucht, ist genauso gut mit einer Radeon aufgehoben. Ich wünschte nur, Nvidia würde noch ein paar GB mehr draufpacken für die 3080.

Ist eh alles Theorie, da man wohl erst zu Ostern endlich eine der neuen Grafikkarten ohne Knappheits-Preis-"Bonus" bekommt.
 
Sehr aufwendiger Test vielen Dank. Ich finde ihr hättet es wie die Ct machen sollen. Einen aktuellen Prozessor nehmen. Den 5900 XT.

In Arbeit.

Als jemand der zurzeit rational über ein Upgrade nachdenkt, dem es auf den ersten Blick egal ist ob AMD und Nvidia (benutze seit 10 Jahren Nvidia-Grafikhardware), macht mich der Test etwas stutzig, da auf CB, Igors Lab, GN und HWU die Ergebnisse etwas geordneter erscheinen.

Grundsatzfrage, da ich das neuerdings öfter lese: Ist es wirklich besser, wenn alle Spiele und Grafikkarten "gleich" laufen, die Abstände also immer gleich sind und man schon mit einem Spiel einen Index machen könnte? Ist es realistisch, nur Schönwetterbenchmarks zu haben, wo alles geil ist? Oder ist es praxisnäher, wenn die Benchmarks diverse (zweifellos vorhandene) Gesinnungen von Spielen abbilden und sich daher ein gemischtes Bild ergibt? Achtung, rhetorische Frage. =)

MfG
Raff
 
Zuletzt bearbeitet:
Hey Raff, finde die Darstellung in Ordnung, würde aber wenn ihr die Balken so lasst wie sie oben sind jeweils an beiden Enden mit einem + versehen. Vor allem wegen der Farbwahl (rot, grün). Sonst cooler Test, vielen Dank dafür!
 
Bin hin und her gerissen welche Grafikkarte ich mir zulegen soll, wenn sie mal wieder lieferbar und nicht mehr so überteuert sein sollten. Gerade jetzt, da ich heute Abend mehrere Videos und Artikel gelesen habe, fällt PCGH schon sehr aus der Rolle beim Vergleich Nvidia vs AMD. Man stelle sich nur vor es wäre noch ein Titel wie Black Mesa in der Liste gelandet, dann läge die 3080 15 - 20% vorne. Vermutlich wollte man die Source Engine benchen? Hätte man dafür eines der am meisten gespielten Spiele wie CS:GO gewählt, hätte sogar eine 6800 eine 3080 hinter sich gelassen und es sähe insgesamt ganz anders aus.
In all den Benchmark Parcours ist mir Computerbase besonders positiv aufgefallen. Sie haben einen ähnlichen Parcours wie PCGH, haben aber schnell festgestellt, dass die AMD besonders bei aktuellen Titeln sehr gut performt. Das ist mir lieber als andere Seiten, welche nur solche Titeln nutzen, bei der dann AMD als Sieger vom Platz geht oder umgekehrt. Ich möchte möglichst alles wissen, um mir eine fundierte Meinung bilden zu können.

P.S. Ich weiß nicht warum so viele ein Problem mit dem Diagramm haben? Es ist absolut korrekt.
 
Grundsatzfrage, da ich das neuerdings öfter lese: Ist es wirklich besser, wenn alle Spiele und Grafikkarten "gleich" laufen, die Abstände also immer gleich sind und man schon mit einem Spiel einen Index machen könnte? Ist es realistisch, nur Schönwetterbenchmarks zu haben, wo alles geil ist? Oder ist es praxisnäher, wenn die Benchmarks diverse (zweifellos vorhandene) Gesinnungen von Spielen abbilden und sich daher ein gemischtes Bild ergibt? Achtung, rhetorische Frage. =)
Ich erwarte zunächst primär eine „natürliche“ Rangfolge basierend auf hardwareseitige Leistungsparameter (Architektur, Ausbau, Taktrate etc.) und sekundär basierend auf Software-Features (DXR, DLSS etc.). Wie sich diese dann in der Realität äußert, das sehe ich eben als für mich entscheidende Aussagen eines Tests. Da ich parallel die WQHD-Referenz-Benchmarks mir angeschaut habe, fiel mir auf, dass in manchen Spielen die Radeon 6800 XT nicht nur von einer RTX 3070 geschlagen wird, sondern sogar von einer RTX 2080 Ti, und dass in DX11-Titeln! Da stellt sich für mich die Frage nach dem Grund, es ist ja offensichtlich so, dass das Problem hier nicht systemisch ist, sondern aufgrund eines anderen Faktor entstanden ist.

Würde es um die reine Kaufentscheidung gehen, würde ich solche Ausnahmen ignorieren wollen, es sei denn ich spiele nur diese Ausnahmefälle und sie sind quasi EOL-Modus, also am Ende ihres Entwicklungszyklus und bekommen keine Patches mehr. Für die reine Leistungsübersicht im Detail bliebe es dennoch interessant. Für die Auswertung sollte es eine realistische Übersicht mit hohem Granulationsgrad sein, d. h. ein Schnitt aus aktuellen Titeln, bei dem beide Architekturen der aktuellen Generation vor allem auch den Vorsprung zur Vorgängergeneration veranschaulichen, auch im Worst Case, dann das Leistungsverhältnis innerhalb einer Preisklasse untereinander. Jeder Querschläger ohne konkrete Aussagekraft irritiert da nur, weil es meiner Ansicht dann zu Verzerrungen kommt. Denn das Ziel ist ja das passende Upgrade für den passenden Preis zu bekommen und nicht zu sehen wie sich drei Generationen von Karten in einem Spiel ein Mexican Standoff liefern.
 
The Witcher 3 profitiert extrem von Nvidia Hardware und ich denke das zeichnet sich auch für Cyberpunk ab, zumal schon das Raytracing Nvidia vorbehalten bleibt (zumindest vorerst) und AMD hier ohnehin stark schwächelt.

Eine 6800XT kostet praktisch das gleiche wie eine RTX 3080, ist im Schnitt 10% schwächer, bietet kein DLSS und RT Leistung der letzten Nvidia Generation - für mich doch etwas ernüchternd...zumal SAM evtl. auch für Nvidia / Intel Hardware kommen und dieser ohnehin marginale Vorteil somit auch noch relativiert wird.

Die 16GB Vram sind für WQHD Spieler kaum ein Kaufargument und vermitteln darüber hinaus auch eher ein Gefühl von Sicherheit, als wirklich nennenswert von Vorteil zu sein auf absehbare Zeit. Von Zukunftssicher kann man bei der gebotenen Leistung für den Kaufpreis kaum sprechen.
Wenn dann in Zukunft eine Seite 10% Vorsprung für die 6800xt bencht, sprichst Du dann auch von "im durchschnitt 10% schneller" ?

Das Ergebnis hier sähe ganz anders aus, wenn mordene Spiele gestestet würden.

Hier mal ein Beispiel.

da kann man dann auch sagen die 6800xt schlägt oft die 3090 und und hat nur den halben Preis.
 
Finde auch:
Bitte nur Titel checken, wo AMD vorn ist und natürlich auch mit Boni wie SAM usw. . ;)

Bei Nvidia bitte alles abschalten, was ein Plus geben könnte. DLSS is unfair. RT auch. Überhaupt Grafik! Alles abschalten. ;) Nur bei AMD zulassen.
Hauptsache AMD liegt vorn, denn dann ist es erst richtig.

Auch nur mit AMD CPUs testen.
Logisch, oder ? ;)

Intel und Nvidia gehen ja gar nicht mehr. Das ist nicht gut angesehen, sowas böses. :devil:

Bitte nie wieder testen.
Spielt doch eh kein Mensch, sowas. ;)
Also falls sich das auf meinen Beitrag über dir beziehen sollte:
So habe ich das nicht gemeint, mir ging es eher um Aktualität, als auch weil viele andere Reviews meine genannten Spiele mit unter die Lupe genommen haben.

Es gibt erst schon recht wenige Spiele, in welchen AMD ausnahmsweise mal vorne liegt, diese Ausnahmen kann man wie ich finde ruhig mal reinnehmen, ich meine sowas wie Wolcen ist ja auch dabei, was in Grün richtig vorwärts geht.
Nagelneue Graka -> nagelneues Spiel mit mit den Parcour, finde ich da schon nicht ganz abwegig ;)

Die anderen genannten Titel von mir finde ich interessant, da je nach Auflösung wer anders vorne liegt (mehr als 1-2%),
was ich gerade in solch einem Vergleich interessant fände.

Ich will da ganz ehrlich sein, ich finde den Test von HUB echt richtig gut, gute Spieleauswahl,
Besonders Auffällige Games sind auch mit aufgenommen und es wurde auch was speziell dazu gesagt
und am Ende ne gescheite Übersicht aller Spiele, welche Graka jeweils scheller/langsamer ist, je Auflösung.

SAM und DLSS wurden dann separat behandelt und verglichen, wie auch RT.
Ich persönlich habe da den Eindruck,dass kein Hersteller bevorzugt oder benachteiligt wird, schön neutral,
vor allem wenn man zuhört statt nur Balken anstarrt.
 
Zuletzt bearbeitet:
Das Ergebnis hier sähe ganz anders aus, wenn mordene Spiele gestestet würden.

Hier mal ein Beispiel.

da kann man dann auch sagen die 6800xt schlägt oft die 3090 und und hat nur den halben Preis.
Welch eine riesengroße Überraschung. AMD kann sich in Spielen super behaupten...in Spielen bei denen
sie Pate gestanden haben. Ich finde dabei auch nichts verwerfliches wenn AMD versucht seiner
Kundschaft eine gute Performance zu bieten. Aber das jetzt so auf moderne Spiele münzen ist schlicht
Blödsinn. Wenn jetzt mit Cyberpunk 2077 der nächste Kracher ansteht und die allgemeine Performance
eher Richtung Nvidia ausfällt, was ja durch die enge zusammenarbeit mit Nvidia so kommen könnte, sind
dann die Nvidia Karten besser, oder wird dann wieder Geldkoffersong ausgepackt?

Alle Jahre wieder kommen Titel die auf einem Hersteller überdurchschnittlich gut laufen, da sich die enge
Zusammenarbeit mit dem Entwickler eben auswirkt. Genauso kommt dann alljährlich der selbe Spruch.
 
Zu der Benchmark-Darstellung:
Grundsätzlich finde ich die Zero-Baseline eine sehr gute Darstellung für 1:1 Vergleiche. Da ja jedes Spiel einzeln angezeigt wird sollte es da gerade für die Meckerfritzen doch ein Leichtes sein zu erkennen was Ausreißer(Wolcen) und was "normal" ist.
Zwei Kritikpunkte die hier schon oft genannt wurden kann man ja relativ einfach beheben.
1)Negatives Vorzeichen für einen der Beteiligten: Weg damit. Und wenn dann gauss o.Ä. meckert dass das nicht mathematisch korrekt wäre dann halt noch ein ABS an die Skala schreiben.
2)Rot vs. Grün Darstellung. Mir ist schon klar dass hier AMD/Nvidia gemeint war, aber die Schlecht/Gut Stop/Gehen Interpretation der Ampelfarben ist imo nicht hilfreich. Von R/G Schwachen Mitbürgern die hier überhaupt nur eine Farbe sehen Mal ganz abgesehen.
Imo sind für die Darstellung auch garkeine getrennten Farben notwendig sobald man die 0-Linie etwas dicker zeichnet.

@ SAM: Sobald AMD Worten Taten folgen lässt und es für mehr Plattformen freigibt wird Raff es sicher sofort aktivieren. Siehe z.B. HAGS was quasi direkt bei Verfügbarkeit aktiviert wurde. Warum ist da eigentlich nie einer drauf rumgeritten? Gab es da etwa zu wenig Marketing zu?
 
Zuletzt bearbeitet:
Sorry aber die Spielauswahl ist einfach nur bescheiden.
Bezüglich Wolcen seid ihr noch nie auf die Idee gekommen mal beim Entwickler oder bei AMD direkt nachzufragen was da das Problem sein könnte?

Bei Computerbase dasselbe in Blau:
Anhang anzeigen 1343755

Die veraltete Spielauswahl ist eben der Vergleichbarkeit mit den älteren Karten geschuldet, da kann man anscheinend nichts machen.

Das man für einen solchen Test nicht die beste Plattform bzw. CPU verwendet ebenfalls.

Aussagekräftiger wären weniger, dafür aktuellere Werte gewesen die auch auf der momentan besten Plattform: X570 + 5900x / 5950X (OC Speicher / CPU) erzeugt worden wären, mit hauptsächlich aktuellen Spielen.
Von mir aus darf auch noch das einte oder andere ältere dabei sein, wenn es denn sein muss.
2080Ti OC muss nicht dabei sein, das weiß jeder wie viele % man auf die 2080ti dazurechnen kann.
2070s und 2080s dito.

Sorry der Test vermittelt doch ein total falsches Bild, als könnte es eine 3070 mit einer 6800 aufnehmen, das ist einfach nur lächerlich.
Der Test zeigt doch eindeutig, das die 3070 leicht hinter der 6800 liegt und die 3080 vor der 6800XT.
Daran ändert auch deine Spielauswahl nichts. Nimmt man wieder Spiele mit RT rein würde Nvidia wieder etwas besser darstehen.

Also alles gehopst, wie gesprungen ;) Die 3070 leidet in hohen Auflösungen zu sehr und ja, ich behaupte, nimmt man mehr neue Titel mit rein und testet mit RT, werden die Nvidia besser darstehen, als jetzt im Vergleich.


Wenn dann in Zukunft eine Seite 10% Vorsprung für die 6800xt bencht, sprichst Du dann auch von "im durchschnitt 10% schneller" ?

Das Ergebnis hier sähe ganz anders aus, wenn mordene Spiele gestestet würden.

Hier mal ein Beispiel.

da kann man dann auch sagen die 6800xt schlägt oft die 3090 und und hat nur den halben Preis.

Gefährlich mit neuen Titeln,
Bei neuen Titeln, wird man auch mehr RT sehen werden und dann ist es eine Frage des Umfangs. Wird mehr gebraucht, dann kann man in den Zusatzbenchs, von Call of Duty Cold war, sehr gut sehen, das die 3080 plötzlich 26% vor der 6800XT liegt und das obwohl es vorher ohne RT ein Gleichstand war.

Auch werden die Spiele im Schnitt anderes Sprechen, als die Auswahl von CB, aber abwarten.
 
Zuletzt bearbeitet:
Bin auch der Meinung, dass man Wolcen aus der Bewertung raußnehmen sollte. Macht man bei Ausreißern immern.
Die Frage, warum die RX 6000er damit so schlecht performt bleibt trotzdem bestehen. Liegt es nur an Wolcen oder an der Engine? Sollte man mal mit Kingdom Come testen, was auch auf der Cryengine basiert.
Würde mich in dem Fall auch interessieren. Oder eben andere Spiele auf Basis der CryEngine. Wobei sich KCD, dass nach wie vor sehr gut aussieht, auch noch gut als Benchmark machen würde.
 
Schon heftig wie man fast nur Singleplayer Spiele nimmt und Nvidia Games.
Du hast dich keine 5 Sekunden mit dem Benchmark-Parcour auseinander gesetzt, oder?
Sorry aber die Spielauswahl ist einfach nur bescheiden.
Bezüglich Wolcen seid ihr noch nie auf die Idee gekommen mal beim Entwickler oder bei AMD direkt nachzufragen was da das Problem sein könnte?

Bei Computerbase dasselbe in Blau:
Anhang anzeigen 1343755

Die veraltete Spielauswahl ist eben der Vergleichbarkeit mit den älteren Karten geschuldet, da kann man anscheinend nichts machen.

Das man für einen solchen Test nicht die beste Plattform bzw. CPU verwendet ebenfalls.

Aussagekräftiger wären weniger, dafür aktuellere Werte gewesen die auch auf der momentan besten Plattform: X570 + 5900x / 5950X (OC Speicher / CPU) erzeugt worden wären, mit hauptsächlich aktuellen Spielen.
Von mir aus darf auch noch das einte oder andere ältere dabei sein, wenn es denn sein muss.
2080Ti OC muss nicht dabei sein, das weiß jeder wie viele % man auf die 2080ti dazurechnen kann.
2070s und 2080s dito.

Sorry der Test vermittelt doch ein total falsches Bild, als könnte es eine 3070 mit einer 6800 aufnehmen, das ist einfach nur lächerlich.

Du bist einfach nur lächerlich. Setzt dich mal damit auseinander, wie der Pacour zu Stande kommt. Wir als Community wurden auch eingebunden und befragt. Es spielen bei weitem nicht alle User die neusten Spiele, von daher sind ältere auch interessant.
Wie willst du denn bitte schön Hardware über einen längeren Zeitraum vergleichen, wenn ständig die Basis (die Benchmarks) gewechselt wird? Oder gar die Hardware-Plattform? Am liebsten wäre es dir, wenn jegliche Hardware, die am Besten deinem (Wunsch-)System entspricht mit deinen Lieblingsspielen gebencht wird. Tests mit SAM und andere Tests außer der Reihe gibt in der Print-Ausgabe. Kauf sie dir oder such die eine andere Seite, aber verschone uns mit deinem unreflektiertem Geblubber.
 
Zuletzt bearbeitet:
Die 3080 ist ohne RT gute 10% vor der 6800XT, mit RT ist es schon viel deutlicher.
Wenn also die meisten Spiele demnächst, den Konsolen sei dank, RT integriert haben, wird der Abstand vermutlich größer.
Dann hat man wieder die Wahl, (spekulieren wir mal) 20% mehr Leistung bei der 3080, oder mehr VRam.
Sieht meiner einer etwas anders ...
Da big Navi undiskutabel ein höheres Potential bietet bzgl. Takt, welches in den Custom´s ersichtlich ist (Link).


Im direkten Vergleich sind es 8 % zugunsten der 3080 und das inkl. dem extrem Ausreiser mit 112 % +
Ansonsten wird der Schnitt eher bei 6 % liegen.
4 % machen allein die Custom Karten der 6800XT "wett" und weitere 4 % bringt noch SAM.
Somit sehe ich diese zwei Kontrahenten eher ex aequo.
Jetzt liegt es an einem selbst ob er auf mehr RAM oder RT Leistung wert legt ...

MfG Föhn.
 

Anhänge

  • 3080 vs 6800 XT.jpg
    3080 vs 6800 XT.jpg
    179,7 KB · Aufrufe: 48
Als der verantwortliche Excel-Bändiger will ich mich hier auch äußern.

Dae Minus mag etwas verwirrend sein, ist natürlich nur mathematisch aber nicht logisch korrekt, ging aber nicht anders, ohne größeren Grafikaufwand. Excel ist bei den Diagrammen eklatant unflexibel. Hätten das dazuschreiben sollen, dass man es getrost ignorieren kann. Naja, nächstes Mal.

Auch nächstes Mal würde ich ein Diagramm mit den absoluten Fps dranhängen.

Alle weiteren Kritikpunkte, naja. Wer eine aussagekräftigere Spielauswahl findet, der werfe den ersten Stein.
 
Achso und eine 3080 kann man nicht übertakteten? Kann doch nicht wahr sein, das man diese beknackte Diskussion jedes Mal aufs neue führen muss....
Die 6800er gehen schon deutlich besser beim übertakten als die Amperekarten,das kann man nicht anders sagen.Wobei die Debatte eigentlich obsolet ist,die Karten sind in etwa gleich schnell.

Zur Spieleauswahl:Finde ich im Grunde absolut in Ordnung um die Karten breit zu beurteilen,die Radeons scheinen Vorteile in neuen Spielen zu haben, NV ist wohl auch an nem Patch dran fürWatchDogs damit man da aus dem Overhead kommt.
 
Zurück