• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Fps-Duell in 20 Spielen und 4 Auflösungen: RTX 3080 vs. RX 6800 XT und RTX 3070 vs. RX 6800

redfield

Freizeitschrauber(in)
The Witcher 3 profitiert extrem von Nvidia Hardware und ich denke das zeichnet sich auch für Cyberpunk ab, zumal schon das Raytracing Nvidia vorbehalten bleibt (zumindest vorerst) und AMD hier ohnehin stark schwächelt.

Eine 6800XT kostet praktisch das gleiche wie eine RTX 3080, ist im Schnitt 10% schwächer, bietet kein DLSS und RT Leistung der letzten Nvidia Generation - für mich doch etwas ernüchternd...zumal SAM evtl. auch für Nvidia / Intel Hardware kommen und dieser ohnehin marginale Vorteil somit auch noch relativiert wird.

Die 16GB Vram sind für WQHD Spieler kaum ein Kaufargument und vermitteln darüber hinaus auch eher ein Gefühl von Sicherheit, als wirklich nennenswert von Vorteil zu sein auf absehbare Zeit. Von Zukunftssicher kann man bei der gebotenen Leistung für den Kaufpreis kaum sprechen.
 

Tolotos66

Volt-Modder(in)
Danke für die Mühe @Raff und wie immer sehr umfangreich.
Aber auch ich wäre für eine besser verständliche Übersicht. Da es viele "Querleser" gibt, führt solche Art Aufteilung/Einteilung leicht zu Mißverständnissen.
Aber das sollte ja kein Hexenwerk sein :-)
Gruß T.
 

Zombeenuke

Schraubenverwechsler(in)
Aus den Diagrammen wird kein Mensch schlau, das hat mir früher besser gefallen. Diagramme sollten selbsterklärend sein!! Woher soll ich wissen, dass sich Daten teilweise auf frühere Tests beziehen. Sehr verwirrend.
 

Oldtekkno

Freizeitschrauber(in)

Grafische Glanzleistung bei der Aufbereitung der Tabelle. Ein roter Balken suggeriert unterschwellig schon ein negatives Ergebnis und zusätzlich steht noch ein Minus davor. Perfekte Umsetzung wenn es um redaktionelle Neutralität geht. :daumen:
Desweiteren der rote Balken mit dem Minus davor Richtung links (wirkt halt zurück) der grüne Balken ohne Minus geht nach rechts, so wie vorwärts und führend.

Alles in allem sehr unglückliche Grafikwahl. Nicht gut gemacht, sorry.
Ich mußte nach dem ersten Hinschauen auch erstmal überlegen, was gemeint sein sollte.
 

ChrisMK72

PCGH-Community-Veteran(in)
Finde die Übersichten auf den ersten Blick klar und logisch.
Mag die auch.

Kenne die ja auch schon von anderen Seiten, von daher isses auch nix Neues für mich.

Schön zu sehen, dass die 3080 in den für mich wichtigen Spielen(z.B. auch RDR2) vorn liegt.
Fühle mich auch sehr gut mit der Entscheidung, auch wenn vorher so viele Leute über die "nur" 10GB gemeckert haben. Is mir aber wumpe.

Manche sehen das halt nur aus ihrer Sicht und schnallen nicht, dass es vielleicht für WQHD nich so wichtig is, auch wenn man durchaus Optionen zurückzuschrauben bereit ist, für höhere FPS.

Freue mich schon auf die 4080. ;)
Nächstes Mal wird aber erst vertickt, wenn die neue eingebaut is und gut läuft.

PS: 3080er von Gigabyte gab's vorhin lagernd bei MF. Allerdings zum Scalperpreis ca. ~ +250€.
Nur mal so ...
 

Llares

PC-Selbstbauer(in)
Meine Fresse, ist ja kaum auszuhalten. Leute, wenn ihr Tests mit SAM wollt, kauft euch die nächste PCGH! Das hier sind Teaser auf die Zeitschrift.

Und die ständige Frage, warum Spiel X/Y nicht dabei ist, erübrigt sich auch, wenn man lesen kann. Der Parcour wird doch nicht jedes mal umgestellt, wenn ein neues Spiel raus kommt. Wo soll denn bitte da die Vergleichbarkeit bleiben?

Zu der Darstellung: Finde ich grundsätzlich gut, bin aber auch der Meinung, dass da eher Beträge stehen sollten, so dass kein Minus gebraucht wird. Ergänzend vielleicht auch noch die FPS in den Balken rein schreiben, um zu sehen, warum 30% Unterschied vielleicht doch nicht so viel sind, wie es klingt.
 

Jobsti84

Software-Overclocker(in)
Ich musste auch 3x hinschauen, bevor ich's gerafft habe ;)

Ich fände ja nett, wenn noch 2 3 Pro-AMD Titel drinnen wären, wie
Dirt 5, Godfall, AC Valh., WW-Z

Oder auch wo sich die Performance mit höherer Auflösung wendet, wie bei z.B.
Watch Dogs Legion, MS Flight Simulator, RS Siege, Gears 5, AC Od. (da isses z.B. andersrum, Radeon zieht in 4K vor)
 

ChrisMK72

PCGH-Community-Veteran(in)
Finde auch:
Bitte nur Titel checken, wo AMD vorn ist und natürlich auch mit Boni wie SAM usw. . ;)

Bei Nvidia bitte alles abschalten, was ein Plus geben könnte. DLSS is unfair. RT auch. Überhaupt Grafik! Alles abschalten. ;) Nur bei AMD zulassen.
Hauptsache AMD liegt vorn, denn dann ist es erst richtig.

Auch nur mit AMD CPUs testen.
Logisch, oder ? ;)

Intel und Nvidia gehen ja gar nicht mehr. Das ist nicht gut angesehen, sowas böses. :devil:
The Witcher 3 profitiert extrem von Nvidia Hardware und ich denke das zeichnet sich auch für Cyberpunk ab
Bitte nie wieder testen.
Spielt doch eh kein Mensch, sowas. ;)
 

shaboo

Freizeitschrauber(in)
Schön zu sehen, dass die 3080 in den für mich wichtigen Spielen(z.B. auch RDR2) vorn liegt.
Fühle mich auch sehr gut mit der Entscheidung, auch wenn vorher so viele Leute über die "nur" 10GB gemeckert haben. Is mir aber wumpe.

Manche sehen das halt nur aus ihrer Sicht und schnallen nicht, dass es vielleicht für WQHD nich so wichtig is, auch wenn man durchaus Optionen zurückzuschrauben bereit ist, für höhere FPS.
Muss halt jeder selber wissen. Wirklich egal wäre mir persönlich Speicher nur in FHD, aber bereits ab WQHD hätte ich keinen Bock, mich die nächsten vier, fünf Jahre auf 8 GB verlassen zu müssen. Die 10 GB der 3080 wären da schon das absolut minimalste Minimum. Gut, dass ich noch ein paar Monate Zeit habe, mich zwischen der 3080, der 6800XT und einer eventuellen 3080Ti zu entscheiden ...
 

onkel-foehn

Software-Overclocker(in)
Finde auch:
Bitte nur Titel checken, wo AMD vorn ist und natürlich auch mit Boni wie SAM usw. . ;)

Bei Nvidia bitte alles abschalten, was ein Plus geben könnte. DLSS is unfair. RT auch. Überhaupt Grafik! Alles abschalten. ;) Nur bei AMD zulassen.
Hauptsache AMD liegt vorn, denn dann ist es erst richtig.

Auch nur mit AMD CPUs testen.
Logisch, oder ? ;)

Intel und Nvidia gehen ja gar nicht mehr. Das ist nicht gut angesehen, sowas böses. :devil:

Bitte nie wieder testen.
Spielt doch eh kein Mensch, sowas. ;)
Also ich empfehle Dir ne heiße Tasse Ingwer Tee … ;-)

MfG Föhn.
 

ChrisMK72

PCGH-Community-Veteran(in)
hätte ich keinen Bock, mich die nächsten vier, fünf Jahre auf 8 GB verlassen zu müssen
Mach ich auch nicht.

Und wer weiß wie viel GB die 4080 in 2 Jahren hat !?
12 ? Wir werden sehen ...

@ föhn: Bevorzuge gerade heißen Kaffee. :D

PS: Das Genörgel, obwohl PCGH doch schon so sehr Richtung AMD geht, auch mit der Basis, is aber schon leicht nervig.
 

Taxxor

PC-Selbstbauer(in)
Also dafür, dass ihr angeblich so genau lest, was wir machen (und das dann haarklein kritisiert), kriegt ihr erstaunlich wenig davon mit, wie wir testen, warum wir das so machen und wie oft wir Benchmarks umstellen. Schade. :( *hint*

Also ich zähle mich mal nicht zu dem "ihr" dazu (das wäre wohl eher mein Avatar-Bruder), denn ich lese eigentlich sehr selten irgendwas von PCGH und kommentiere noch seltener unter Tests von PCGH^^
 

ssj3rd

Komplett-PC-Aufrüster(in)
Eigentlich war die Wahl nie schwerer, eigentlich...

Kannst eh keine der Karten kaufen und wenn doch weit über den mal veranschlagten Preis.
Lohnt sich absolut nicht darüber Gedanken zu machen, kaufen kannste nix zur Zeit...
 

derneuemann

BIOS-Overclocker(in)
Finde die Übersichten auf den ersten Blick klar und logisch.
Mag die auch.

Kenne die ja auch schon von anderen Seiten, von daher isses auch nix Neues für mich.

Schön zu sehen, dass die 3080 in den für mich wichtigen Spielen(z.B. auch RDR2) vorn liegt.
Fühle mich auch sehr gut mit der Entscheidung, auch wenn vorher so viele Leute über die "nur" 10GB gemeckert haben. Is mir aber wumpe.

Manche sehen das halt nur aus ihrer Sicht und schnallen nicht, dass es vielleicht für WQHD nich so wichtig is, auch wenn man durchaus Optionen zurückzuschrauben bereit ist, für höhere FPS.

Freue mich schon auf die 4080. ;)
Nächstes Mal wird aber erst vertickt, wenn die neue eingebaut is und gut läuft.

PS: 3080er von Gigabyte gab's vorhin lagernd bei MF. Allerdings zum Scalperpreis ca. ~ +250€.
Nur mal so ...


Die Übersichten sind simple und gut nachzuvollziehen! ;)

Bezüglich 10GB und 3080 vs 6800XT.

Hier sehe ich jetzt mal UVPs gegenübergestellt, denn die aktuelle Situation ist ein Witz, den die Leute auf dem Leim gehen, die das Geld zum Fenster raus hauen wollen.

Die 3080 ist ohne RT gute 10% vor der 6800XT, mit RT ist es schon viel deutlicher.
Wenn also die meisten Spiele demnächst, den Konsolen sei dank, RT integriert haben, wird der Abstand vermutlich größer.
Dann hat man wieder die Wahl, (spekulieren wir mal) 20% mehr Leistung bei der 3080, oder mehr VRam.

Weiter behaupte ich, das wir hier auch nicht mehr von den Matschtexturen reden wie früher.

Mal rein Theoretisch, wenn ein Spiel für ultra hoch auflösende Texturen demnächst mehr als 10GB braucht, dann wird die Textureauflösung runter gefahren, aber nicht halbiert, oder geviertelt.

Selbst wir reden bei 10GB nie von schlechten Texturen, wenn dann nur weil der Programmierer nicht wollte.

Der unterschied sollte zu überleben sein, außerdem werden wohl die meisten Spiele mit 10Gb noch ganz gut zu recht kommen.

Auch in 4k. Ausnahmen gibt es immer. Ob jetzt weniger Texturequalität, oder RT, oder Leistung, muss jeder selber wissen.

Aber ich hätte jetzt auch eher zur 3080 gegriffen, als zu 6800XT. Wäre letztere ohne RT schneller und mit nur bis 10% langsamer, würde ich diese bevorzugen.
 

Schinken

Software-Overclocker(in)
also von raytracing habe ich jetzt schon was aber vom speicher nicht und wenn der speicher in 2 jahren wirklich gebraucht wird gibts soviele raytracing titel und amd wird nur schauen so schnell wie möglich die 7000er zu releasen um da entgegenzuwirken

Erneut, und es tut mir leid wenn ich etwas genervt Klinge, das schreibe ich nur schon zum zigsten Mal:
Das unterscheidet sich von Fall zu Fall. Du schreibst ja selbst: Du hast nichts vom Speicher. Mag sein, gilt aber nicht für alle. Ich weiß, dass ich jeden Grafikspeicher voll kriege. Ich spiele exzessiv mit Mods besonders Assets und Texturen, , bei einigen Spielen kann ich es mir gar nicht anders vorstellen. Erschwerend kommt hinzu, dass ich hauptsächlich riesige Spiele zocke, die mit Mods noch gewaltiger werden. Citys:Skylines, Anno 1800 oder Stellaris wären hier zu nennen. Zurzeit muss ich bei all diesen Spielen auf Mods verzichten (also immer abwägen, welche Mod ich in welchen Savgeame/Playthrough aktiviere und welche nicht), da der Speicher sonst überläuft. (für C:S gibt es noch sooviele Assets die ich auch haben will, dass ich wohl auch 32 GB Vram voll kriegen würde xD) 32GB RAM waren auch schon fällig, da die 16 GB gesprengt wurden. Zudem nutze ich Reshade und immer wenn es geht Downsampling. Dafür kann ich gut mit niedrigen FPS leben, 30 sollten es schon sein, ab 40 bin ich aber auch schon glücklich und 60 sind bei mir sowieso immer das Framecap.
Was sollte ich mit den 10 GB der 3080 bspw.? Da könnte ich nicht mal bei Spielen die ich jetzt habe sorglos alle Gimmicks und Mods nutzen die ich möchte. Dafür hãtte ich hohe FPS, die bei mir Perlen vor die Säue wären.
Mit den 16 GB einer 6800 dagegen mache ich mir keinen Kopf, da krieg ich alles rein was ich möchte und für meine FPS Anforderungen wird trotzdem immer reichen.
Raytracing kostet für meine Settings zuviel Leistung. Ich würde auf jeden Fall lieber RT abschalten um dafür eine Höhere Auflösung zu spielen. Mit SSAO geht's mir jetzt schon so, das wird als erstes abgeschaltet wenn es sogar mir zuwenig FPS werden. Wird mit RT ebenso. Wenn zu meinen Settings RT noch oben drauf geht super, wenn nicht lebe ich damit.

Leider müsste ich mir mit 16GB Speicher aber bereits Sorgen machen, ob in 1-2 Jahren nicht schon Spiele erscheinen, bei denen ich wieder nicht sorglos alle Mods in den Speicher kriege. Das ist natürlich ein extremes Luxusproblem, aber für mich real.

Ideal wäre also eigentlich die 3090 für mich. Doch die kommt aufgrund des Preises und dem Energiehunger einfach gar nicht in Betracht. Ebenso wie übrigens die 6900XT. Beide sind nette Machbarkeitsstudien, aber schon 800€ für ne GraKa sind frech, alles darüber indiskutabel.
 

manimani89

BIOS-Overclocker(in)
Erneut, und es tut mir leid wenn ich etwas genervt Klinge, das schreibe ich nur schon zum zigsten Mal:
Das unterscheidet sich von Fall zu Fall. Du schreibst ja selbst: Du hast nichts vom Speicher. Mag sein, gilt aber nicht für alle. Ich weiß, dass ich jeden Grafikspeicher voll kriege. Ich spiele exzessiv mit Mods besonders Assets und Texturen, , bei einigen Spielen kann ich es mir gar nicht anders vorstellen. Erschwerend kommt hinzu, dass ich hauptsächlich riesige Spiele zocke, die mit Mods noch gewaltiger werden. Citys:Skylines, Anno 1800 oder Stellaris wären hier zu nennen. Zurzeit muss ich bei all diesen Spielen auf Mods verzichten (also immer abwägen, welche Mod ich in welchen Savgeame/Playthrough aktiviere und welche nicht), da der Speicher sonst überläuft. (für C:S gibt es noch sooviele Assets die ich auch haben will, dass ich wohl auch 32 GB Vram voll kriegen würde xD) 32GB RAM waren auch schon fällig, da die 16 GB gesprengt wurden. Zudem nutze ich Reshade und immer wenn es geht Downsampling. Dafür kann ich gut mit niedrigen FPS leben, 30 sollten es schon sein, ab 40 bin ich aber auch schon glücklich und 60 sind bei mir sowieso immer das Framecap.
Was sollte ich mit den 10 GB der 3080 bspw.? Da könnte ich nicht mal bei Spielen die ich jetzt habe sorglos alle Gimmicks und Mods nutzen die ich möchte. Dafür hãtte ich hohe FPS, die bei mir Perlen vor die Säue wären.
Mit den 16 GB einer 6800 dagegen mache ich mir keinen Kopf, da krieg ich alles rein was ich möchte und für meine FPS Anforderungen wird trotzdem immer reichen.
Raytracing kostet für meine Settings zuviel Leistung. Ich würde auf jeden Fall lieber RT abschalten um dafür eine Höhere Auflösung zu spielen. Mit SSAO geht's mir jetzt schon so, das wird als erstes abgeschaltet wenn es sogar mir zuwenig FPS werden. Wird mit RT ebenso. Wenn zu meinen Settings RT noch oben drauf geht super, wenn nicht lebe ich damit.

Leider müsste ich mir mit 16GB Speicher aber bereits Sorgen machen, ob in 1-2 Jahren nicht schon Spiele erscheinen, bei denen ich wieder nicht sorglos alle Mods in den Speicher kriege. Das ist natürlich ein extremes Luxusproblem, aber für mich real.

Ideal wäre also eigentlich die 3090 für mich. Doch die kommt aufgrund des Preises und dem Energiehunger einfach gar nicht in Betracht. Ebenso wie übrigens die 6900XT. Beide sind nette Machbarkeitsstudien, aber schon 800€ für ne GraKa sind frech, alles darüber indiskutabel.
nein den raytracing games habe ich schon viele gezockt aber hatte noch kein game wo ich von 16 mehr gehabt hätte. lass auch immer gpu z mitlaufen. also in 2 jahren kauft sich keiner mehr eine 6800xt wegen speicher da logischerweise raytracing immer größer wir und dann selbst eine neue karte kaufe egal ob amd oder nvidia
 

FlexRX

Kabelverknoter(in)
Also sorry was habt ihr auch bei der Grafik gedacht ohne Witz , habt ihr da selber mal drüber geschaut wo es fertig war und habt ihr wirklich keinen Gedanken gehabt das es etwas komisch zu verstehen sein könnte. Naja spiele halt noch aber egal
 

Schinken

Software-Overclocker(in)
nein den raytracing games habe ich schon viele gezockt aber hatte noch kein game wo ich von 16 mehr gehabt hätte. lass auch immer gpu z mitlaufen. also in 2 jahren kauft sich keiner mehr eine 6800xt wegen speicher da logischerweise raytracing immer größer wir und dann selbst eine neue karte kaufe egal ob amd oder nvidia
Nein? Wie "Nein"? Ich erzähle hier von meinen Settings. Meinen. Und in dem Kontext stimmt alles, das kann ich dir versichern denn immerhin geht es um meine Settings. Und ich würde in 2 Jahren aus genannten Gründen auf jeden Fall eher eine 6800 als eine 3080 kaufen. Weil alles andere für mich keinen Sinn ergibt. Wozu soll ich eine Grafikkarte kaufen, die schon jetzt nicht schafft was ich will? Und auch bei mehr Spielen mit RT werde ich es nicht seltener abschalten, also ist das irrelevant, für mich. SSAO ist auch in jedem Spiel und in 90 Prozent meiner Spiele abgeschaltet. FPS/Grafischer Gewinn Verhältnis ist mir dafür viel zu schlecht.

Du machst den Fehler, von Dir auf Andere zu schließen. Deine Ausführungen sind ja nicht falsch, für dich gibt es wohl keinen Grund die 6800 zu holen, dir ist RT zu wichtig. Deswegen gilt das nur nicht für alle und "keiner" hat noch Grund eine 6800 zu kaufen.

Ausserdem hast du, mit Verlaub, keine Ahnung ob du von 16 GB Vram he profitiert hättest. PCGH hat hundertmal erklärt wie aktuelle Streaming Engines verhindern, dass der Vram überläuft: Durch das Laden niedrig(-er) aufgelöster Texturen.
Das verrät dir GPU-Z nicht.
 

wotti

Kabelverknoter(in)
Liest sich doch gut.

SAM vergleichen find ich erst aussagekräftig wenn grün und rot beiderseits SAM aktiv haben, dann kann man ein resume ziehen, ansonsten ist es ein Äpfel Birnen Vergleich.

Die 3080 ist im Durchschnitt knappe 8-10% schneller als eine 6800XT, was für AMD ja sehr gut ist, meiner Ansicht nach?

Prinzipiell macht man mit keiner was falsch, allerdings hat NV das rundere Paket.
 

latinoramon

PCGHX-HWbot-Member (m/w)
@Schinken
Das stimmt schon so alles was du schreibst, mach dir kein Kopf. Ich habe da ähnliches. 8 oder 10GB langen bei weitem nicht. Jeder Zockt halt anders, Ich würde mir ende 2020 "auch" nie im leben eine 8 oder 10GB VRam Karte kaufen, für mich wäre das raus geschmissen Geld.
 
Zuletzt bearbeitet:

FUNbian

Schraubenverwechsler(in)
Wieso sind grüne Balken rechts vom Nullpunkt mit plus Prozent und rote Balken links vom Nullpunkt mit minus Prozent?
Wäre es nicht besser gewesen, den Vorteil einer GPU immer mit plus-Prozenten nach rechts vom Nullpunkt in der Farbe darzustellen, die man mit dem Hersteller assoziiert? Also roter Balken nach rechts, wenn die AMD Karte vorn liegt und grüner Balken nach rechts, wenn Nvidia vorn liegt. Das würde ich viel übersichtlicher finden!
 
Zuletzt bearbeitet:

Einwegkartoffel

Lötkolbengott/-göttin
Wieso sind grüne Balken rechts vom Nullpunkt mit plus Prozent und rote Balken links vom Nullpunkt mit minus Prozent?
Wäre es nicht besser gewesen, den Vorteil einer GPU immer mit plus-Prozenten nach rechts vom Nullpunkt in der Farbe darzustellen, die man mit dem Hersteller assoziiert? Also roter Balken nach rechts, wenn die AMD Karte vorn liegt und grüner Balken nach rechts, wenn Nvidia vorn liegt. Das würde ich viel übersichtlicher finden!

Hier würde ich mich anschließen. Grundsätzlich finde ich die Angaben in Ordnung. Ich würde die Vorzeichen allerdings komplett weglassen. Auch dann versteht man den Sinn hinter der Grafik. So liest es sich einfach "negativ" für AMD.
Ich hab allerdings auch nichts gegen einen roten und einen grünen Balken, die beide nach rechts gehen und man dann guckt, wer den längeren hat :P
 

Mintnix

Schraubenverwechsler(in)
Also ich kapier das jetzt auch nicht mit der Grafik. Heißt das jetzt die 6800 ist in rot dargestellt und in den oberen Games mit den Minus um sonsoviel % schlechter und unten die 3080 ist in dem unteren Bereich in grün um sonsoviel % schneller als die AMD Karte?
Das würde ja bedeuten AMD schlecht Nvidia gut ???
 

-NeXoN-

PC-Selbstbauer(in)
AHA!

Mir fehlt leider gerade die Zeit alle Kommentare zu durchforsten, mache ich später, aber ich möchte nur anmerken dass:

Es wirkt, als liefe Navi 21 mit einem deutlich langsameren Prozessor, irgendetwas hält den Chip zurück, sodass auch der Takt irgendwo im Low-Power-Bereich herumdümpelt.

GANZ genau meine Erfahrungen mit der Karte wiederspiegelt. Ich war super glücklich eine 6800XT von XFX ergattern zu können, aber seit dem Einbau ist die Erfahrung einfach nur ernüchternd und ich habe weniger FPS als mit meiner 1070Ti!

In Destiny 2 bei 3440x1440 habe ich 40 FPS. Die Karte chillt laut Treiber bei 575 MHz und ca 65 Watt Verbrauch. Tarkov ganz exakt das selbe! BF1 auf dem Papier 140FPS, aber die Frametimes passen überhaupt nicht und das Spiel stottert, unspielbar. Im Treiber habe ich einfach alles durch. Auto, leise, laut und vor allem den Auto overclock der das Target auf 2504 Mhz stellt, aber das interessiert sie (fast) nicht.

RDR2 und Wolfenstein 2 sind die einzigen bisher getesteten Titel die sofort die volle Performance abrufen, meine Karte geht locker ohne zu Murren über 2500 Mhz, fast 300 Watt verbrauch, super geile FPS. Aber in allen anderen Spielen chillt sie einfach. Selbst bei einstellen manueller Werte (!) (zB mindestens 2300 Mhz) interessiert sie sich gar nicht dafür und bleibt gerne bei meist 1700 Mhz .. mit gelegentlichen Drops auf 200 für ne Sekunde der das Gameplay extrem zerreist.

Ich habe den Rechner schon 2x komplett neu aufgesetzt, neueste Treiber, alle sondersoftware aus oder direkt weggelassen. Netzteil war vorher ein 550W be Quiet straight power, habe es gestern durch ein neues 750W Straight Power Platinum ersetzt, keine Veränderung. Ansonsten sind ein 2700X und 2x8GB CL16 GSkill Trident Z im System. Ich bin absolut ratlos und bisher einfach nur enttäuscht auf ganzer Linie.
 

Schinken

Software-Overclocker(in)
AHA!

Mir fehlt leider gerade die Zeit alle Kommentare zu durchforsten, mache ich später, aber ich möchte nur anmerken dass:



GANZ genau meine Erfahrungen mit der Karte wiederspiegelt. Ich war super glücklich eine 6800XT von XFX ergattern zu können, aber seit dem Einbau ist die Erfahrung einfach nur ernüchternd und ich habe weniger FPS als mit meiner 1070Ti!

In Destiny 2 bei 3440x1440 habe ich 40 FPS. Die Karte chillt laut Treiber bei 575 MHz und ca 65 Watt Verbrauch. Tarkov ganz exakt das selbe! BF1 auf dem Papier 140FPS, aber die Frametimes passen überhaupt nicht und das Spiel stottert, unspielbar. Im Treiber habe ich einfach alles durch. Auto, leise, laut und vor allem den Auto overclock der das Target auf 2504 Mhz stellt, aber das interessiert sie (fast) nicht.

RDR2 und Wolfenstein 2 sind die einzigen bisher getesteten Titel die sofort die volle Performance abrufen, meine Karte geht locker ohne zu Murren über 2500 Mhz, fast 300 Watt verbrauch, super geile FPS. Aber in allen anderen Spielen chillt sie einfach. Selbst bei einstellen manueller Werte (!) (zB mindestens 2300 Mhz) interessiert sie sich gar nicht dafür und bleibt gerne bei meist 1700 Mhz .. mit gelegentlichen Drops auf 200 für ne Sekunde der das Gameplay extrem zerreist.

Ich habe den Rechner schon 2x komplett neu aufgesetzt, neueste Treiber, alle sondersoftware aus oder direkt weggelassen. Netzteil war vorher ein 550W be Quiet straight power, habe es gestern durch ein neues 750W Straight Power Platinum ersetzt, keine Veränderung. Ansonsten sind ein 2700X und 2x8GB CL16 GSkill Trident Z im System. Ich bin absolut ratlos und bisher einfach nur enttäuscht auf ganzer Linie.
Das hört sich übel an. Ich hoffe sehr, dass du nur Pech hast (Tut mir leid, klingt jetzt böser als es gemeint ist :D)
 

OxKing

Komplett-PC-Käufer(in)
Wieviel Werbung hat nVidia denn für das nächste Jahr schalten lassen um so komische Benchmarks zu bekommen? 🤔
 

I3uschi

Software-Overclocker(in)
Nein? Wie "Nein"? Ich erzähle hier von meinen Settings. Meinen. Und in dem Kontext stimmt alles, das kann ich dir versichern denn immerhin geht es um meine Settings. Und ich würde in 2 Jahren aus genannten Gründen auf jeden Fall eher eine 6800 als eine 3080 kaufen. Weil alles andere für mich keinen Sinn ergibt. Wozu soll ich eine Grafikkarte kaufen, die schon jetzt nicht schafft was ich will? Und auch bei mehr Spielen mit RT werde ich es nicht seltener abschalten, also ist das irrelevant, für mich. SSAO ist auch in jedem Spiel und in 90 Prozent meiner Spiele abgeschaltet. FPS/Grafischer Gewinn Verhältnis ist mir dafür viel zu schlecht.

Du machst den Fehler, von Dir auf Andere zu schließen. Deine Ausführungen sind ja nicht falsch, für dich gibt es wohl keinen Grund die 6800 zu holen, dir ist RT zu wichtig. Deswegen gilt das nur nicht für alle und "keiner" hat noch Grund eine 6800 zu kaufen.

Ausserdem hast du, mit Verlaub, keine Ahnung ob du von 16 GB Vram he profitiert hättest. PCGH hat hundertmal erklärt wie aktuelle Streaming Engines verhindern, dass der Vram überläuft: Durch das Laden niedrig(-er) aufgelöster Texturen.
Das verrät dir GPU-Z nicht.

Nein!
 

Tony103

Komplett-PC-Aufrüster(in)
Ich verstehe die Grafiken ja. Ist aber trotzdem unglücklich dargestellt... Rot links mit Minussen vermittelt grundsätzlich was negatives. Und wenn da noch positive Zahlen dabei sind, die scheinbar im grünem Bereich liegen... irgendwie voll daneben diese Darstellung.
(btw bin Nvida Fanboy)

 

rum

Software-Overclocker(in)
Kurzes und trockenes Feedback:
+ die Balken und Zahlen sind gut lesbar
+ die Übersicht insgesamt ist super
+ die Idee wurde klar dargestellt
- links ist ein Minus aber rechts kein Plus ... ich würde das Minus auf der linken Seite einfach ;-) weglassen
- direkt über oder unter den Bildern/Tabellen hätte ich mir eine kurze!! Kurzfassung!! des Systems gewünscht
 

sandworm

Freizeitschrauber(in)
Sorry aber die Spielauswahl ist einfach nur bescheiden.
Bezüglich Wolcen seid ihr noch nie auf die Idee gekommen mal beim Entwickler oder bei AMD direkt nachzufragen was da das Problem sein könnte?

Bei Computerbase dasselbe in Blau:
wolcen.png


Die veraltete Spielauswahl ist eben der Vergleichbarkeit mit den älteren Karten geschuldet, da kann man anscheinend nichts machen.

Das man für einen solchen Test nicht die beste Plattform bzw. CPU verwendet ebenfalls.

Aussagekräftiger wären weniger, dafür aktuellere Werte gewesen die auch auf der momentan besten Plattform: X570 + 5900x / 5950X (OC Speicher / CPU) erzeugt worden wären, mit hauptsächlich aktuellen Spielen.
Von mir aus darf auch noch das einte oder andere ältere dabei sein, wenn es denn sein muss.
2080Ti OC muss nicht dabei sein, das weiß jeder wie viele % man auf die 2080ti dazurechnen kann.
2070s und 2080s dito.

Sorry der Test vermittelt doch ein total falsches Bild, als könnte es eine 3070 mit einer 6800 aufnehmen, das ist einfach nur lächerlich.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Sorry aber die Spielauswahl ist einfach nur bescheiden.
Bezüglich Wolcen seid ihr noch nie auf die Idee gekommen mal beim Entwickler oder bei AMD direkt nachzufragen was da das Problem sein könnte?
Du hast unseren Text nicht gelesen. Dabei ist der diesmal echt ein kleiner, gut verdaulicher Happen für zwischendurch.

Da fällt mir auf: Jetzt geht das wieder los. Kaum sind die beiden Großen wieder auf Augenhöhe, kriegen wir als Tester Gegenwind für Software-Fehler - obwohl wir aufdecken, nicht verursachen. Total banane. Bitte mal darüber nachdenken. :-)

MfG
Raff
 

Bandicoot

PCGH-Community-Veteran(in)
Du hast unseren Text nicht gelesen. Dabei ist der diesmal echt ein kleiner, gut verdaulicher Happen für zwischendurch.

Da fällt mir auf: Jetzt geht das wieder los. Kaum sind die beiden Großen wieder auf Augenhöhe, kriegen wir als Tester Gegenwind für Software-Fehler - obwohl wir aufdecken, nicht verursachen. Total banane. Bitte mal darüber nachdenken. :-)

MfG
Raff
Er Rafft es halt nicht !;):banane:
 

Reamer_DE

Schraubenverwechsler(in)
Die Art der Darstellung ist grundsätzlich gut, da sie schnell Stärken und Schwächen zeigen kann. Ich finde man sollte mit den Farben aufpassen, wenn man Minus und Plus mit einbringt. Die Darstellungsform hat aber Potenzial. :daumen:

+ Darstellungsform ist eye-catching
+ Stärken & Schwächend der Karten werden schnell deutlich
+ viele Informationen können Übersichtlich in eine Grafik

- Legende fehlt
- 0% Punkt ist unklar (was ist der Ausgangspunkt für + und -)
- Systemkonfiguration ist unklar
- Testeinstellungen der Titel sind unklar
- wurden DLSS, SAM, Rage Mode etc verwendet (Begründung)

persönliche Meinung: der Test hat bei mir einen nicht verlässlichen Eindruck hinterlassen. Das liegt nicht daran, dass ich eure Daten anzweifle, sondern viel mehr an der holprigen Aufbereitung. Es fehlt der Kontext.
 
Oben Unten