• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

SAM mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis

Gurdi

Kokü-Junkie (m/w)
Komisch ich hab irgendwie immer ein GoldenSample...obs nun meine 6800,6800XT,meine Seven, meine Vega.....

Naja besorg doch mal einer ein 3080er Golden Sample, ich hab heute noch ne Suprim X gebinnt,die hat 3x8Pin und hat selbst mit 430 Watt keine Chance gegen mein Balanced Setting mit gerade mal 295Watt,dabei hab ich den Chip schon selektiert.
Eine 80er hat keine Chance gegen eine gute 6800XT. Das meine XT deine 90er unter Wasser schon catcht sagt doch schon alles,die verbaucht dabei nicht mal mehr und für den preis meiner 3090 hab ich zwei Karten bekommen,die 6800 und die XT.

Meine 3070 sieht auch beimUndervolting wirklich schlecht aus gegen die 6800,beide brauchen etwa 190 Watt.Die Radeon ist aber mit dem Referenzkühler leiser als die Trio mit dem Koloss und dabei noch ein gutes Stück schneller mit doppeltem Vram.

Trotzdem ist die 70er ne sehr gute Karte muss ich sagen,wenn dermagere Vram nur nicht wäre....
 
Zuletzt bearbeitet:

Cleriker

PCGH-Community-Veteran(in)
Was für ein albernes Gehabe. Jahrelang waren die GCN GPUs in hohen Auflösungen vorn, da hieß es andauernd dass doch noch alle in FullHD spielen und AMD im Markt vorbei entwickelt hat. Jetzt ist es umgekehrt, kommen dauernd die Sprüche dass man solche Karten doch für 4K hat und nicht für FullHD.

AMD hatte früher den fortschrittlicheren und schnelleren RAM, da hieß es das wäre unnötig und Verschwendung. Jetzt ist es das erste Mal andersherum und schon ist der schnellere und fortschrittlichere Speicher besser.

Andersherum selbstredend das gleiche. Alle die früher A gepredigt haben, predigen jetzt B und umgekehrt.

Rot, grün, ganz egal. Es wirkt fast als hätten die entsprechenden User aus beiden Lagern versehentlich mal ihre Skripte getaucht und würden nun die Texte des Gegenparts sprechen.
 

Cleriker

PCGH-Community-Veteran(in)
Weil es letztlich doch völlig egal ist ob man ein Custommodell mit erhöhtem Takt kauft, oder eine Referenz. Man kann beide übertakten und wenn es in der Diskussion darum geht welcher Hersteller oder welche Karte mehr bietet in den eigenen Augen, dann gehört oc eben zu den Eigenschaften dazu. Immerhin liefert AMD alles dafür nötige ja im Treiber. Man braucht nicht mal ein third person tool wie den Popobrenner. Die OC Möglichkeiten gehören zum serienmäßigen Produktumfang jeder AMD Karte.
 

Gurdi

Kokü-Junkie (m/w)
Was für ein albernes Gehabe. Jahrelang waren die GCN GPUs in hohen Auflösungen vorn, da hieß es andauernd dass doch noch alle in FullHD spielen und AMD im Markt vorbei entwickelt hat. Jetzt ist es umgekehrt, kommen dauernd die Sprüche dass man solche Karten doch für 4K hat und nicht für FullHD.

AMD hatte früher den fortschrittlicheren und schnelleren RAM, da hieß es das wäre unnötig und Verschwendung. Jetzt ist es das erste Mal andersherum und schon ist der schnellere und fortschrittlichere Speicher besser.

Andersherum selbstredend das gleiche. Alle die früher A gepredigt haben, predigen jetzt B und umgekehrt.

Rot, grün, ganz egal. Es wirkt fast als hätten die entsprechenden User aus beiden Lagern versehentlich mal ihre Skripte getaucht und würden nun die Texte des Gegenparts sprechen.
Darüber kann ich mich auch tatsächlich hervorragend amüsieren.
GDDR6 ohne X ist jetzt schon Krüppelram :)
 

deady1000

Volt-Modder(in)
Alle die früher A gepredigt haben, predigen jetzt B und umgekehrt.
Kein Wunder, denn früher war FHD mit Abstand der Standard, während einige Nerds auf WQHD gespielt haben. Wozu brauchte man vor 2-3 Jahren mehr als 8GB? War doch komplett unnötig. Heute ist FHD schon relativ überholt und viele spielen auf WQHD, zumindest was ich so aus meinem Freundeskreis mitbekomme. Was hinzukommt ist wie gesagt SuperSampling/Renderscale, was in modernen Spielen mittlerweile fast immer dabei ist. Damit boostet man sich seine Auflösung letztendlich auch künstlich höher.

Heute gibt es eben einen erhöhten Bedarf an 4K-Leistung bzw WQHD + SS.
Heute macht es keinen Sinn mehr auf FHD zu testen, bzw das hat auch vor 4 Jahren schon keinen Sinn gemacht.

Es heißt doch immer, CPUs testet man auf 720p, dann hat man Grafikkarten auch im Jahr 2021 auf 4K zu testen, denn da kommen die Dinger auch ordentlich ins Schwitzen. WQHD kann man natürlich auch mittesten, da es sehr relevant ist. Aber FHD kann man getrost weglassen heutzutage. Wer auf FHD spielt, der braucht sich sowieso keine BigNavi oder Ampere zu holen, außer man ist auf die Sparvarianten aus.

Und ganz davon ab juckt es doch eh keine Sau was die Karten auf FHD bzw WQHD leisten.
Ob es jetzt 150 FPS oder 160 FPS sind... wen interessiert das noch?
Relevant ist doch ob eine Karte 50FPS oder 65FPS erreicht, sprich dort wo es halt auffällt.

Will mal eben zeigen was ich meine:

Ja in FHD sind die BigNavis oft etwas schneller.
In WQHD aber oft kaum und in 4K meist nicht.
Guckt euch aber mal die FPS bei FHD und WQHD an.
Es ist in einem Bereich, wo es sowieso keinen interessiert.

DSfhd.PNG DSwqhd.PNG
f1fhd.PNG f1wqhd.PNG
sttrwfhd.PNG sttrwwqhd.PNG
fhd.PNG whqd.PNG

Also wer auf FHD oder WQHD spielt und auf alle Nvidia-Features verzichten will, der kann sich halt ne BigNavi besorgen. In diesem Bereich tun sich die Karten in Rasterization faktisch kaum was. Die performen ungefähr gleich. Ab 4K oder wenn DLSS/RT ins Spiel kommen ist man eben mit einer Ampere deutlich besser dran.

In höheren Auflösungen zieht Ampere davon.
Da bringt den Radeons auch der Speicher nicht viel.

1619476665718.png 1619476637115.png
1619476525969.png
 
Zuletzt bearbeitet:

Cleriker

PCGH-Community-Veteran(in)
@deady1000
Dieses Diskussionen "früher" sind aber teilweise keine zwei Jahre alt. Die stammen aus der letzten Gen.

Mir brauchst du das nicht sagen. Ich habe schon seit release der HD7000er in 1440p gespielt und inzwischen seit mehreren Jahren in 4K.

Es ging mir ja nur allgemein darum wie sich ständig der Wind dreht. Bei den CPUs ebenso.
 

blautemple

Lötkolbengott/-göttin
@deady1000
Dieses Diskussionen "früher" sind aber teilweise keine zwei Jahre alt. Die stammen aus der letzten Gen.
Ich glaube da täuscht du dich. Vor Big Navi war die letzte in der Oberklasse zumindest einigermaßen Konkurrenzfähige Karte Vega64 und das ist schon 4 Jahre her. Wenn man ganz ehrlich ist war sogar die 290/390 die letzte wirklich konkurrenzfähige Serie und da sprechen wir dann von 8 bzw. 6 Jahren.
 

Cleriker

PCGH-Community-Veteran(in)
Vor RDNA war doch Vega aktuell und Vega war bis zuletzt auf Auslastung angewiesen. RDNA kam Mitte 2019 meine ich, also passt das schon.
 

owned139

BIOS-Overclocker(in)
Jahrelang waren die GCN GPUs in hohen Auflösungen vorn...
Wann das denn? Die Topmodelle von Turing und Pascal konnte AMD nicht schlagen. Egal, welche Auflösung.
Das wird hier immer besser :D
Jetzt war GCN schon schneller als die 1080TI/2080TI. Ich lach mich weg.

@Gurdi ist ja schon hart, dass deine ganze Argumentation nur auf deinem Golden Sample beruht. Selbst eine 6900XT mit OC und Wakü kommt an deine 6800XT nicht ran und die setzt du dann als Standard für einen Vergleich gegen alle normalen bis schlechten Samples der Ampere Karten. Richtig gut.
Dir glaub ich gar nichts mehr.
 
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
@owned139 Es wird halt gebogen und geschoben, wo es geht, damit man irgendwas beweisen kann, wo jeder eigentlich weiß, dass es Quatsch ist.

Typische Verfahrensweisen:

- AMD-OC vs Nvidia-FE-Stock
- AMD-Wasser vs Nvidia-FE-Stock
- Irgendwelche GoldenSamples mit Kotzgrenz-OC überall als Referenz hochhalten
- Testen speziell ausgewählter Spiele, je nach Wunschergebnis (s. CB-Benchmark "Neue Spiele"), ignorieren von unerwünschten Titeln
- AMD-SAM vs NV-ohne-RBAR, obwohl man sonst nur Features testete, die voreingestellt sind und wo man nicht erst ins BIOS gehen muss
- statt bewährter Tests auf 4K (wo Karten am Limit laufen) testet man plötzlich wieder auf FullHD und evtl noch bis WQHD, obwohl dort die FPS völlig uninteressant sind und gerade die Flaggschiffe wohl kaum von FHD-Nutzern gekauft werden / 4K Ergebnisse werden als irrelevant abgestempelt, obwohl viele auf WQHD und FHD Supersamling nutzen
- Ignorieren und bashen von DLSS und RT und aller anderen Technologien, die die favorisierte Karte nicht (vernünftig) beherrscht

Naja. Die Verkaufszahlen und die Nachfrage (Preise) sprechen eine klare Sprache. Die Leute haben schon eine eindeutige Präferenz. Und die Verkaufszahlen von AMD sind auch lächerlich gering. Keine einzige BigNavi konnte bisher in den Steam Hardware Survey die Auflistungsschwelle überwinden, obwohl Ampere bereits teilweise einige Turing-Modelle überholt.
 

DaHell63

BIOS-Overclocker(in)
Meine 3070 sieht auch beimUndervolting wirklich schlecht aus gegen die 6800,beide brauchen etwa 190 Watt.
Bei deinem 165W Asic Build (also ganze Karte eher 200W) schaut eine 200W RTX 3070 schlecht aus? Ausser in AMD affinen Tests/Titeln kann sich die RX 6800 doch nicht groß gegen die RTX 3070 absetzen. Aber die gibts ja auf der Nvidia-Seite auch.
Von deinen gezeigten Tests bist Du weder im TSE/SP/Bright Mamory/SOTTR schneller als meine ~200W RTX 3070.
In PR reichen sogar 160W um klar vor deiner UV RX 6800 zu sein. Und leiser als meine RTX 3070 ist deine RX 6800 ganz sicher nicht. Abseits von den cherry picked Benchmarks nehmen sich die beiden nicht viel.

Edit:
Deine RX 6800 XT LC, die für mich eh schon zu den besten gehört, ist bis aufs letzte optimiert und sogar mit LM versehen. Die irgendwie als Referenz für Performance anderer RX 6800 XT zu stellen ist ein Witz. Ein schneller Blick klärt ganz schnell auf, daß eine normale RX 6800 XT mal gar nichts mit der Performance deiner gepimten Karte zu tun hat. Weltweit erreichen hier nur 83 Leute einen Grafikscore von über 19000....und Du kommst auf über 21000?
Vergleich.jpg
 
Zuletzt bearbeitet:

Cleriker

PCGH-Community-Veteran(in)
Wann das denn? Die Topmodelle von Turing und Pascal konnte AMD nicht schlagen. Egal, welche Auflösung.
Das wird hier immer besser :D
Jetzt war GCN schon schneller als die 1080TI/2080TI. Ich lach mich weg.
Ach so, du bist erst 15 und weißt deshalb nichts von vor Pascal... oder du stellst dich extra dumm. Dir ist doch bewusst dass es von GCN fünf Generationen gab, oder?
Ein schöner Ausschnitt aus dem Fiji-Test:
Da es sich bei der Radeon R9 Fury X um eine High-End-Grafikkarte handelt, verzichten wir an dieser Stelle auf Full-HD-Benchmarks und gehen direkt zu 2.560 x 1.440 und 3.840 x 2.160 über (Full HD und weitere Spiele finden Sie in der PCGH 08/2015). Falls Sie sich nun benachteiligt fühlen, hier ein Tipp: Nutzen Sie AMDs Downsampling-Funktion "Virtual Super Resolution", kurz VSR. Eine Radeon R9 Fury X ist, ebenso wie die R9 285 und R9 380, in der Lage, bis zu 3.840 x 2.160 Pixel zu berechnen und anschließend als Full-HD-Bild auszugeben - natürlich inklusive feinster Vollbild-Glättung. Schon 2.560 x 1.440 @ 1.920 x 1.080 bringt einen deutlichen Qualitätsvorteil und sorgt dafür, dass die Fury X ausgelastet wird.
Eine hohe Auflösung hilft dabei, die Lastverteilung zu optimieren: Das Frontend des Grafikchips muss auflösungsunabhängig gleich viele Dreiecke aufbereiten, bei steigender Pixelmenge bekommen die ALUs und TMUs jedoch mehr Arbeit. Dieses Problem haben AMD-GPUs schon seit Jahren, man könnte beinahe von einer Tradition sprechen. So kommt es, dass die Radeon R9 Fury X in 1440p besser dasteht als in 1080p und in 2160p noch mehr Boden gut macht.
Das war doch damals ständig Thema. Wer in FullHD gespielt hat, nahm ohne zu zögern grün und wer in 1440p und höher gespielt hat griff oft eher zu rot.
Jetzt ist es andersherum. Jetzt will Ampere ausgelastet werden und AMD hat in 1080p einen Vorteil.
Nur stand damals 1080p für viele im Vordergrund und PCGH hat im Test eine 2/3 Gewichtung auf 1080p gehegt und die beiden anderen Auflösungen teilten sich das restliche Drittel.
Ich versteh überhaupt nicht was dich an dieser Aussage stört.
 

owned139

BIOS-Overclocker(in)
Ach so, du bist erst 15 und weißt deshalb nichts von vor Pascal... oder du stellst dich extra dumm. Dir ist doch bewusst dass es von GCN fünf Generationen gab, oder?
Ach jetzt werden wir persönlich? Du hast doch "GCN" und "Jahrelang" geschrieben, was faktisch nunmal nicht stimmt. Die 1080TI oder 2080TI hat damals keine AMD Karte geschlagen.
Drück dich halt gescheit aus.

Das war doch damals ständig Thema. Wer in FullHD gespielt hat, nahm ohne zu zögern grün und wer in 1440p und höher gespielt hat griff oft eher zu rot.
Jetzt ist es andersherum. Jetzt will Ampere ausgelastet werden und AMD hat in 1080p einen Vorteil.
Nur stand damals 1080p für viele im Vordergrund und PCGH hat im Test eine 2/3 Gewichtung auf 1080p gehegt und die beiden anderen Auflösungen teilten sich das restliche Drittel.
Ich versteh überhaupt nicht was dich an dieser Aussage stört.
Auch das stimmt nicht ganz:

Die R9 Fury X hat zwar in 4K aufgeholt, aber war overall trotzdem minimal langsamer als die 980TI, mal ganz davon abgesehen, das beide Karten bei den meisten Spielen gerade mal die 20 FPS geknackt haben, also was soll der schwachsinnige Vergleich? Da hat @deady1000 schon recht. Kein Mensch kauft sich ne high-end Karte und zockt dann freiwillig mit 20 FPS.
 

Gurdi

Kokü-Junkie (m/w)
Bei deinem 165W Asic Build (also ganze Karte eher 200W) schaut eine 200W RTX 3070 schlecht aus? Ausser in AMD affinen Tests/Titeln kann sich die RX 6800 doch nicht groß gegen die RTX 3070 absetzen. Aber die gibts ja auf der Nvidia-Seite auch.
Von deinen gezeigten Tests bist Du weder im TSE/SP/Bright Mamory/SOTTR schneller als meine ~200W RTX 3070.
In PR reichen sogar 160W um klar vor deiner UV RX 6800 zu sein. Und leiser als meine RTX 3070 ist deine RX 6800 ganz sicher nicht. Abseits von den cherry picked Benchmarks nehmen sich die beiden nicht viel.
Ja ich muss das auch etwas relativieren, das war sicher ungeschickt formuliert.
Ich meinte mit schlecht aussehen eher die Charakteristik beim UV. Bei der Radeon kann ich den Boost sauber erhalten und so auf bis zu 2,4Ghz boosten (was aber eher die Ausnahme ist) während die 3070 festgenagelt wird, aber auf einem sehr hohem Niveau (1950-1995) muss ich sagen. Zudem ist die Grundleistung der Radeon schon höher, die Karte ist entsprechend schneller und verbraucht identisch mit mehr Vram. Im direkten Vergleich hat die 6800er also hier klar die Nase vorn wie ich finde.

Grundsätzlich bin ich mit den UV Eigenschaften der 3070er sehr zufrieden, meiner Meinung nach die beste Karte im Lineup von NV derzeit, wenn nur nicht der Speicher wäre....
Meine 6800er ist lautlos, die brauch lediglich 1200 Umdrehungen. Das muss man auch im Kontext sehen, du vergleichst dein Custommodell gegen eine 2 Slot Karte im Referenzdesign. Die Zotac White die ich hier hatte wäre etwa vergleichbar. Die war deutlich lauter und heißer (fast 90Grad TJ) als die 6800 bei etwa selber Wattage von rund 190 Watt.

Edit:
Deine RX 6800 XT LC, die für mich eh schon zu den besten gehört, ist bis aufs letzte optimiert und sogar mit LM versehen. Die irgendwie als Referenz für Performance anderer RX 6800 XT zu stellen ist ein Witz. Ein schneller Blick klärt ganz schnell auf, daß eine normale RX 6800 XT mal gar nichts mit der Performance deiner gepimten Karte zu tun hat. Weltweit erreichen hier nur 83 Leute einen Grafikscore von über 19000....und Du kommst auf über 21000?
Gut das Argument kam jetzt bereits bei allen meinen Karten, egal ob V56/64, VII oder meine geflashte 5700er.
Ich mach mir auch die Mühe den Leuten zu erklären wie Sie Ihre Karten entsprechend dahin bekommen, die AMD Karten haben nun mal deutlich mehr Stellschrauben. Die 6800XT ist allgemein sehr selten derzeit.
 

owned139

BIOS-Overclocker(in)
Gut das Argument kam jetzt bereits bei allen meinen Karten, egal ob V56/64, VII oder meine geflashte 5700er.
Ich mach mir auch die Mühe den Leuten zu erklären wie Sie Ihre Karten entsprechend dahin bekommen, die AMD Karten haben nun mal deutlich mehr Stellschrauben. Die 6800XT ist allgemein sehr selten derzeit.
Deine Karte ist auf Platz 1 in der Weltrangliste. Das ist nicht einfach nur ein haltloses Argument, sondern Fakt.
 

deady1000

Volt-Modder(in)
@Gurdi

Mag ja sein, dass du an mehr Stellschrauben drehen kannst und dich da auch sehr gut auskennst, aber es ist nunmal unehrlich, ohne jeglichen Bezug, zu behaupten, dass jene Karte zB schneller sei als das Flaggschiff des Kontrahenten und wenn man dann mal genauer hinsieht, kann man diese Ergebnisse nicht reproduzieren, weil selbst das nächsthöhere Modell der gleichen Generation, trotz maximal-versuchtem OC und Wasserblock, ein gutes Stück langsamer ist. Also da passt doch gewaltig was nicht zusammen.

Da kann man dann eben nicht immer solche Behauptungen aufstellen und völlig außer Acht lassen, dass es sich hier schlicht um einen statsistischen Außreißer handelt - nichts weiter ist das Teil. Und es ist auch nicht redlich, die schnellste, hochgezüchtetste Karte von allen, mit dem 0815-Durchschnitt der Konkurrenz zu vergleichen.

Und das machst du ja ständig und verbreitest dieses Gerücht.
 

Gurdi

Kokü-Junkie (m/w)
Deine Karte ist auf Platz 1 in der Weltrangliste. Das ist nicht einfach nur ein haltloses Argument, sondern Fakt.
Warte mal bis wir das Flashtool gecrackt haben ;)
@Gurdi

Mag ja sein, dass du an mehr Stellschrauben drehen kannst und dich da auch sehr gut auskennst, aber es ist nunmal unehrlich, ohne jeglichen Bezug, zu behaupten, dass jene Karte zB schneller sei als das Flaggschiff des Kontrahenten und wenn man dann mal genauer hinsieht, kann man diese Ergebnisse nicht reproduzieren, weil selbst das nächsthöhere Modell der gleichen Generation, trotz maximal-versuchtem OC und Wasserblock, ein gutes Stück langsamer ist.

Da kann man dann eben nicht immer solche Behauptungen aufstellen und völlig außer Acht lassen, dass es sich hier schlicht um einen statsistischen Außreißer handelt - nichts weiter ist das Teil. Und es ist auch nicht redlich, die schnellste, hochgezüchtetste Karte von allen, mit dem 0815-Durchschnitt der Konkurrenz zu vergleichen.

Und das machst du ja ständig und verbreitest dieses Gerücht.
Mein Balancedprofil reicht ja schon um jede 3080 zu schlagen und bewegt sich dann auf Augenhöhe mit einer 3090 Stock. Es braucht bei der Karte kein maximales OC um das Pendant in der Disziplin zu schlagen. Die Karten lassen sich einfach besser übertakten.

Bis auf die 3060 hat mir keine Karte gefallen bei den Ampere, die konnte mna bei fast gleiche TBP auf 2,1Ghz+ übertakten und den Speicher noch etwas hochziehen mit +700-900.
 

DaHell63

BIOS-Overclocker(in)
Gut das Argument kam jetzt bereits bei allen meinen Karten, egal ob V56/64, VII oder meine geflashte 5700er.
Dann solltest Du auch mal einsehen, daß deine optimierten Karten einfach nichts mit dem Durchschnitt zu tun haben und sie deshalb auch in keinster Weise als Performance-Referenz gelten können. Mag es an deinen Karten, oder eben an deinem technischen know how liegen...auf jeden Fall performen deine Karten immer weit über dem Durchschnitt.
Damit bestreite ich nicht, daß Du mit deiner Karte auch nominell höher performende Karten schlagen kannst. Nur kann man deine Karten einfach nicht als Durchschnitt sehen, oder bewerten.
 

Gurdi

Kokü-Junkie (m/w)
Dann solltest Du auch mal einsehen, daß deine optimierten Karten einfach nichts mit dem Durchschnitt zu tun haben und sie deshalb auch in keinster Weise als Performance-Referenz gelten können. Mag es an deinen Karten, oder eben an deinem technischen know how liegen...auf jeden Fall performen deine Karten immer weit über dem Durchschnitt.
Damit bestreite ich nicht, daß Du mit deiner Karte auch nominell höher performende Karten schlagen kannst. Nur kann man deine Karten einfach nicht als Durchschnitt sehen, oder bewerten.
Durchschnitt = Balanced
Max OC= Was geht

Mein Max OC ist sicher nicht repräsentativ, das stimmt sicherlich.

Ich brauche ja aber nicht mal 300Watt um eine 3090 zu erreichen, eine 3080 schafft das nicht mal mit 450Watt + und ist dann auch noch weit entfernt von stabil. An der generellen Aussage, dass die Karten besser gehen beim OC ändert sich ja nichts. Auch eine 3090 wird es schwer haben auf 300 Watt gedrückt zu werden und noch so zu performen. Ich wollte eigentlich eine Suprim 3080 mal durch meinen Parcours jagen, aber mir fehlt die Zeit aktuell. Kurze Tests haben aber schon gezeigt das selbst ein solches Topmodell nicht mithalten kann, trotz 3x 8 Pin.

TS.jpg
TS Ex.jpg



Als versöhnenden Abschluss dann aber mal mine 3070 in eleganter Pose.
18. Bling Bling.jpg
 

DaHell63

BIOS-Overclocker(in)
Du bist ja schon mit deinem Balanced Build (20102 Gs) weit weg vom Durchschnitt. Bei deinem TS liegst Du damit gut 2000 Punkten/gGs vor dem Durchschnitt aller hochgeladenen TS Ergebnisse.
Gurdi.PNG

Das bedeuted einfach.....Du darfst nur noch ausser Konkurrenz mitspielen :P.
 

Gurdi

Kokü-Junkie (m/w)
Gut spiele ich halb wieder allein :(

Meine 70er kann ich aber eigentlich mal gegen deine ins Feld führen, welches Modell hattest du nochmal?
 

deady1000

Volt-Modder(in)
Normale Menschen:
Kaufen irgendeine Grafikkarte, die ins Budget passt, bauen sie ein und fertig.

Nerds:
Betreiben noch etwas Undervolting und minimale Optimierung oder Overclocking.

Gurdi:
Kauft alle GPUs, die nicht bei 3 auf'm Baum sind, optimiert sie bis aufs Letzte und behält die Beste. :fresse:

Sagt eigentlich alles über die Aussagekraft. :ugly: Und ist das nicht auch die exakte Definition von Cherrypicking? Also normalerweise verwendet man diesen Begriff ja bei der Auswahl an Spielen/Benchmarks, aber das hier ist fast noch ne Stufe drüber mNn. :lol:

Meine Suprim kommt heute, denke die werde ich auch mal im Main benchen sobald ich dazu komme.
Der Chip der Trio war nicht so das wahre.
 

Gurdi

Kokü-Junkie (m/w)
Normale Menschen:
Kaufen irgendeine Grafikkarte, die ins Budget passt, bauen sie ein und fertig.

Nerds:
Betreiben noch etwas Undervolting und minimale Optimierung oder Overclocking.

Gurdi:
Kauft alle GPUs, die nicht bei 3 auf'm Baum sind, optimiert sie bis aufs Letzte und behält die Beste. :fresse:

Sagt eigentlich alles über die Aussagekraft. :ugly:
Ich hatte eine Testreihe am laufen und von daher sowieso alles mögliche hier, wenn auch nur für eine Woche. Normalerweise binne ich meine Chips nicht, geht bei den Radeons auch gar nicht die sind ja kaum zu bekommen.

Mir ging es bei der Suprim auch mehr um das Metallgehäuse wegen den LED´s.
 

Cleriker

PCGH-Community-Veteran(in)
Drück dich halt gescheit aus.
Das lasse ich gelten, wenn auch nur widerwillig. Ich hab für mich die ganze Zeit gemeint dass sie höhere Auflösungen, kombiniert mit hohen AA-Einstellungen besser konnten als grün zu der Zeit, aber das konntet ihr ja tatsächlich nicht unbedingt herauslesen. Wenn ich auch nirgends von der Führung in fps gesprochen, geschweige denn Benchmarks erwähnt hatte. Das gebe ich zu. .
 
Oben Unten