• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Fps-Duell in 30 Spielen: Radeon RX 6900 XT vs. Geforce RTX 3090

DarthSlayer

PC-Selbstbauer(in)
Dennoch haben die Nvidia Grafikkarten richtig laufendes Raytracing wie auch DLSS 2.0 was die AMD Dinger gar nicht haben. Gott sei Dank bin ich Nvidia Anhänger
 

Nuallan

PCGH-Community-Veteran(in)
Also meine "Nischengames" liefen sowohl mit einer 3080/3090 als auch mit den beiden 6800ern mit gefühlten drölftausend Fps und hängen im CPU Limit weil Dx11. Die Karten dieser Leistungsklasse lachen doch über solche Titel.
Komisch, die Balken müssten doch gleichlang sein wenn die Spiele im CPU-Limit wären?

AMD performt abseits der AAA-Titel einfach meist schlechter als Nvidia. Meine Meinung bleibt stehen. Und Aussagen wie: "Große Unterschiede in Nischen-Games merke ich doch sowieso nicht mit meiner fetten Karte" helfen da leider auch nicht, denn solche Karten machen wenige Prozent des Marktes aus. Abgesehen davon sind z.B. Early-Access-Spiele nicht gleichbedeutend mit Nischen-spielen..
In DayZ ist die 6900XT leider ein kompletter fail und ist nicht mal halb so schnell wie die 3080.
Genau sowas meine ich. AMD optimiert leider hauptsächlich nur für den Mainstream, und darüber sollte endlich mal gesprochen werden. Der alte Computerbase-Test ist wirklich das einzige was man zu dem Thema findet.
 

Freiheraus

BIOS-Overclocker(in)
Man findet auf Nvidia-Seite ebenfalls Games auch abseits des Mainstreams die schlecht laufen. Aktuelle Titel wie Godfall oder Immortals Fenyx Rising laufen auf Radeons zum Teil deutlich besser: https://gamegpu.com/action-/-fps-/-tps/immortals-fenyx-rising-test-gpu-cpu

Davon gibt es noch weitere Beispiele, es ist immer die Auswahl die das Pendel stark in die eine oder andere Richtung schwingen lässt. Bei PCGH hat man weniger populäre Games, die sehr schlecht auf Nvidia laufen so gut wie nie gebencht seit dem Blanko-NDA. Es wäre schon etwas scheinheilig, vorzugeben dass kleine/unbekanntere Titel immer nur auf AMD-Seite schlechter laufen.
 
Zuletzt bearbeitet:

ragnaro3k

PC-Selbstbauer(in)
Dennoch haben die Nvidia Grafikkarten richtig laufendes Raytracing wie auch DLSS 2.0 was die AMD Dinger gar nicht haben. Gott sei Dank bin ich Nvidia Anhänger
Noch nicht haben.

btw

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

+

Raytracing GI für Reshade und du hast nahezu das selbe Ergebnis. Musst halt nur selbst Hand anlegen.

bezüglich benchmarks, können wir machen. Ich lade die Nacht alles runter und morgen teste ich dann. Das System samt OS ist frisch, habe keins deiner genannten Spiele installiert.

und was dayz betrifft, das Spiel ist absoluter bullshit und miserabel optimiert.
 
Zuletzt bearbeitet:

Atma

PCGH-Community-Veteran(in)
So ist es, wenn int gefordert wird kackt Ampere ab und fällt auf Turingperformance zurück. Zudem bewirkt eine höhere Komplexität auch eine schwiegere Auslastung. Die Achillesferse ist dabei der nicht angewachsene L2 Cache, dann kann man sich kaum von Turing absetzen und jeder 2080ti Besitzer kann sich zurücklehnen, bei 1GiB mehr VRAM.
Und bei welchen Spielen genau soll das der Fall sein? Mir ist nur Anno 1800 bekannt was Ampere etwas schwer im Magen liegt. Nvidia ist nicht ohne Grund den aktuellen Weg gegangen, Spiele verlangen eher nach FP statt INT. Engines wie die UE4 und sicher auch die kommende UE5 verlangen sogar brutal nach FP. Turing sieht in UE4 Titeln wie Borderlands 3 oder Jedi Fallen Order kein Land verglichen mit Ampere.
 

DarthSlayer

PC-Selbstbauer(in)
Noch nicht haben.

btw

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

+

Raytracing GI für Reshade und du hast nahezu das selbe Ergebnis. Musst halt nur selbst Hand anlegen.

bezüglich benchmarks, können wir machen. Ich lade die Nacht alles runter und morgen teste ich dann. Das System samt OS ist frisch, habe keins deiner genannten Spiele installiert.

und was dayz betrifft, das Spiel ist absoluter bullshit und miserabel optimiert.
Das ist nicht der Punkt sondern die von AMD kamen später raus also hatten sie die Zeit und Gengelegenheit besser zu werden und sind es am Ende nicht. Und am meisten gingen mir die hier auf die Eier, die solche Sprüche abgelassen haben warte bis die AMD Grafikkarten da sind ja ja klar ich warte und was dann die haben das Rennen verloren und wie gesagt die beiden erwähnten Sachen sind entweder nicht so geworden oder sie haben sie gar nicht aber ja dafür 16 GB RAM, die ich gar nicht brauche und ich kaufe nicht eine Grafikkarte um daran eben selber noch rumfummeln zu müssen um etwas zu haben. Bei dem Preis erwarte ich von Grafikkarten dass sie es von Haus aus haben. Deswegen ist schon allein Nvidia besser
 

owned139

Software-Overclocker(in)
Die 3090 und die 6900XT sind auf Augenhöhe. Mal ist Nvidia schneller, mal AMD. Aber im Durchschnitt sind beide @Stock Boost gleichauf.
Im Benchmark hier ist die AMD Karte in 5 (in UHD sogar nur 2 :ugly:) von 30 Spielen vorne. Das nennst du Augenhöhe?
Btw. sagt der Takt alleine nichts über die Effizienz/Performance der Karte aus, auch wenn du es gerne so darstellen möchtest, damit dein AMD besser wegkommt.

Interessiert sich bei einer Grafikkarte wirklich jemand für Effizienz pro Takt?
Das ist auch son Ding.
Wer eine Karte kauft die am Sweetspot läuft, der interessiert sich für Effzienz. Wer eine 3090 oder 6900XT kauft, scheißt auf den Verbrauch/die Effizienz und die beiden Streiten sich darum, welche von den beiden High-End Karten effizienter ist bei 20W Unterschied.
:lol::lol:

So ist es, wenn int gefordert wird kackt Ampere ab und fällt auf Turingperformance zurück.
Bei INT ist die 3090 also nur so schnell wie ne 2080TI? Kannst du das auch irgendwie belegen, denn in Benchmarks seh ich davon nichts.

Also meine "Nischengames" liefen sowohl mit einer 3080/3090 als auch mit den beiden 6800ern mit gefühlten drölftausend Fps und hängen im CPU Limit weil Dx11. Die Karten dieser Leistungsklasse lachen doch über solche Titel.
Im CPU Limit unter DX11 kackt AMD ab. Nvidia nimmt mit Treibertricks ein wenig vom DX11 Drawcall Overhead raus und performt dadurch besser. Ab DX12/VK spielt das aber keine Rolle mehr.

Man findet auf Nvidia-Seite ebenfalls Games auch abseits des Mainstreams die schlecht laufen. Aktuelle Titel wie Godfall oder Immortals Fenyx Rising laufen auf Radeons zum Teil deutlich besser: https://gamegpu.com/action-/-fps-/-tps/immortals-fenyx-rising-test-gpu-cpu
Schalt mal auf 4K um, dann sieht das Bild schon wieder ganz anders aus. 1080p ist CPU limitiert.
 
Zuletzt bearbeitet:

Arzila

Komplett-PC-Aufrüster(in)
Naja sobald RT an ist relativiert sich die reine Rechenleistung aber ganz schnell. Auch wenn es viele nicht wahrhaben wollen, RT ist die Zukunft und wird immer mehr kommen. Bin ganz zufrieden die 3090 der 6900XT vorgezogen zu haben.
So wie physix die Zukunft war? Da kann sich schnell alles ändern... Noch ist nix sicher
 

Gurdi

Kokü-Junkie (m/w)
Im CPU Limit unter DX11 kackt AMD ab. Nvidia nimmt mit Treibertricks ein wenig vom DX11 Drawcall Overhead raus und performt dadurch besser. Ab DX12/VK spielt das aber keine Rolle mehr.
Die Zeiten sind rum, die AMD Karten sind meist schneller im Overhead. In FHD z.B. sieht eine 3090 kein Land.
Das ist schon seit Navi so.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Hier gibt's "Overhead-Benchmarks" en masse: https://www.pcgameshardware.de/Ryze...ls/SMT-Vergleich-CPU-Test-mit-Radeon-1364596/

Davon gibt es noch weitere Beispiele, es ist immer die Auswahl die das Pendel stark in die eine oder andere Richtung schwingen lässt. Bei PCGH hat man weniger populäre Games, die sehr schlecht auf Nvidia laufen so gut wie nie gebencht seit dem Blanko-NDA. Es wäre schon etwas scheinheilig, vorzugeben dass kleine/unbekanntere Titel immer nur auf AMD-Seite schlechter laufen.

Das mit vielen Verschwörungstheorien belegte NDA hat unsere Testauswahl exakt Null (in Zahlen: 0) tangiert. Sollte sich das ändern, muss meinen Job jemand anderes machen. Also bitte lass diesen Unsinn endlich stecken, ich möchte das nicht ständig wiederolen. :-) Wenn wir etwas nicht testen, dann aus Zeitgründen - Zeit und eine Nutzen-Abschätzung bestimmt, ob wir etwas notgedrungen liegenlassen müssen oder nicht.

MfG
Raff
 

Malustra

Freizeitschrauber(in)
Schlechter Test.
Die AMD Karten sind besonders in neueren Spielen besser.
In alten Spielen haben beide Karten mehr als genug Leistung.
Außerdem ist der Test intransparent. Wurde hier mit oder ohne RT getestet?!
Wenn mit RT getestet wurde, dann ist das Ergebnis kein Wunder, aber da sowieso kaum jemand RT nutzt und das mehr ein Marketing Feature ist, kann man das auch auslassen. Mit RT performen beide Karten nicht gut und teilweise sieht RT sogar unrealistisch und überladen aus.
Es kommt wohl immer sehr darauf an wie getestet wird.
Hier ist die 6900XT nur wenige Prozent langsamer gewesen. Das ist im Spiel praktisch nicht spürbar.
Dennoch widersprechen die Ergebnisse von CB euren Tests. In Anno 1800 z.B. ist die 6900XT schneller gewesen.
Bei euch nun angeblich langsamer. Wenn man mal die Ergebnisse von CB mit euren vergleicht, dann ist die 3090 bei euch wundersamerweise immer viel schneller! Woher kommts?
Dafür ist die 6900XT zudem vieeeel günstiger und zieht auch weniger Strom.
 

Pokerclock

Moderator
Teammitglied
Ich persönliche empfinde die 6900XT dennoch als spannenderes Produkt. Die aktuellen Marktpreise sind einfach mal gute 30 % günstiger im Vergleich zu einer 3090 und mit bereits im Treibermenü (Nvidia 90er-Systemsteuerung hust) enthaltenen Optimierungsmöglichkeiten ein echtes Stromsparwunder. Einfach mal die Lüfter auf 100% laufen lassen und Strommessgerät an den PC hängen. Ein echtes Wunder was da passiert. Ein noch besseres P/L-Verhältnis hat die 6800XT.

Wenn Raytracing in bestimmten Spiele nicht wäre, würde ich die 6900XT jederzeit vorziehen. Tue ich auch, nur wenn ich CP2077 spiele, kommt die 3090 rein. Ansonsten steckt die 6900XT drin.
 

ZeroZerp

Freizeitschrauber(in)
Ich persönliche empfinde die 6900XT dennoch als spannenderes Produkt. Die aktuellen Marktpreise sind einfach mal gute 30 % günstiger im Vergleich zu einer 3090
Die Marktpreise fluktuieren so stark, dass dies im Augenblick als Argument ausfällt. Ich habe die 3090FE, die ich hier liegen hab für 1499 brutto erhalten. Spannender finde ich die 6900XT auch nicht, weil das Ökosystem rund um die NVIDIA Hardware mit weitem Abstand mehr zu bieten hat und deutlich ausgereifter ist. Zudem sind zukunftsweisende Features der NVIDIA- Karten Hardwaretechnisch bei AMD relativ schwach unterfüttert.

und mit bereits im Treibermenü (Nvidia 90er-Systemsteuerung hust) enthaltenen Optimierungsmöglichkeiten ein echtes Stromsparwunder.
Meine 3090 verbraucht nach meinen Optimierungen inkl. VSYNC auf 60Hz je nach Titel zwischen 130 und 240 Watt auf 1440P. Das ist erträglich.
Welches Softwarepaket man dafür nutzt, beleibt jedem selbst überlassen. Ich ziehe den Afterburner dem AMD Internen Tool auf meiner 6800XT im Zweitsystem vor.

Einfach mal die Lüfter auf 100% laufen lassen und Strommessgerät an den PC hängen. Ein echtes Wunder was da passiert. Ein noch besseres P/L-Verhältnis hat die 6800XT.
...die derzeit in den Preisvergleichen ab 1174,-€ gelistet ist (Nitro 1799,-).
Das tatsächliche Preis-/Leistungsverhältnis ist derzeit bei allen Karten schlecht. Ausnahmen bestätigen die Regel.
Von einem "hätte", "währe" und UVPs kann hier seit langer Zeit keiner abbeissen.
NVIDIA hält wenigstens beim offiziellen Lieferanten NBB bei den FEs die Hand auf den Preisen und hält somit Wort.
Wenn Raytracing in bestimmten Spiele nicht wäre, würde ich die 6900XT jederzeit vorziehen.
Nur ist das nunmal in Zukunft zunehmend ein Key- Feature. Sowas kann man nicht bei Seite schieben, so sehr ich AMD für seine Leistung in Sachen Big Navi Tribut zolle.
Tue ich auch, nur wenn ich CP2077 spiele, kommt die 3090 rein. Ansonsten steckt die 6900XT drin.
Jeder wie er meint ;) Dafür ist es ja ein Hobby :daumen:
 

Incredible Alk

Moderator
Teammitglied
Nur ist das nunmal in Zukunft zunehmend ein Key- Feature. Sowas kann man nicht bei Seite schieben, so sehr ich AMD für seine Leistung in Sachen Big Navi Tribut zolle.
Die Frage ist halt wo die Zukunft da ist. Nach über 2 Jahren RTX gibts jetzt wenns hoch kommt ne handvoll Vorzeigespiele die RT wirklich nutzen bzw. mehr sind als "schau mal die Reflexion in der Wasserpfütze!!11" (Cyberpunk und Control halt bisher). Wenn die Verbreitung und Nutzung so schnell weitergeht wie bisher und man nicht gerade genau eines dieser Spiele spielen will hat man vermutlich noch locker Zeit bis RX7000 und RTX4000 bevor Raytracing irgendwie besonders relevant wird im breiteren Spielemarkt.
 

BxBender

BIOS-Overclocker(in)
Den Vergleich hätte man sich schenken können.
PCGH hat doch selbst festgestellt, dass die 6900XT eine stark eingeschränkt arbeitende Karte ist.
Die 6800XT mit gleichem Wattkorsett ist quasi mehr oder weniger schon genauso schnell.
Man müsste der Karte erst einmal mindestens 30 Watt mehr zur Verfügung stellen, damit die dann überhaupt zu einem Vergleich mit der insgesamt schnelleren 3090 antreten könnte.
Dann würde sich der Test hier auch gleich ganz anders lesen.
Wenn man nämlich die ganzen Ausreißerspiele wie Valhalla und Desperados ausklammert, ist die 3090 dann nur noch weniger Frames schneller.
Und dann stellt sich eigentlich nur noch die Frage, was man für Vorlieben hat und wieviel Geld man ausgeben möchte.
Denn preislich ist ja zumindest die AMD Karte stark im Vorteil.
Aber ich würde auch klar zur noch wesentlich günstigeren 6800XT tendieren.
Die 3080 hat mir einfach viel zu wenig Speicher, es sei denn man spielt nicht mit höchsten Grafikeinstellungen, humanen Auflösungen und man kann ggf. auf Raytracing verzichten, falls der Speicher mal wieder überläuft, und das wird er ansonsten am laufenden Band.
 

ZeroZerp

Freizeitschrauber(in)
Die Frage ist halt wo die Zukunft da ist. Nach über 2 Jahren RTX gibts jetzt wenns hoch kommt ne handvoll Vorzeigespiele die RT wirklich nutzen bzw. mehr sind als "schau mal die Reflexion in der Wasserpfütze!!11" (Cyberpunk und Control halt bisher).
So ist das mit den Features seit Generationen und man darf ja auch nicht vergessen, dass man hier einen kompletten Technologiewechsel angestoßen hat.

Aber erstens haben wir das Tooling für die Implementationen langsam durch (z.B. UE4), Bibliotheken/Frameworks der Hersteller und zweitens sind so manche Brutforce- Holzwege (Battlefield V, Shadow of the Tomb Raider) inzwischen erheblich effizienteren Lösungen gewichen.
Zudem entwickelt sich durch das starke Anziehen der Install- Base durch die neuen Konsolen und Radeon Karten Raytracing in diversen Bereichen zukünftig als Checkbox- Feature. Zwar nicht so, wie sich das viele vorstellen (rechenintensive Effekte wie Spiegelungen und GI<-Dafür steht in den Köpfen der User die Technik Raytracing), aber z.B. in Sachen RT AO und Verschattung.

Die Technik für letzten beiden genannten Effekte ist dem Raster- Pendant erstens qualitativ überlegen und zweitens auch performanter und Speicherschonender als beispielsweise die Drawcallmonster an deferred rendered dynamic Cascaded Shadow Maps oder ein qualitativ hochwertiges AO Verfahren. Es ist abzusehen, dass das mittelfristig noch nicht mal mehr als ein besonders zu bewerbendes Feature herausgestellt wird, weil es allein in den Konsolen- Produkten zu einem no- brainer werden könnte.

Wenn die Verbreitung und Nutzung so schnell weitergeht wie bisher und man nicht gerade genau eines dieser Spiele spielen will hat man vermutlich noch locker Zeit bis RX7000 und RTX4000 bevor Raytracing irgendwie besonders relevant wird im breiteren Spielemarkt.
Time will tell - Siehe oben. Es gibt zu viele gute Gründe, dass die Entwicklung diesbezüglich deutlich anziehen wird. Nicht abrupt, aber fließend.

Die Kollegen in den anderen Entwicklerstudios diskutieren das auch weit unaufgeregter als es die Userschaft manchmal tut. Klar- Es gibt uns einfach nur mehr Mittel bzw. Werkzeuge an die Hand für die User ein schöneres Ergebnis zu basteln.
 
Zuletzt bearbeitet:

Esenel

PC-Selbstbauer(in)
Schlechter Test.
Die AMD Karten sind besonders in neueren Spielen besser.
Nö.
Cyberpunk 2077 kommen sie nicht ran und Watch Dogs Legions nicht ganz obwohl dies für Konsolen erstellt ist.

Dass AC Walhalla und Dirt 5 AMD sponsored Titel sind weiß man ja und daher verwundert das Ergebnis nicht.

Wurde hier mit oder ohne RT getestet?!
Wenn mit RT getestet wurde, dann ist das Ergebnis kein Wunder, aber da sowieso kaum jemand RT nutzt und das mehr ein Marketing Feature ist, kann man das auch auslassen. Mit RT performen beide Karten nicht gut und teilweise sieht RT sogar unrealistisch und überladen aus.
Es wurde kein RT verwendet.
Da würde Big Navi erst richtig ins hintertreffen kommen.

Und nur weil du RT nicht nutzt, bedeutet das aber nicht dass es kaum jemand nutzt.
Hat man es selbst mal gesehen, will man es nicht mehr missen.
Aber das wirst du sicher abstreiten.

Spiele mal Metro Exodus, Control oder Cyberpunk mit max RT, dann siehst du mal was das Feature kann ;-)
Wenn man mal die Ergebnisse von CB mit euren vergleicht, dann ist die 3090 bei euch wundersamerweise immer viel schneller! Woher kommts?
Dafür ist die 6900XT zudem vieeeel günstiger und zieht auch weniger Strom.

CB testet nur mit hohen Details/Presets.
PCGH mit maximierten Settings -> Anspruchsvoller.

Scheiß auf Strom und Preis in dem Segment.
Da zählt nur die Leistung.

Will ich Strom sparen hol ich mir ne Konsole...
 

IWantToDetonate

Komplett-PC-Aufrüster(in)
Spiele mal Metro Exodus, Control oder Cyberpunk mit max RT, dann siehst du mal was das Feature kann ;-)

This.

Ich spiel Cyberpunk auf max Settings (UWQHD, mit RT Ultra und DLSS Quali), meine 3090 Strix kratzt knapp an den 60FPS (zumeist sowas wie 56-58 FPS, in seltenen Szenen bin ich auch mal über 60FPS), "ruckeln" tut trotzdem nix und es sieht absolut beeindruckend aus.

Bin eigentlich nicht so die Grafikhure aber bei RT mach ich ne Ausnahme. Jedes zukünftige Spiel mit vollen RT Support hat bei mir auf jeden Fall automatisch einen Punkt mehr auf der Haben-Seite.

Mit der Karte selbst bin ich bisher auch voll zufrieden. Mit größeren OC Experimenten warte ich noch bis ich den Wasserkühler hab auch wenn man sich davon bei den 3090ern ja nicht wirklich viel versprechen darf. Habe bisher nur feststellen können dass, egal welchen Takt ich anlege, die Karte bei 69°C dicht macht. Ggf. geht hier mit besserer Kühlung also noch ein Müh mehr.

In dem Preissegment ist mir der Stromverbrauch auch echt egal. Wäre etwas widersprüchlich unnötig viel Geld in teure Hardware zu stecken einfach weil man es kann, aber beim Strompreis dann zu knausern.
 

Gurdi

Kokü-Junkie (m/w)
Cyberpunk 2077 kommen sie nicht ran und Watch Dogs Legions nicht ganz obwohl dies für Konsolen erstellt ist.
In Watch Dogs Legion reicht bereits meine 6800XT um alle 80er und die meisten 90er zu zersägen und das bei 300Watt...

Da würde Big Navi erst richtig ins hintertreffen kommen.
Bisher haben wir auch ausschließlich Nvidia optimierte Titel zur Verfügung, das dürfte also nicht verwundern. Ich denke die AMD Karten werden auch in kommenden Titeln etwas schwächer sien bei RT, das dürfte aber eher marginal sein.
 

Cleriker

PCGH-Community-Veteran(in)
Die Frage ist halt wo die Zukunft da ist. Nach über 2 Jahren RTX gibts jetzt wenns hoch kommt ne handvoll Vorzeigespiele die RT wirklich nutzen bzw. mehr sind als "schau mal die Reflexion in der Wasserpfütze!!11" (Cyberpunk und Control halt bisher). Wenn die Verbreitung und Nutzung so schnell weitergeht wie bisher und man nicht gerade genau eines dieser Spiele spielen will hat man vermutlich noch locker Zeit bis RX7000 und RTX4000 bevor Raytracing irgendwie besonders relevant wird im breiteren Spielemarkt.
Kann ich so unterschreiben. Ich hab ja auf Grund der Nichtverfügbarkeit und eines zu langsamen Bezahlvorgangs zu release keine 6900XT bekommen und nun zwei Wochen eine 3080FE drin gehabt (nach 14 Tagen für genau einen Euro mehr weiter verkauft)und für mich ist die Zeit auch noch nicht reif für RT. Wenns nativ läuft in 2160p dann versuche ich es gern noch einmal. DLSS ist zwar prinzipiell eine Möglichkeit an mehr fps zu kommen, aber fällt bei mir optisch durch. Nativ siehts doch einfach noch besser aus, wenn auch nicht so ruhig auf den Flächen.
 

ZeroZerp

Freizeitschrauber(in)
Ein Shootout mit jeweils Max-OC kommt schon noch, oder? :D
Wäre zu aufwändig. Da müsste man sich erstmal z.B. die 3090 Kingpin Edition holen, die den Weltrekord aufgestellt hat und wahrscheinlich ebenso stark modifizierte Nitro anschaffen.

Ansonsten wäre solch ein OC Vergleich ein Vergleich von Äpfeln, Birnen mit einer viel zu kräftigen Prise sillicone lottery.

Abseits davon wäre es ein stinknormaler Vergleich verschiedener Karten unter Wasserkühlung.
Dann stellt sich noch die Frage, welchen Benchmark man verwendet.
Es macht einen erheblichen Unterschied aus, ob man z.B. ein Port Royal dafür anstrengt oder irgendetwas anderes, was dann der einen oder der anderen Karte liegen kann.

Sorry, aber sowas schreit geradezu wieder nach "ihr habt Karte XY absichtlich in ein schlechtes Licht gerückt weil...".
Die unterschiedliche Auslegung der Karten machen das ganze nicht einfacher.

Nimmt man ein DLSS mit rein? Nimmt man Raytracing mit rein? Will man tatsächlich die Maximalleistung aller Gewerke zusammen ermitteln müsste man das eigentlich tun.

Die über hundert Teraflops an Zusatzrechenleistung für die Dedizierten Einheiten, dafür sind ja nunmal hardwaretechnisch auf den NVIDIA Karten vorhanden und können z.B. durch DLSS genutzt werden.

Fazit: So ein max- oc- Test kann also nichts werden, da es kein max oc Test wäre.
Oder man pflückt einen vermeintlichen OC Gesamttest wieder in zig Einzeltests, unter vorbehalt der technischen Qualität der GPU- Chips, die am Ende keine wirkliche Vergleichbarkeit mittels eines Gesamtratings zulassen.

Und wie gesagt- Der Fanboy- Krieg im Forum wäre vorprogrammiert und ich bin der Meinung, dass man so einen Blödsinn nicht noch zusätzlich befeuern muss.
Lest Euch lieber Einzeltests bezüglich wassergekühlter Exemplare durch. Da kann jeder die für sich interessanten Daten raussuchen.

Falls es Dich interessiert:
Eine Wassergekühlte 6900XT ist mit 2,7GHz Takt im 3D Mark Timespy, also reiner raster- Leistung mit hoher und komplexer shader- Last, ungefähr so schnell wie eine Stock 3090 FE.



In Szenerien mit flacheren Shader- Workloads würde eine 6900xt nochmal ein Pfund drauflegen.... Wie gesagt- Die Karten und deren Ausrichtung sind einfach unterschiedlich.

Just my 2 cents
 
Zuletzt bearbeitet:

manimani89

BIOS-Overclocker(in)
Man findet auf Nvidia-Seite ebenfalls Games auch abseits des Mainstreams die schlecht laufen. Aktuelle Titel wie Godfall oder Immortals Fenyx Rising laufen auf Radeons zum Teil deutlich besser: https://gamegpu.com/action-/-fps-/-tps/immortals-fenyx-rising-test-gpu-cpu

Davon gibt es noch weitere Beispiele, es ist immer die Auswahl die das Pendel stark in die eine oder andere Richtung schwingen lässt. Bei PCGH hat man weniger populäre Games, die sehr schlecht auf Nvidia laufen so gut wie nie gebencht seit dem Blanko-NDA. Es wäre schon etwas scheinheilig, vorzugeben dass kleine/unbekanntere Titel immer nur auf AMD-Seite schlechter laufen.
also godfall braucht nichtmal 9gb vram in 4k
 

Gurdi

Kokü-Junkie (m/w)
Godfall Vram
Screenshot (472).jpg


WatchDogs QHD Ultra
WDL QHD High OC.jpg



Die PCGH Szene schau ich mir am we mal an.
 

Esenel

PC-Selbstbauer(in)
Bleibt dabei sogar 100W unter maximalem Power Budget. Typisch für Konsolen optimierte Titel :-D

Watch Dogs Legion - 1440p - Ultra Preset
Watch Dogs  Legion Screenshot 2021.01.19 - 08.41.22.34.png


Mal noch ein zweiter Run. Hebt die Min FPS an.
Watch Dogs  Legion Screenshot 2021.01.19 - 08.55.27.02.png
 
Zuletzt bearbeitet:

Cleriker

PCGH-Community-Veteran(in)
Wow, da hat Gurdi ja nicht zuviel versprochen. Seine 6800XT kommt ja wirklich fast auf die Werte deiner 3090. Schön zu sehen. :daumen:
 

Esenel

PC-Selbstbauer(in)
Bei nem Konsolen optimierten Titel kann man halt ne Karte von Team Grün nicht voll ausfahren. ;-)
Aber sind ja noch rund 9% Puffer.

Mit res BAR geht dann bei der 3090 auch nochmal was.

War SAM bei @Gurdi an?
 

Cleriker

PCGH-Community-Veteran(in)
Keine Ahnung und ich gebe dir Recht.
Seine Aussage bezog sich ja auch auf solch Titel. Also das mit "alle 3080 und manche 3090".
 

Esenel

PC-Selbstbauer(in)
Japp in WDL performt RDNA2 super.

In AC Walhalla und Dirt5 zeigt man keine liebe für grüne Karten.

Es braucht noch ein paar neue Titel, aber dass die Konsolen RDNA2 verwenden schadet sicher nicht :-)
 

Esenel

PC-Selbstbauer(in)
SAM sind laut HUB ~3% in 1440p.
Magst das mal testen wenns kein großer Aufwand ist?

Meine bei ~400W von möglichen 520W. :daumen2:
 

Cleriker

PCGH-Community-Veteran(in)
Japp in WDL performt RDNA2 super.

In AC Walhalla und Dirt5 zeigt man keine liebe für grüne Karten.

Es braucht noch ein paar neue Titel, aber dass die Konsolen RDNA2 verwenden schadet sicher nicht :-)
Also letztere Meinung... weiß nicht. In der letzten Konsolengeneration war auch schon AMD only drin und das hat nichts verändert. Die Entwickler haben bei Nvidia einfach viele fertige Bibliotheken zur Auswahl die sie simpel implementieren können und ein riesiges Team an Helfern seitens Nvidia.
Das ist etwas das AMD so nicht in der Form, vor allem aber nicht in der Größe hat.
 
Oben Unten