Fps-Duell in 30 Spielen: Radeon RX 6900 XT vs. Geforce RTX 3090

Dennoch haben die Nvidia Grafikkarten richtig laufendes Raytracing wie auch DLSS 2.0 was die AMD Dinger gar nicht haben. Gott sei Dank bin ich Nvidia Anhänger
 
Also meine "Nischengames" liefen sowohl mit einer 3080/3090 als auch mit den beiden 6800ern mit gefühlten drölftausend Fps und hängen im CPU Limit weil Dx11. Die Karten dieser Leistungsklasse lachen doch über solche Titel.
Komisch, die Balken müssten doch gleichlang sein wenn die Spiele im CPU-Limit wären?

AMD performt abseits der AAA-Titel einfach meist schlechter als Nvidia. Meine Meinung bleibt stehen. Und Aussagen wie: "Große Unterschiede in Nischen-Games merke ich doch sowieso nicht mit meiner fetten Karte" helfen da leider auch nicht, denn solche Karten machen wenige Prozent des Marktes aus. Abgesehen davon sind z.B. Early-Access-Spiele nicht gleichbedeutend mit Nischen-spielen..
In DayZ ist die 6900XT leider ein kompletter fail und ist nicht mal halb so schnell wie die 3080.
Genau sowas meine ich. AMD optimiert leider hauptsächlich nur für den Mainstream, und darüber sollte endlich mal gesprochen werden. Der alte Computerbase-Test ist wirklich das einzige was man zu dem Thema findet.
 
Man findet auf Nvidia-Seite ebenfalls Games auch abseits des Mainstreams die schlecht laufen. Aktuelle Titel wie Godfall oder Immortals Fenyx Rising laufen auf Radeons zum Teil deutlich besser: https://gamegpu.com/action-/-fps-/-tps/immortals-fenyx-rising-test-gpu-cpu

Davon gibt es noch weitere Beispiele, es ist immer die Auswahl die das Pendel stark in die eine oder andere Richtung schwingen lässt. Bei PCGH hat man weniger populäre Games, die sehr schlecht auf Nvidia laufen so gut wie nie gebencht seit dem Blanko-NDA. Es wäre schon etwas scheinheilig, vorzugeben dass kleine/unbekanntere Titel immer nur auf AMD-Seite schlechter laufen.
 
Zuletzt bearbeitet von einem Moderator:
Dennoch haben die Nvidia Grafikkarten richtig laufendes Raytracing wie auch DLSS 2.0 was die AMD Dinger gar nicht haben. Gott sei Dank bin ich Nvidia Anhänger
Noch nicht haben.

btw

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

+

Raytracing GI für Reshade und du hast nahezu das selbe Ergebnis. Musst halt nur selbst Hand anlegen.

bezüglich benchmarks, können wir machen. Ich lade die Nacht alles runter und morgen teste ich dann. Das System samt OS ist frisch, habe keins deiner genannten Spiele installiert.

und was dayz betrifft, das Spiel ist absoluter bullshit und miserabel optimiert.
 
Zuletzt bearbeitet von einem Moderator:
So ist es, wenn int gefordert wird kackt Ampere ab und fällt auf Turingperformance zurück. Zudem bewirkt eine höhere Komplexität auch eine schwiegere Auslastung. Die Achillesferse ist dabei der nicht angewachsene L2 Cache, dann kann man sich kaum von Turing absetzen und jeder 2080ti Besitzer kann sich zurücklehnen, bei 1GiB mehr VRAM.
Und bei welchen Spielen genau soll das der Fall sein? Mir ist nur Anno 1800 bekannt was Ampere etwas schwer im Magen liegt. Nvidia ist nicht ohne Grund den aktuellen Weg gegangen, Spiele verlangen eher nach FP statt INT. Engines wie die UE4 und sicher auch die kommende UE5 verlangen sogar brutal nach FP. Turing sieht in UE4 Titeln wie Borderlands 3 oder Jedi Fallen Order kein Land verglichen mit Ampere.
 
Noch nicht haben.

btw

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

+

Raytracing GI für Reshade und du hast nahezu das selbe Ergebnis. Musst halt nur selbst Hand anlegen.

bezüglich benchmarks, können wir machen. Ich lade die Nacht alles runter und morgen teste ich dann. Das System samt OS ist frisch, habe keins deiner genannten Spiele installiert.

und was dayz betrifft, das Spiel ist absoluter bullshit und miserabel optimiert.
Das ist nicht der Punkt sondern die von AMD kamen später raus also hatten sie die Zeit und Gengelegenheit besser zu werden und sind es am Ende nicht. Und am meisten gingen mir die hier auf die Eier, die solche Sprüche abgelassen haben warte bis die AMD Grafikkarten da sind ja ja klar ich warte und was dann die haben das Rennen verloren und wie gesagt die beiden erwähnten Sachen sind entweder nicht so geworden oder sie haben sie gar nicht aber ja dafür 16 GB RAM, die ich gar nicht brauche und ich kaufe nicht eine Grafikkarte um daran eben selber noch rumfummeln zu müssen um etwas zu haben. Bei dem Preis erwarte ich von Grafikkarten dass sie es von Haus aus haben. Deswegen ist schon allein Nvidia besser
 
Die 3090 und die 6900XT sind auf Augenhöhe. Mal ist Nvidia schneller, mal AMD. Aber im Durchschnitt sind beide @Stock Boost gleichauf.
Im Benchmark hier ist die AMD Karte in 5 (in UHD sogar nur 2 :ugly:) von 30 Spielen vorne. Das nennst du Augenhöhe?
Btw. sagt der Takt alleine nichts über die Effizienz/Performance der Karte aus, auch wenn du es gerne so darstellen möchtest, damit dein AMD besser wegkommt.

Interessiert sich bei einer Grafikkarte wirklich jemand für Effizienz pro Takt?
Das ist auch son Ding.
Wer eine Karte kauft die am Sweetspot läuft, der interessiert sich für Effzienz. Wer eine 3090 oder 6900XT kauft, scheißt auf den Verbrauch/die Effizienz und die beiden Streiten sich darum, welche von den beiden High-End Karten effizienter ist bei 20W Unterschied.
:lol::lol:

So ist es, wenn int gefordert wird kackt Ampere ab und fällt auf Turingperformance zurück.
Bei INT ist die 3090 also nur so schnell wie ne 2080TI? Kannst du das auch irgendwie belegen, denn in Benchmarks seh ich davon nichts.

Also meine "Nischengames" liefen sowohl mit einer 3080/3090 als auch mit den beiden 6800ern mit gefühlten drölftausend Fps und hängen im CPU Limit weil Dx11. Die Karten dieser Leistungsklasse lachen doch über solche Titel.
Im CPU Limit unter DX11 kackt AMD ab. Nvidia nimmt mit Treibertricks ein wenig vom DX11 Drawcall Overhead raus und performt dadurch besser. Ab DX12/VK spielt das aber keine Rolle mehr.

Man findet auf Nvidia-Seite ebenfalls Games auch abseits des Mainstreams die schlecht laufen. Aktuelle Titel wie Godfall oder Immortals Fenyx Rising laufen auf Radeons zum Teil deutlich besser: https://gamegpu.com/action-/-fps-/-tps/immortals-fenyx-rising-test-gpu-cpu
Schalt mal auf 4K um, dann sieht das Bild schon wieder ganz anders aus. 1080p ist CPU limitiert.
 
Zuletzt bearbeitet:
Im CPU Limit unter DX11 kackt AMD ab. Nvidia nimmt mit Treibertricks ein wenig vom DX11 Drawcall Overhead raus und performt dadurch besser. Ab DX12/VK spielt das aber keine Rolle mehr.
Die Zeiten sind rum, die AMD Karten sind meist schneller im Overhead. In FHD z.B. sieht eine 3090 kein Land.
Das ist schon seit Navi so.
 
Hier gibt's "Overhead-Benchmarks" en masse: https://www.pcgameshardware.de/Ryze...ls/SMT-Vergleich-CPU-Test-mit-Radeon-1364596/

Davon gibt es noch weitere Beispiele, es ist immer die Auswahl die das Pendel stark in die eine oder andere Richtung schwingen lässt. Bei PCGH hat man weniger populäre Games, die sehr schlecht auf Nvidia laufen so gut wie nie gebencht seit dem Blanko-NDA. Es wäre schon etwas scheinheilig, vorzugeben dass kleine/unbekanntere Titel immer nur auf AMD-Seite schlechter laufen.

Das mit vielen Verschwörungstheorien belegte NDA hat unsere Testauswahl exakt Null (in Zahlen: 0) tangiert. Sollte sich das ändern, muss meinen Job jemand anderes machen. Also bitte lass diesen Unsinn endlich stecken, ich möchte das nicht ständig wiederolen. :-) Wenn wir etwas nicht testen, dann aus Zeitgründen - Zeit und eine Nutzen-Abschätzung bestimmt, ob wir etwas notgedrungen liegenlassen müssen oder nicht.

MfG
Raff
 
Schlechter Test.
Die AMD Karten sind besonders in neueren Spielen besser.
In alten Spielen haben beide Karten mehr als genug Leistung.
Außerdem ist der Test intransparent. Wurde hier mit oder ohne RT getestet?!
Wenn mit RT getestet wurde, dann ist das Ergebnis kein Wunder, aber da sowieso kaum jemand RT nutzt und das mehr ein Marketing Feature ist, kann man das auch auslassen. Mit RT performen beide Karten nicht gut und teilweise sieht RT sogar unrealistisch und überladen aus.
Es kommt wohl immer sehr darauf an wie getestet wird.
Hier ist die 6900XT nur wenige Prozent langsamer gewesen. Das ist im Spiel praktisch nicht spürbar.
Dennoch widersprechen die Ergebnisse von CB euren Tests. In Anno 1800 z.B. ist die 6900XT schneller gewesen.
Bei euch nun angeblich langsamer. Wenn man mal die Ergebnisse von CB mit euren vergleicht, dann ist die 3090 bei euch wundersamerweise immer viel schneller! Woher kommts?
Dafür ist die 6900XT zudem vieeeel günstiger und zieht auch weniger Strom.
 
Ich persönliche empfinde die 6900XT dennoch als spannenderes Produkt. Die aktuellen Marktpreise sind einfach mal gute 30 % günstiger im Vergleich zu einer 3090 und mit bereits im Treibermenü (Nvidia 90er-Systemsteuerung hust) enthaltenen Optimierungsmöglichkeiten ein echtes Stromsparwunder. Einfach mal die Lüfter auf 100% laufen lassen und Strommessgerät an den PC hängen. Ein echtes Wunder was da passiert. Ein noch besseres P/L-Verhältnis hat die 6800XT.

Wenn Raytracing in bestimmten Spiele nicht wäre, würde ich die 6900XT jederzeit vorziehen. Tue ich auch, nur wenn ich CP2077 spiele, kommt die 3090 rein. Ansonsten steckt die 6900XT drin.
 
Ich persönliche empfinde die 6900XT dennoch als spannenderes Produkt. Die aktuellen Marktpreise sind einfach mal gute 30 % günstiger im Vergleich zu einer 3090
Die Marktpreise fluktuieren so stark, dass dies im Augenblick als Argument ausfällt. Ich habe die 3090FE, die ich hier liegen hab für 1499 brutto erhalten. Spannender finde ich die 6900XT auch nicht, weil das Ökosystem rund um die NVIDIA Hardware mit weitem Abstand mehr zu bieten hat und deutlich ausgereifter ist. Zudem sind zukunftsweisende Features der NVIDIA- Karten Hardwaretechnisch bei AMD relativ schwach unterfüttert.

und mit bereits im Treibermenü (Nvidia 90er-Systemsteuerung hust) enthaltenen Optimierungsmöglichkeiten ein echtes Stromsparwunder.
Meine 3090 verbraucht nach meinen Optimierungen inkl. VSYNC auf 60Hz je nach Titel zwischen 130 und 240 Watt auf 1440P. Das ist erträglich.
Welches Softwarepaket man dafür nutzt, beleibt jedem selbst überlassen. Ich ziehe den Afterburner dem AMD Internen Tool auf meiner 6800XT im Zweitsystem vor.

Einfach mal die Lüfter auf 100% laufen lassen und Strommessgerät an den PC hängen. Ein echtes Wunder was da passiert. Ein noch besseres P/L-Verhältnis hat die 6800XT.
...die derzeit in den Preisvergleichen ab 1174,-€ gelistet ist (Nitro 1799,-).
Das tatsächliche Preis-/Leistungsverhältnis ist derzeit bei allen Karten schlecht. Ausnahmen bestätigen die Regel.
Von einem "hätte", "währe" und UVPs kann hier seit langer Zeit keiner abbeissen.
NVIDIA hält wenigstens beim offiziellen Lieferanten NBB bei den FEs die Hand auf den Preisen und hält somit Wort.
Wenn Raytracing in bestimmten Spiele nicht wäre, würde ich die 6900XT jederzeit vorziehen.
Nur ist das nunmal in Zukunft zunehmend ein Key- Feature. Sowas kann man nicht bei Seite schieben, so sehr ich AMD für seine Leistung in Sachen Big Navi Tribut zolle.
Tue ich auch, nur wenn ich CP2077 spiele, kommt die 3090 rein. Ansonsten steckt die 6900XT drin.
Jeder wie er meint ;) Dafür ist es ja ein Hobby :daumen:
 
Nur ist das nunmal in Zukunft zunehmend ein Key- Feature. Sowas kann man nicht bei Seite schieben, so sehr ich AMD für seine Leistung in Sachen Big Navi Tribut zolle.
Die Frage ist halt wo die Zukunft da ist. Nach über 2 Jahren RTX gibts jetzt wenns hoch kommt ne handvoll Vorzeigespiele die RT wirklich nutzen bzw. mehr sind als "schau mal die Reflexion in der Wasserpfütze!!11" (Cyberpunk und Control halt bisher). Wenn die Verbreitung und Nutzung so schnell weitergeht wie bisher und man nicht gerade genau eines dieser Spiele spielen will hat man vermutlich noch locker Zeit bis RX7000 und RTX4000 bevor Raytracing irgendwie besonders relevant wird im breiteren Spielemarkt.
 
Den Vergleich hätte man sich schenken können.
PCGH hat doch selbst festgestellt, dass die 6900XT eine stark eingeschränkt arbeitende Karte ist.
Die 6800XT mit gleichem Wattkorsett ist quasi mehr oder weniger schon genauso schnell.
Man müsste der Karte erst einmal mindestens 30 Watt mehr zur Verfügung stellen, damit die dann überhaupt zu einem Vergleich mit der insgesamt schnelleren 3090 antreten könnte.
Dann würde sich der Test hier auch gleich ganz anders lesen.
Wenn man nämlich die ganzen Ausreißerspiele wie Valhalla und Desperados ausklammert, ist die 3090 dann nur noch weniger Frames schneller.
Und dann stellt sich eigentlich nur noch die Frage, was man für Vorlieben hat und wieviel Geld man ausgeben möchte.
Denn preislich ist ja zumindest die AMD Karte stark im Vorteil.
Aber ich würde auch klar zur noch wesentlich günstigeren 6800XT tendieren.
Die 3080 hat mir einfach viel zu wenig Speicher, es sei denn man spielt nicht mit höchsten Grafikeinstellungen, humanen Auflösungen und man kann ggf. auf Raytracing verzichten, falls der Speicher mal wieder überläuft, und das wird er ansonsten am laufenden Band.
 
Die Frage ist halt wo die Zukunft da ist. Nach über 2 Jahren RTX gibts jetzt wenns hoch kommt ne handvoll Vorzeigespiele die RT wirklich nutzen bzw. mehr sind als "schau mal die Reflexion in der Wasserpfütze!!11" (Cyberpunk und Control halt bisher).
So ist das mit den Features seit Generationen und man darf ja auch nicht vergessen, dass man hier einen kompletten Technologiewechsel angestoßen hat.

Aber erstens haben wir das Tooling für die Implementationen langsam durch (z.B. UE4), Bibliotheken/Frameworks der Hersteller und zweitens sind so manche Brutforce- Holzwege (Battlefield V, Shadow of the Tomb Raider) inzwischen erheblich effizienteren Lösungen gewichen.
Zudem entwickelt sich durch das starke Anziehen der Install- Base durch die neuen Konsolen und Radeon Karten Raytracing in diversen Bereichen zukünftig als Checkbox- Feature. Zwar nicht so, wie sich das viele vorstellen (rechenintensive Effekte wie Spiegelungen und GI<-Dafür steht in den Köpfen der User die Technik Raytracing), aber z.B. in Sachen RT AO und Verschattung.

Die Technik für letzten beiden genannten Effekte ist dem Raster- Pendant erstens qualitativ überlegen und zweitens auch performanter und Speicherschonender als beispielsweise die Drawcallmonster an deferred rendered dynamic Cascaded Shadow Maps oder ein qualitativ hochwertiges AO Verfahren. Es ist abzusehen, dass das mittelfristig noch nicht mal mehr als ein besonders zu bewerbendes Feature herausgestellt wird, weil es allein in den Konsolen- Produkten zu einem no- brainer werden könnte.

Wenn die Verbreitung und Nutzung so schnell weitergeht wie bisher und man nicht gerade genau eines dieser Spiele spielen will hat man vermutlich noch locker Zeit bis RX7000 und RTX4000 bevor Raytracing irgendwie besonders relevant wird im breiteren Spielemarkt.
Time will tell - Siehe oben. Es gibt zu viele gute Gründe, dass die Entwicklung diesbezüglich deutlich anziehen wird. Nicht abrupt, aber fließend.

Die Kollegen in den anderen Entwicklerstudios diskutieren das auch weit unaufgeregter als es die Userschaft manchmal tut. Klar- Es gibt uns einfach nur mehr Mittel bzw. Werkzeuge an die Hand für die User ein schöneres Ergebnis zu basteln.
 
Zuletzt bearbeitet:
Schlechter Test.
Die AMD Karten sind besonders in neueren Spielen besser.
Nö.
Cyberpunk 2077 kommen sie nicht ran und Watch Dogs Legions nicht ganz obwohl dies für Konsolen erstellt ist.

Dass AC Walhalla und Dirt 5 AMD sponsored Titel sind weiß man ja und daher verwundert das Ergebnis nicht.

Wurde hier mit oder ohne RT getestet?!
Wenn mit RT getestet wurde, dann ist das Ergebnis kein Wunder, aber da sowieso kaum jemand RT nutzt und das mehr ein Marketing Feature ist, kann man das auch auslassen. Mit RT performen beide Karten nicht gut und teilweise sieht RT sogar unrealistisch und überladen aus.
Es wurde kein RT verwendet.
Da würde Big Navi erst richtig ins hintertreffen kommen.

Und nur weil du RT nicht nutzt, bedeutet das aber nicht dass es kaum jemand nutzt.
Hat man es selbst mal gesehen, will man es nicht mehr missen.
Aber das wirst du sicher abstreiten.

Spiele mal Metro Exodus, Control oder Cyberpunk mit max RT, dann siehst du mal was das Feature kann ;-)
Wenn man mal die Ergebnisse von CB mit euren vergleicht, dann ist die 3090 bei euch wundersamerweise immer viel schneller! Woher kommts?
Dafür ist die 6900XT zudem vieeeel günstiger und zieht auch weniger Strom.

CB testet nur mit hohen Details/Presets.
PCGH mit maximierten Settings -> Anspruchsvoller.

Scheiß auf Strom und Preis in dem Segment.
Da zählt nur die Leistung.

Will ich Strom sparen hol ich mir ne Konsole...
 
Zurück