DarthSlayer
Freizeitschrauber(in)
Dennoch haben die Nvidia Grafikkarten richtig laufendes Raytracing wie auch DLSS 2.0 was die AMD Dinger gar nicht haben. Gott sei Dank bin ich Nvidia Anhänger
Komisch, die Balken müssten doch gleichlang sein wenn die Spiele im CPU-Limit wären?Also meine "Nischengames" liefen sowohl mit einer 3080/3090 als auch mit den beiden 6800ern mit gefühlten drölftausend Fps und hängen im CPU Limit weil Dx11. Die Karten dieser Leistungsklasse lachen doch über solche Titel.
Genau sowas meine ich. AMD optimiert leider hauptsächlich nur für den Mainstream, und darüber sollte endlich mal gesprochen werden. Der alte Computerbase-Test ist wirklich das einzige was man zu dem Thema findet.In DayZ ist die 6900XT leider ein kompletter fail und ist nicht mal halb so schnell wie die 3080.
Noch nicht haben.Dennoch haben die Nvidia Grafikkarten richtig laufendes Raytracing wie auch DLSS 2.0 was die AMD Dinger gar nicht haben. Gott sei Dank bin ich Nvidia Anhänger
Und bei welchen Spielen genau soll das der Fall sein? Mir ist nur Anno 1800 bekannt was Ampere etwas schwer im Magen liegt. Nvidia ist nicht ohne Grund den aktuellen Weg gegangen, Spiele verlangen eher nach FP statt INT. Engines wie die UE4 und sicher auch die kommende UE5 verlangen sogar brutal nach FP. Turing sieht in UE4 Titeln wie Borderlands 3 oder Jedi Fallen Order kein Land verglichen mit Ampere.So ist es, wenn int gefordert wird kackt Ampere ab und fällt auf Turingperformance zurück. Zudem bewirkt eine höhere Komplexität auch eine schwiegere Auslastung. Die Achillesferse ist dabei der nicht angewachsene L2 Cache, dann kann man sich kaum von Turing absetzen und jeder 2080ti Besitzer kann sich zurücklehnen, bei 1GiB mehr VRAM.
Das ist nicht der Punkt sondern die von AMD kamen später raus also hatten sie die Zeit und Gengelegenheit besser zu werden und sind es am Ende nicht. Und am meisten gingen mir die hier auf die Eier, die solche Sprüche abgelassen haben warte bis die AMD Grafikkarten da sind ja ja klar ich warte und was dann die haben das Rennen verloren und wie gesagt die beiden erwähnten Sachen sind entweder nicht so geworden oder sie haben sie gar nicht aber ja dafür 16 GB RAM, die ich gar nicht brauche und ich kaufe nicht eine Grafikkarte um daran eben selber noch rumfummeln zu müssen um etwas zu haben. Bei dem Preis erwarte ich von Grafikkarten dass sie es von Haus aus haben. Deswegen ist schon allein Nvidia besserNoch nicht haben.
btw
Eingebundener InhaltYoutubeAn dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
+
Raytracing GI für Reshade und du hast nahezu das selbe Ergebnis. Musst halt nur selbst Hand anlegen.
bezüglich benchmarks, können wir machen. Ich lade die Nacht alles runter und morgen teste ich dann. Das System samt OS ist frisch, habe keins deiner genannten Spiele installiert.
und was dayz betrifft, das Spiel ist absoluter bullshit und miserabel optimiert.
Im Benchmark hier ist die AMD Karte in 5 (in UHD sogar nur 2 ) von 30 Spielen vorne. Das nennst du Augenhöhe?Die 3090 und die 6900XT sind auf Augenhöhe. Mal ist Nvidia schneller, mal AMD. Aber im Durchschnitt sind beide @Stock Boost gleichauf.
Das ist auch son Ding.Interessiert sich bei einer Grafikkarte wirklich jemand für Effizienz pro Takt?
Bei INT ist die 3090 also nur so schnell wie ne 2080TI? Kannst du das auch irgendwie belegen, denn in Benchmarks seh ich davon nichts.So ist es, wenn int gefordert wird kackt Ampere ab und fällt auf Turingperformance zurück.
Im CPU Limit unter DX11 kackt AMD ab. Nvidia nimmt mit Treibertricks ein wenig vom DX11 Drawcall Overhead raus und performt dadurch besser. Ab DX12/VK spielt das aber keine Rolle mehr.Also meine "Nischengames" liefen sowohl mit einer 3080/3090 als auch mit den beiden 6800ern mit gefühlten drölftausend Fps und hängen im CPU Limit weil Dx11. Die Karten dieser Leistungsklasse lachen doch über solche Titel.
Schalt mal auf 4K um, dann sieht das Bild schon wieder ganz anders aus. 1080p ist CPU limitiert.Man findet auf Nvidia-Seite ebenfalls Games auch abseits des Mainstreams die schlecht laufen. Aktuelle Titel wie Godfall oder Immortals Fenyx Rising laufen auf Radeons zum Teil deutlich besser: https://gamegpu.com/action-/-fps-/-tps/immortals-fenyx-rising-test-gpu-cpu
So wie physix die Zukunft war? Da kann sich schnell alles ändern... Noch ist nix sicherNaja sobald RT an ist relativiert sich die reine Rechenleistung aber ganz schnell. Auch wenn es viele nicht wahrhaben wollen, RT ist die Zukunft und wird immer mehr kommen. Bin ganz zufrieden die 3090 der 6900XT vorgezogen zu haben.
Die Zeiten sind rum, die AMD Karten sind meist schneller im Overhead. In FHD z.B. sieht eine 3090 kein Land.Im CPU Limit unter DX11 kackt AMD ab. Nvidia nimmt mit Treibertricks ein wenig vom DX11 Drawcall Overhead raus und performt dadurch besser. Ab DX12/VK spielt das aber keine Rolle mehr.
PhysX ist nicht weg, sondern standard in vielen Engines. Als Beispiel könnte man die UE4 nennen.So wie physix die Zukunft war? Da kann sich schnell alles ändern... Noch ist nix sicher
Davon gibt es noch weitere Beispiele, es ist immer die Auswahl die das Pendel stark in die eine oder andere Richtung schwingen lässt. Bei PCGH hat man weniger populäre Games, die sehr schlecht auf Nvidia laufen so gut wie nie gebencht seit dem Blanko-NDA. Es wäre schon etwas scheinheilig, vorzugeben dass kleine/unbekanntere Titel immer nur auf AMD-Seite schlechter laufen.
Die Marktpreise fluktuieren so stark, dass dies im Augenblick als Argument ausfällt. Ich habe die 3090FE, die ich hier liegen hab für 1499 brutto erhalten. Spannender finde ich die 6900XT auch nicht, weil das Ökosystem rund um die NVIDIA Hardware mit weitem Abstand mehr zu bieten hat und deutlich ausgereifter ist. Zudem sind zukunftsweisende Features der NVIDIA- Karten Hardwaretechnisch bei AMD relativ schwach unterfüttert.Ich persönliche empfinde die 6900XT dennoch als spannenderes Produkt. Die aktuellen Marktpreise sind einfach mal gute 30 % günstiger im Vergleich zu einer 3090
Meine 3090 verbraucht nach meinen Optimierungen inkl. VSYNC auf 60Hz je nach Titel zwischen 130 und 240 Watt auf 1440P. Das ist erträglich.und mit bereits im Treibermenü (Nvidia 90er-Systemsteuerung hust) enthaltenen Optimierungsmöglichkeiten ein echtes Stromsparwunder.
...die derzeit in den Preisvergleichen ab 1174,-€ gelistet ist (Nitro 1799,-).Einfach mal die Lüfter auf 100% laufen lassen und Strommessgerät an den PC hängen. Ein echtes Wunder was da passiert. Ein noch besseres P/L-Verhältnis hat die 6800XT.
Nur ist das nunmal in Zukunft zunehmend ein Key- Feature. Sowas kann man nicht bei Seite schieben, so sehr ich AMD für seine Leistung in Sachen Big Navi Tribut zolle.Wenn Raytracing in bestimmten Spiele nicht wäre, würde ich die 6900XT jederzeit vorziehen.
Jeder wie er meint Dafür ist es ja ein HobbyTue ich auch, nur wenn ich CP2077 spiele, kommt die 3090 rein. Ansonsten steckt die 6900XT drin.
Die Frage ist halt wo die Zukunft da ist. Nach über 2 Jahren RTX gibts jetzt wenns hoch kommt ne handvoll Vorzeigespiele die RT wirklich nutzen bzw. mehr sind als "schau mal die Reflexion in der Wasserpfütze!!11" (Cyberpunk und Control halt bisher). Wenn die Verbreitung und Nutzung so schnell weitergeht wie bisher und man nicht gerade genau eines dieser Spiele spielen will hat man vermutlich noch locker Zeit bis RX7000 und RTX4000 bevor Raytracing irgendwie besonders relevant wird im breiteren Spielemarkt.Nur ist das nunmal in Zukunft zunehmend ein Key- Feature. Sowas kann man nicht bei Seite schieben, so sehr ich AMD für seine Leistung in Sachen Big Navi Tribut zolle.
WatchDogs Legion würde ich noch dazu nehmen, das sieht wirklich klasse aus ob mit oder ohne RT, vor allem von HDR profitiert der Titel.(Cyberpunk und Control halt bisher)
So ist das mit den Features seit Generationen und man darf ja auch nicht vergessen, dass man hier einen kompletten Technologiewechsel angestoßen hat.Die Frage ist halt wo die Zukunft da ist. Nach über 2 Jahren RTX gibts jetzt wenns hoch kommt ne handvoll Vorzeigespiele die RT wirklich nutzen bzw. mehr sind als "schau mal die Reflexion in der Wasserpfütze!!11" (Cyberpunk und Control halt bisher).
Time will tell - Siehe oben. Es gibt zu viele gute Gründe, dass die Entwicklung diesbezüglich deutlich anziehen wird. Nicht abrupt, aber fließend.Wenn die Verbreitung und Nutzung so schnell weitergeht wie bisher und man nicht gerade genau eines dieser Spiele spielen will hat man vermutlich noch locker Zeit bis RX7000 und RTX4000 bevor Raytracing irgendwie besonders relevant wird im breiteren Spielemarkt.
Nö.Schlechter Test.
Die AMD Karten sind besonders in neueren Spielen besser.
Es wurde kein RT verwendet.Wurde hier mit oder ohne RT getestet?!
Wenn mit RT getestet wurde, dann ist das Ergebnis kein Wunder, aber da sowieso kaum jemand RT nutzt und das mehr ein Marketing Feature ist, kann man das auch auslassen. Mit RT performen beide Karten nicht gut und teilweise sieht RT sogar unrealistisch und überladen aus.
Wenn man mal die Ergebnisse von CB mit euren vergleicht, dann ist die 3090 bei euch wundersamerweise immer viel schneller! Woher kommts?
Dafür ist die 6900XT zudem vieeeel günstiger und zieht auch weniger Strom.