RTX 3080 OC vs. FE RX 6090 XT .... welche bei gleichem Kaufpreis?

pings

Schraubenverwechsler(in)
Hallo zusammen,

die Frage ist relativ simpel... sollte man bei gleichem Preis (knapp unter 1 TEUR) zu einer 3080 von Nvidia oder zur Founder RX 6900 von AMD greifen. Grund fürs aufrüsten war Cyberpunk, das ich aber seit erscheinen nicht mehr zocke weil ich die Patches abwarten möchte um das Spiel im bestmöglichen Zustand zu erleben. Ich denke aktuell fällt die Entscheidung klar auf die Nvidia Karte, aber sollte man nicht annehmen das die nächsten AMD treiber RT in neue Spähren hieven und CD Projekt und andere Hersteller Raytracing für AMD Karten implementieren?

Danke euch

hier noch zum Hintergrund (sry für den Roman):
ich war mit meiner 2080 zwei Jahre super zufrieden, alles in WQHD in top Einstellungen und dachte mir als die neuen Ampere Grafikkarten rausgekommen sind... *juckt mich nicht, meine ist so gut, ich warte wie immer bis zu nächsten Generation*.
Tja, und dann kam Cyberpunk raus und ich dachte mir... *häh Grafik voll geil... aber 30 FPS... bin ich im falschen Film?* und da wart der Wunsch nach einer neuen Graka geboren und wurde von Tag zu Tag größer und so war es dann vor zwei Wochen als ich bei Media Markt eine Gainward RTX 3080 Phantom für knapp unter 1 TEUR erwarb... so ganz glücklich machte mich die Karte anfangs nicht,, zusammen mit ihrer Halterung verdeckt die Karte sämtliche PCI Slots meines Boards so das ich meine Soundkarte mit zusätzlichem PCI Kabel vertikal eingebaut habe.. außerdem übertrifft die Karte bei Last in Sachen Lautstärke (Lüftergeräusch unter Last) alles bislang erlebte, na ja mit Custom Lüfter Profil ging es dann.
Nun dachte ich mir....*mal schauen ob ich während der Widerrufsfrist eine Founders 3080 oder die von mir präferierte ASUS Tuf 3080 erwerben kann* . So war es dann das ich gestern im AMD shop einer 6900 XT begegnet bin und instinktiv erwerben musste...

btw. aufgrund der 2080 hatte ich mich damals für einen G-Sync Monitor entschieden (Acer Predator x34p)
 
Hmm mit Gsync Panel bist du eigentlich bei einer NV Karte besser aufgehoben.
Die 6900 ist aber die bessere Karte, mehr Speicher, schneller, leiser etc.

Wann RT kommt in Cyberpunk its schwer zu sagen.
RT wird generell im all over etwas besser auf den NV Karten laufen, in neueren Spielen scheinen sich die Hersteller aber bei der Leistung auch nicht wirklich weh zu tun. Eine 3080 ist auch im PortRoyal nur unwesentlich schneller als eine 6900er, zudem sind die Karten top verarbeitet.

Am Ende tun die sich nicht weh, ich würde es von deiner perönlichen präferenz abhängig machen.
 
Es kommt drauf an wo deine Prioritäten liegen. Persönlich würde ich bei gleichem Preis immer zu 6900XT greifen. Weil erstens für mich Raytracing (noch) keine Rolle spielt (bis das soweit ist in enigen Jahren hab ich die übernächste Karte) und ich zweitens in 4K und gerne mit (Textur-)Mods spiele wo die 10GB einer 3080 einfach zu wenig sind/werden.
 
ja genau.. ich habe um die Zeit der Cyberpunkt Patches zu überbrücken zu Final Fantasy 15 gegriffen und die HDR Texturen installiert... beim Spielen sind bereits über 9 GB an Graka Speicher ausgelastet, also viel Luft ist bereits jetzt nicht mehr vorhanden, weswegen ich die 16GB der AMD Karte schon schätze. Na ja schwierig, leider finden sich keine belastbaren Infos wann und ob RT jeweils implementiert wird
 
Würde auch die amd Karte nehmen, von Nvidia hört man im allgemeinen nichts richtig gutes. Geht los mit diesen spannungs-caps bis hin zur starken Hitzeentwicklung usw.
Nvidia hat abgeliefert, amd ist gemütlich mim Panzer drüber gefahren. Für amd spricht ganz klar mehr vram, niedriger Stromverbrauch, erstmalig ein top Referenzkühler,großes OC Potential, zukünftige Games sollten im Vorteil sein dank Konsolen-ist meine Meinung.
 
Bei selben Preis für BN Vollausbau oder Ampere in der mittelgroßen Variante würde ich auch eher den Vollausbau nehmen.
Würden wir von einer 3080 Ti sprechen wäre die Antwort eine Andere.
zukünftige Games sollten im Vorteil sein dank Konsolen-ist meine Meinung.
Da ziehe ich nicht mit.
Das hieß es schon bei der letzten Generation die bekanntlich(? so oft wie das Argument zu BN kommt frag ich mich echt ob das noch alle wissen) mit GCN Grafik lief.
Und was kam auf dem PC? Erst Maxwell und dann Pascal haben GCN auch in den Konsolenports regelmäßig geschlagen.
 
RT , Computing >>> Nvidia
Rasterization , 1440P , Vram >>>> AMD
überprüfen Sie jedoch zuerst, ob Ihr Monitor Freesync unterstützt
 
Bei selben Preis für BN Vollausbau oder Ampere in der mittelgroßen Variante würde ich auch eher den Vollausbau nehmen.
Würden wir von einer 3080 Ti sprechen wäre die Antwort eine Andere.

Da ziehe ich nicht mit.
Das hieß es schon bei der letzten Generation die bekanntlich(? so oft wie das Argument zu BN kommt frag ich mich echt ob das noch alle wissen) mit GCN Grafik lief.
Und was kam auf dem PC? Erst Maxwell und dann Pascal haben GCN auch in den Konsolenports regelmäßig geschlagen.
Letzte Konsolengeneration hatte Jaguar CPU Kerne und der GPU Part hatte eine für die Konsolen angepassten Polaris-Architektur. Beides ist erst jetzt mit der neuen Generation identisch zu aktueller CPU/GPU PC Hardware von AMD. Darum kam es bei der letzten Gen auch zu keinerlei Synergieefekten.
 
Zuletzt bearbeitet:
Es war etwas angepasstes GCN. Genau wie jetzt etwas angepasstes RDNA mit etwas angepasstem Zen drin steckt.
Identisch ist es vorher nicht gewesen aber auch jetzt nicht, von der unterschiedlichen Speicherarchitektur mal ganz abgesehen.
 
Wem es AMD werden sollte man auch einen Blick auf die 6800xt wagen. Die ist meist nur wenige (3 bis 10, typisch 5) Prozent langsamer, hat gleichen Speicher wie die 6900xt und kostet weniger
 
@pings Bei mir die gleiche Problematik. Habe meine Wunsch-RTX EVGA RTX3080 XC3 Gaming für 880.- Euro bekommen, und bin grundsätzlich sehr zufrieden mit dem Teil. Speicherbelegung bei mir in der Regel 5-7GB VRAM.
Beim vorletzten AMD-Drop eine 6900XT geschossen, eigentlich nur zum Schnuppern. Hätte ich bloß die Finger davon gelassen... das Ding ist gut, ja sehr gut. So gut, dass die Karte jetzt eingebaut ist und meine Regierung darauf drängt, eine Karte wieder zu verkaufen. Meinem Bildschirm LG 27GL83A ist es egal, der kann mit beiden was anfangen, da Nvidia G-SYNC und Adaptive Sync kompatibel.

Grundsätzlich finde ich die AMD Hardware besser, aber softwareseitig ist Nvidia besser aufgestellt. An RT mache ich es jetzt nicht alleine fest. Oh Luxusprobleme....
 
Zuletzt bearbeitet:
Da ziehe ich nicht mit.
Das hieß es schon bei der letzten Generation die bekanntlich(? so oft wie das Argument zu BN kommt frag ich mich echt ob das noch alle wissen) mit GCN Grafik lief.
Und was kam auf dem PC? Erst Maxwell und dann Pascal haben GCN auch in den Konsolenports regelmäßig geschlagen.
Das kann man nicht vergleichen denke ich, die Lage heute ist eine ganz andere.
Die Sektkorken würde ich aber auch nicht knallen lassen ehe nicht eine Auswahl an entsprechenden Titeln zum verifizieren da ist. DX 11 ist bald tot, die Arch der Konsolen ist zeitgleich mit den Desktopmodellen aufgeschlagen, der Speicherausbau ist ähnlich usw.
 
Bei selben Preis für BN Vollausbau oder Ampere in der mittelgroßen Variante würde ich auch eher den Vollausbau nehmen.
Würden wir von einer 3080 Ti sprechen wäre die Antwort eine Andere.

Da ziehe ich nicht mit.
Das hieß es schon bei der letzten Generation die bekanntlich(? so oft wie das Argument zu BN kommt frag ich mich echt ob das noch alle wissen) mit GCN Grafik lief.
Und was kam auf dem PC? Erst Maxwell und dann Pascal haben GCN auch in den Konsolenports regelmäßig geschlagen.
Wann hatten wir den das letzte mal das amd so stark war? Denke du bist im Irrtum! Nehme mal die 6800xt für 649€, absolut Konkurrenzlos. Denke amd wird einen ähnlichen guten Weg mit Radeon einschlagen wie bei den CPUs. Nvidia ist Gott sei Dank nicht mehr allein auf weiter Flur, das warten hat sich gelohnt!
 
Die HD5870 müsste das gewesen sein.

Aber wenn du den Beitrag nochmal genau ließt ging es nicht darum ob BN gut oder schlecht ist (sie ist eindeutig ein sehr gutes Produkt) sondern nur darum dass man sich schonmal geirrt hat in der Annahme die Verwandtschaft zur Konsolen-GPU wäre ein zusätzlicher(!) Vorteil. Wenn man R600 + Xenos dazu zählt sogar zwei Mal.
 
Du meinst den Polaris der bei geringerer Fertigungsbreite einen größeren Chip brauchte um mitzuhalten und heutzutage nur dann vorne liegt wenn man 3GB vs 8GB Versionen vergleicht?
Der war für den Endkunden sicher ein konkurrenzfähiges Produkt, aber effizient ausgenutzt weil nah verwand mit den Konsolen GPUs sicher nicht.
 
Die HD5870 müsste das gewesen sein.

Aber wenn du den Beitrag nochmal genau ließt ging es nicht darum ob BN gut oder schlecht ist (sie ist eindeutig ein sehr gutes Produkt) sondern nur darum dass man sich schonmal geirrt hat in der Annahme die Verwandtschaft zur Konsolen-GPU wäre ein zusätzlicher(!) Vorteil. Wenn man R600 + Xenos dazu zählt sogar zwei Mal.
Ja ich denke aber das die aktuelle Situation eine andere ist als die damals. Was da in der ps4 steckte war zum Release schon alter tubak! Egal wir werden es in Zukunft sehen wo die Ryze hingeht, die Weichen sind Schonmal gestellt. Bin auch sehr gespannt wann Nvidia kontern wird, damit haben die jedenfalls auch nicht gerechnet oder sie wussten schon in etwa was amd bringt und haben deshalb die Karten so aufgebohrt, Ka.
 
RT wird generell im all over etwas besser auf den NV Karten laufen, in neueren Spielen scheinen sich die Hersteller aber bei der Leistung auch nicht wirklich weh zu tun.
Als Verschwörungstheoretiker weißt du doch genau, dass deine Thesen keinen Bestand haben, etwas besser, soso.Ich sehe die 6900XT im PCGH Parkour sogar minimal hinter der 3080, RT Leistung mit 30% deutlich dahinter ( inkl DLSS 50%, also halbe Leistung)abgesehen von stiefmütterlichem Einsatz.

Ganz einfach heruntergebrochen:

6900XT Vorteil: Vram in 2 bis 3 Jahren, eher in 4K

3080 Vorteil: RT, DLSS, teils +100%

Absolut hanebüchen, dass hier unbedingt die AMD GPU empfohlen wird, obwohl sie viel weniger leisten kann und das schlechtere Featureset besitzt.

Das Hoffen auf den Vram Tod dauert bei einer 2080 mit 8 GB schon seit 2,5 Jahren an, bei einer 10 GB Karte für WQHD wird es 4 Jahre dauern und dann immer noch Regler geben.

Sprich der Vorteil von 16 GB Vram wird sich sehr wahrscheinlich während seines Nutzungszeitraums nicht zeigen, mit RT und DLSS kann man heute Cyberpunk und Co jedoch mit doppelter Leistung spielen.
 
Zuletzt bearbeitet:
Vielen Dank für euer Feedback, das mit Freesync war mir nicht bewußt (hatte ich mit Vsync gleichgesetzt und angenommen das es Monitore grundsätzlich unterstützen). Dann werde ich wohl oder übel bei Nvidia bleiben und die AMD Karte einem Kumpel weiterreichen der bislang noch kein Glück hatte
 
Du meinst den Polaris der bei geringerer Fertigungsbreite einen größeren Chip brauchte um mitzuhalten und heutzutage nur dann vorne liegt wenn man 3GB vs 8GB Versionen vergleicht?
Der war für den Endkunden sicher ein konkurrenzfähiges Produkt, aber effizient ausgenutzt weil nah verwand mit den Konsolen GPUs sicher nicht.
Eigentlich liegt der heute schon sehr oft vorne, wenn man nur die abgespeckte Variante zum Vergleich heran nimmt und die aufgepimpte Version kratzt gerne mal an der GTX1070.
 
Zurück