AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

JETZT fühl ich mich wirklich alt.

AMD war bei Grafikkarten öfter mal WEIT vor NVidia (Radeon 9700/800 beispielsweise oder auch die HD7970), nur eben die letzte Zeit nicht mehr. NV hat auch öfter ins Klo gegriffen, manches davon ist schon zum Kult geworden ("Föhn"...). AMD, INtel und NV haben sich schon immer abgewechselt wer grade besser war, ab und an war auch mal Gleichstand wie jetzt grob wieder. Nur sind die Zyklen wo das wechselt halt mal 10-15 Jahre und keine 2-3 deswegen kennen viele das nicht (mehr).
die HD 7970 im Gegensatz zur welcher Nvidia, die damals draußen war ?
 
Dazu kann ich noch nichts sagen, meine 5700XT verweilt noch etwas in meinem System. UV klappt gut, 2000/1.000mV oder 2250/1.100mV sind meine derzeitigen Settings, bin auch rundum zufrieden mit der Karte.



Dann bist du nicht sehr alt oder hast einiges verpasst in der Vergangenheit. ATI hat NVIDIA oft genug den Arsch versohlt und das nicht zu wenig.
Nein nur 2012 war ich auf Weltreisen und hatte keine spiele tauglichen Rechner :-)
 
Ich find‘s schon etwas schade, dass selbst die fetteste BigNavi die RTX3080 im ungeschönten Leistungsindex (weder bei PCGH noch bei CB) schlagen kann, wo doch immer gesagt wurde, dass diese Karten aus der RTX3080 Kleinholz machen werden.

Nix da, sie hat/haben zwar solide Leistung und mit Tricksereien, wie SAM, RageMode und FullHD (?) kann man die 3080/3090 in ausgewählten Titeln zwar über- oder einholen, aber im fairen Kampf @4K und aktuell ohne SAM (erstens, weil man erstmal ein 500er Board und eine Zen3-CPU braucht und zweitens, weil es die gleiche Technologie auch bald für Nvidia und Intel geben wird - sprich für alle) zieht Nvidia davon.

Spielt man dann noch einen aktuellen Blockbuster mit RT, die in der Regel DLSS unterstützen oder langfristig Support dafür bekommen, weil es einfach eine Technologie der Zukunft ist, dann haben die BN-Karten keine Schnitte.

Die Effizienz von BN ist überraschend gut und die Leistung lässt sich sehen, aber letztendlich bleibt Nvidia durch das deutlich modernere Featureset und die objektiv-gemessene Rohleistung weiterhin der Anführer, daher kosten die Karten auch mehr - denn sie sind mehr wert.

Bei BN müssen schnell die Preise runter, dann werden das richtige P-L-Säue, aber aktuell sind sie deutlich überteuert und oberhalb der UVP sollte man sowieso von GPUs die Finger lassen.
 
Wenns sachlich nicht mehr geht muss man wohl persönlich werden wenn sich Leute erdreisten etwas weniger geil zu finden und das leider nicht der eigenen meinung entspricht?
Mit einer Meinung kann man sich immer herausreden, wenn man Fakten nicht annimmt.
Oder zählst du "die Erde ist flach" auch zu einer legitimen Meinung?
Um die Sache geht es dir erkennbar nicht, das zeigt alleine schon wo dein aktueller Wissensstand liegt.
Erkennbar Ende 2018, als DLSS 1.0 noch aktuell war.

Erzähl mir doch mal warum die aktuelle DLSS Implementierung (seit März 2020) weniger geil ist?

Übrigens hat Grestorn völlig Recht - streng genommen ists OT, vor allem wenns NUR noch um DLSS geht.
DLSS ist ein RT Komplementärfeature, welches bei AMD mit Super Resolution auch kommen soll.
Off Topic ist hier gar nichts. Ich persönlich würde dich dann auch zum die-hard AMD Fanlager zählen.
Du leugnest schlicht Fakten und den den Nutzen und die mittlerweile erzielte Qualität von Direct ML oder Deep Learning Algorithmen um PixelGrafik aufzuwerten und bedienst dich einem Informationsstand von vor 2 Jahren und scherst dabei alle DLSS Entwicklungsstufen über einen Kamm und bist immer noch bei DLSS 1.0 festgefahren, welches weit weniger verbreitet ist, als 2.0.

Super sachlich. Du machst den Rudy. "Meiner Meinung nach ist die Wahl gefälscht" Beweise? Keine.
Drollig.
 
Zuletzt bearbeitet:
@DarthSlayer

Na "Thermi2.0" (GTX580). Aber das ist nicht das Thema. Beispiele gibts genug, es ging nur darum zu erwähnen, dass es nicht schon immer so war dass Intel und NV schneller als AMD sind. AMD war in beiden Kategorien zwischenzeitlich mal weit vorne (bei CPUs sind sie ja jetzt auch wieder vorbei). Nur dauern solche Verschiebungen halt sehr lange.

Interessant wird wies in der nächsten Gen aussieht: RDNA3 soll ja NOCHMAL so nen Sprung hinlegen was wirklich extrem wäre - aber NV hat beim nächsten mal den Vorteil vom schlechteren Samsungprozess auf nen 7 oder gar 5nm zu gehen was massiv Performance/Effizienz bringen sollte. Ich hoffe dann kommen wir mal wieder von den 300W ein bisschen runter - wobei dann wohl beide Hersteller wieder ans Limit gehen wollen um zu gewinnen... die Leute sind dann ja an derartige TDPs gewohnt.
 
Ich find‘s schon etwas schade, dass selbst die fetteste BigNavi die RTX3080 im ungeschönten Leistungsindex (weder bei PCGH noch bei CB) schlagen kann, wo doch immer gesagt wurde, dass diese Karten aus der RTX3080 Kleinholz machen werden.

Nix da, sie hat/haben zwar solide Leistung und mit Tricksereien, wie SAM, RageMode und FullHD (?) kann man die 3080/3090 in ausgewählten Titeln zwar über- oder einholen, aber im fairen Kampf @4K und aktuell ohne SAM (erstens, weil man erstmal ein 500er Board und eine Zen3-CPU braucht und zweitens, weil es die gleiche Technologie auch bald für Nvidia und Intel geben wird - sprich für alle) zieht Nvidia davon.

Spielt man dann noch einen aktuellen Blockbuster mit RT, die in der Regel DLSS unterstützen oder langfristig Support dafür bekommen, weil es einfach eine Technologie der Zukunft ist, dann haben die BN-Karten keine Schnitte.

Die Effizienz von BN ist überraschend gut und die Leistung lässt sich sehen, aber letztendlich bleibt Nvidia durch das deutlich modernere Featureset und die objektiv-gemessene Rohleistung weiterhin der Anführer, daher kosten die Karten auch mehr - denn sie sind mehr wert.
Bei neuen Spielen, jetzt schon in und Zukunft noch viel mehr, auch wegen RDNA2 in den Konsolen, wird AMD nvidia zu Kleinholz zerhacken, keine Sorge. :D
 
Haben ein nettes Brett gelandet, endlich spielen Sie seit langer Zeit mal wieder oben mit dabei.
Nicht ganz "on-par" aber doch deutlich vorne mitspielend.
Wobei die kommenden Grakas deutlich interessanter scheinen, 600+€ nur für die GPU ist doch etwas viel für meinen Geschmack.
Setze diese Gen eh komplett aus, meine Karte reicht locker aus für das bisschen was ich noch zocke, zumal keine AAA-Titel darunter sind.
Dlls und RT jucken mich auch kein Stück, momentan besitze ich kein Game welches überhaupt eins der features unterstützt.
Sehe es ähnlich wie Alk, total unrelevant, jedenfalls in meiner Sphäre.
Sobald Dlls 3.0 auf dem Markt ist, was sich in jedes Game implementieren und ohne Qualitätsverlust einschalten lässt bin ich der erste der "Juchu" schreit und sich ernsthaft überlegt mal eine nvidia einzubauen.
Bis dahin: Soll doch jeder seinen Spaß damit haben, oder es eben nicht nutzen.
 
Mit einer Meinung kann man sich immer herausreden, wenn man Fakten nicht annimmt.
Oder zählst du "die Erde ist flach" auch zu einer legitimen Meinung?
Um die Sache geht es dir erkennbar nicht, das zeigt alleine schon wo dein aktueller Wissensstand liegt.
Erkennbar Ende 2018, als DLSS 1.0 noch aktuell war.
Ne Dude, du willst einfach Recht haben. Man erkennt deutlich den Geltungsdrang in deinen Beiträgen. Alki bezog sich qualitätsmäßig auf DLSS 1.0. Die Aussagen bzgl. DLSS 2.0 gingen in eine ganze andere Richtung, nämlich dass es einfach nicht zum Einsatz kommt in seiner Spielesammlung.
DLSS ist ein RT Komplementärfeature, welches bei AMD mit Super Resolution auch kommen soll.
Off Topic ist hier gar nichts. Ich persönlich würde dich dann auch zum die-hard AMD Fanlager zählen.
Du leugnest schlicht Fakten und den den Nutzen und die mittlerweile erzielte Qualität von Direct ML oder Deep Learning Algorithmen um PixelGrafik aufzuwerten und bedienst dich einem Informationsstand von vor 2 Jahren und scherst dabei alle DLSS Entwicklungsstufen über einen Kamm und bist immer noch bei DLSS 1.0 festgefahren, welches weit weniger verbreitet ist, als 2.0.

Super sachlich. Du machst den Rudy. "Meiner Meinung nach ist die Wahl gefälscht" Beweise? Keine.
Drollig.
Wow, jetzt drehst du aber richtig auf. Keine frenetischen Bekundungen für die neuen Wundertechnolgien aus der Grünen Schmiede und zack zählt man deiner Meinung nach zum "die-hard AMD Fanlager".

Vielleicht bist du ja auch nur zu einfältig, die Aussagen anderer differenziert zu betrachten. Welche Schublade haben wir denn dafür?
 
Zuletzt bearbeitet von einem Moderator:
AMD bringt bald Super Resolution, genau so wie Raytracing was für alle zugänglich sein wird. Wenn beides ansatzweise so gut wird wie bei NVIDIA, dann ist DLSS und RT bei NVIDIA eh kein Kaufargument mehr.
 
Das Review ist schon sehr gnädig, denn der Elefant im Raum heißt weiterhin Raytracing. So wie die Nvidia mit 10GB sehr schnell altern wird, ist RT die Sache wegen der AMD sehr schnell altern wird.

Cyberpunk wird in zwei Tagen den ersten Alterungssprung darstellen.
 
@DarthSlayer

Na "Thermi2.0" (GTX580). Aber das ist nicht das Thema. Beispiele gibts genug, es ging nur darum zu erwähnen, dass es nicht schon immer so war dass Intel und NV schneller als AMD sind. AMD war in beiden Kategorien zwischenzeitlich mal weit vorne (bei CPUs sind sie ja jetzt auch wieder vorbei). Nur dauern solche Verschiebungen halt sehr lange.

Interessant wird wies in der nächsten Gen aussieht: RDNA3 soll ja NOCHMAL so nen Sprung hinlegen was wirklich extrem wäre - aber NV hat beim nächsten mal den Vorteil vom schlechteren Samsungprozess auf nen 7 oder gar 5nm zu gehen was massiv Performance/Effizienz bringen sollte. Ich hoffe dann kommen wir mal wieder von den 300W ein bisschen runter - wobei dann wohl beide Hersteller wieder ans Limit gehen wollen um zu gewinnen... die Leute sind dann ja an derartige TDPs gewohnt.
Also 2012 war glaube ich die GTX 650er schon draußen. Und bei CPU habe ich schon Einsicht gezeigt weswegen ich die neue 5900X in meinem neuen Rechner drin habe aber bei AMD Grafikkarte kann ich mich nicht dazu durchdringen wo noch vor einiger Zeit so viel Probleme es mit den Treiber bei der 5700 XT gab und dabei ist sie das Gegenstück oder soll es sein wie gesagt zur 2070er Super und dennoch 15 % langsamer aber die Generation habe ich übersprungen und in der 900er Reihe zuvor war Nvidia auch besser. Die hatte ich zuvor eine 970er
 
2012 war sogar schon die 680 GTX draußen und selbst diese wurde von der 7970 teils stark deklassiert. Das weiß ich noch genau, weil ich hatte damals eine 7970 und anschließend die 7990.
 
Man erkennt deutlich den Geltungsdrang in deinen Beiträgen. Alki bezog sich qualitätsmäßig auf DLSS 1.0. Die Aussagen bzgl. DLSS 2.0 gingen in eine ganze andere Richtung, nämlich dass es einfach nicht zum Einsatz kommt in seiner Spielesammlung.
Geltungsdrang hat jeder, Alki bezog sich nicht auf DLSS 1.0, sondern generell auf DLSS und DLSS 2.0 Spiele gibt es mittlerweile 4 mal so viele wie DLSS 1.0. Der Mann ist einfach nicht auf dem aktuellen Stand.


wefgwergf.PNG


Keine Einzelfälle, sondern generell auf dem Niveau. Vorzeigespiele gibts auch. Fakt.
 
Zurück