Special Radeon RX 7900 XTX im Raytracing-Härtetest: Faktor 2 gegenüber Radeon RX 6000 ist drin

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7900 XTX im Raytracing-Härtetest: Faktor 2 gegenüber Radeon RX 6000 ist drin

AMDs High-End-Grafikkarten Radeon RX 7900 XTX und Radeon RX 7900 XT sind seit dem vergangenen Dienstag im Handel. Im PCGH-Test offenbart der Navi-31-Chip deutliche Leistungsgewinne beim Raytracing. Doch genügt das, um die grafisch anspruchsvollsten Spiele zu stemmen? Wir bitten die Radeon RX 7900 XTX zum Raytracing-Härtetest.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 7900 XTX im Raytracing-Härtetest: Faktor 2 gegenüber Radeon RX 6000 ist drin
 
Wie wichtig ist mir Raytracing ?

Nice To Have aber Zweitrangig - > Rasterleistung daher um so wichtiger.

Da schon sehr früh klar gewesen ist das die aufgedoppelten 12288 Shader der Navi 31 so zu behandeln sind, wie damals von Turing auf Ampere, wurde bei Release direkt zum aktuellen ADA Flaggschiff gegriffen.
 
Zuletzt bearbeitet:
Wenn man bedenkt, dass die 7900XTX deutlich mehr Strom zieht (gerade bei Dingen wie YT und ähnlichem) zahlt man auf Sicht von 2-4 Jahren locker das was man gemäß UVP eingespart hat an Stromkosten.
Natürlich sehr abhängig vom eigenen Verhalten. Hat man nur einen Monitor, ideal noch mit Low-Refresh oder nutzt den PC nur wenige Stunden die Woche ist der Mehrverbrauch egal.

Aber wieviele Leute, die 4-stellig für eine Grafikkarte ausgeben haben nur einen Low-Refresh-Monitor oder nuten den PC nicht ein paar Stunden am Tag?
Und dann zahlt man 50-100 Euro / Jahr an Strom mehr.

Und bei RT ist die Leistung der 7900XTX einfach deutlich schlechter als die 4080.
Die 4080 ist teils "nur" 20% schneller, teils aber auch 50% und mehr.
DLSS ist da jetzt noch nicht mal berücksichtigt - was von mehr Spielen unterstützt wird als FSR und auch eine (etwas) höhere optische Qualität hat.
(Und falls sich FSR durchsetzt - was ich nicht ausschließen will - kein Problem. Kann man mit der 4080 ja genauso nutzen.)

Ich zahle also bei AMD das gleiche, habe aber ein schlechteres Featureset und bei RT massiv weniger Leistung.

Dass hoher Stromverbrauch nicht nur Geld kostet kommt ja noch hinzu.
Im Sommer bei 30 Grad aufwärts bissle YT schauen und die Karte nuckelt fröhlich 100W mehr aus der Steckdose als Nvidia? Also ich brauche das zumindest nicht.
Stromverbrauch = Wärme.
Das ist im Winter egal, im Sommer aber sehr nervig.

Ach ja, lauter ist die 7900XTX auch noch als die 4080.

Damit kein Missverständnis aufkommt: Die 4080 ist entsetzlich überteuert.
Der Preis hat sich ja fast verdoppelt von der 3080 her.
Ein mieser Deal.

Aber AMD hat es tatsächlich geschafft, eine Konkurrenzkarte zu bringen die noch einmal signifikant schlechter abschneidet.

Falls man nur zwischen der 4080 und der 7900XTX entscheidet und man neutral zur Marke ist, ist die 4080 das mit Abstand bessere Gesamtpaket.
So traurig das ist.
 
RT wird in 1-2 Generationen für UHD erst wirklich interessant. Derzeit ist es immer noch nur eine nette Spielerei, zum Teil in Spielen grottenschlecht umgesetzt, weil übertrieben, unpassend oder als wuseliger Ameisenhaufen auffallend, mehr nicht.
Und mit einer >1000€-Karte nur in FHD/WQHD@60fps+ zu zocken macht irgendwie nicht so Laune, nehme ich an?
 
@PCGH_Raff
Danke für den Test. Sehr interessant! Also ich bin ehrlich gesagt davon ausgangen, dass RDNA 3 mit Raytracing nicht so gut abschneidet. Aber hier duelliert man sich häufig genug mit der 3090 Ti. Einzig Minecraft RTX zeigt ein etwas anderes Bild.

Hat jemand mal Benchmarks der 7900 XTX in Portal RTX gesehen? Die Ergebnisse von RDNA 2 waren hier ja eher "durchwachsen". Wäre spannend zu sehen wie gut RDNA 3 hier skaliert.
 
Wenn man bedenkt, dass die 7900XTX deutlich mehr Strom zieht (gerade bei Dingen wie YT und ähnlichem) zahlt man auf Sicht von 2-4 Jahren locker das was man gemäß UVP eingespart hat an Stromkosten.
Natürlich sehr abhängig vom eigenen Verhalten. Hat man nur einen Monitor, ideal noch mit Low-Refresh oder nutzt den PC nur wenige Stunden die Woche ist der Mehrverbrauch egal.

Aber wieviele Leute, die 4-stellig für eine Grafikkarte ausgeben haben nur einen Low-Refresh-Monitor oder nuten den PC nicht ein paar Stunden am Tag?
Und dann zahlt man 50-100 Euro / Jahr an Strom mehr.

Und bei RT ist die Leistung der 7900XTX einfach deutlich schlechter als die 4080.
Die 4080 ist teils "nur" 20% schneller, teils aber auch 50% und mehr.
DLSS ist da jetzt noch nicht mal berücksichtigt - was von mehr Spielen unterstützt wird als FSR und auch eine (etwas) höhere optische Qualität hat.
(Und falls sich FSR durchsetzt - was ich nicht ausschließen will - kein Problem. Kann man mit der 4080 ja genauso nutzen.)

Ich zahle also bei AMD das gleiche, habe aber ein schlechteres Featureset und bei RT massiv weniger Leistung.

Dass hoher Stromverbrauch nicht nur Geld kostet kommt ja noch hinzu.
Im Sommer bei 30 Grad aufwärts bissle YT schauen und die Karte nuckelt fröhlich 100W mehr aus der Steckdose als Nvidia? Also ich brauche das zumindest nicht.
Stromverbrauch = Wärme.
Das ist im Winter egal, im Sommer aber sehr nervig.

Ach ja, lauter ist die 7900XTX auch noch als die 4080.

Damit kein Missverständnis aufkommt: Die 4080 ist entsetzlich überteuert.
Der Preis hat sich ja fast verdoppelt von der 3080 her.
Ein mieser Deal.

Aber AMD hat es tatsächlich geschafft, eine Konkurrenzkarte zu bringen die noch einmal signifikant schlechter abschneidet.

Falls man nur zwischen der 4080 und der 7900XTX entscheidet und man neutral zur Marke ist, ist die 4080 das mit Abstand bessere Gesamtpaket.
So traurig das ist.
Hört mal mit dem RT auf.
RT ist nicht alles und wird oft sehr schlecht umgesetzt
 
Egal ob man RT mag oder nicht, für RT + 4k ist keine der aktuellen Grafikkarten geeignet, zumindest nicht ohne Upscaling und/oder low fps (<60). Zumindest nativ bei voller RT-Nutzung.

Und klar hat AMD bei RT ordentlich nachgelegt, aber unspielbar ist und bleibt unspielbar (auch bei Faktor 2).

Generell bin ich kein Fan von RT und sehe es als nette Spielerei an, nach der ich aber nicht hauptsächlich eine Grafikkarte aussuchen würde.

Zum Thema The Witcher 3 und dem Update:
Das flimmert wie die Hölle, eine RX6900XT schafft in WQHD mit RT und alles auf Max knappe 25fps, ohne RT sinds immerhin um die 120.
 
Interessantes Bild mit der Leistungssteigerung unter Verwendung von FSR. RT kostet leider immer noch deutlich zuviel Leistung wie ich finde und spielt auch in meinen Favorisierten Spielen eigentlich derzeit keine Rolle. Was ich brauche sind maximale Leistung bei nativem UHD Rendering.
 
Oh ja. Gigantischer optischer Unterschied zwischen RT und non RT aber in 4K muss ich da schon auf ULtra Perforamcne FSR2 stellen um meine 40-50 fps zu bekommen und es sieht nicht so dolle aus.
Also dlss auto sieht sehr gut aus hat mich selbst gewundert. Aber erst auf auto läufts komplett flüssig mit frame generation. Gpu ist am anfang nur 80% ausgelastet denke cpu limit kann die fps nicht anzeigen lassen. Fps um die 90-100 denke ich
Witcher 3 v4.00 ist leider (!) Stand jetzt eine "buggy beta mess". Wir wünschten, es wäre anders, derzeit kämpfen wir aber mit technischen Problemen und stehen mit CDPR in Kontakt. Reiht sich hinter Gotham Knights und Callisto Protocol ein, die wir ebenfalls nicht zum Launch testen konnten, da nicht fertig.

MfG
Raff
Habe bei witcher keine probleme bis jetzt ausser shader nachladeruckler aber das wars
 
Zuletzt bearbeitet:
RT wird in 1-2 Generationen für UHD erst wirklich interessant. Derzeit ist es immer noch nur eine nette Spielerei, zum Teil in Spielen grottenschlecht umgesetzt, weil übertrieben, unpassend oder als wuseliger Ameisenhaufen auffallend, mehr nicht.
Und mit einer >1000€-Karte nur in FHD/WQHD@60fps+ zu zocken macht irgendwie nicht so Laune, nehme ich an?
Das stimmt so ja nicht, ich kann bereits seit 2 Jahren mit einer Karte <1000€ (3080 10 GB) CP2077 auf WQHD mit RT Psycho, max Details, DLSS Quality mit 60 FPS zocken. Die 4080 legt da ordentlich drauf, sogar ohne DLSS:

1671014467877.png


Die XTX liegt auf dem Niveau meiner 2 Jahre alten Karte. Für deutlich mehr Euronen...




Hört mal mit dem RT auf.
RT ist nicht alles und wird oft sehr schlecht umgesetzt

Es geht hier im Artikel explizit um RT aber wir sollen damit aufhören? Lustig...

Es gibt auch sehr gute RT Umsetzungen, und nun?
 
Interessant wie die Leute wirklich unter jedem Thema, das annähernd was mit RT zu tun hat, immer und immer wieder schreiben wie unnötig RT ist. Schon etwas ermüdend...
Ermüdend ist eher wie vielleicht ein halbes Dutzend user meinen sie müssten hier eine Art Meinungshoheit verteidigen, wie wichtig RT doch wäre. :schief:
Nein ist es nicht.
 
Ich finde RT ne coole Sache, die endlich mal wieder Schwung in die Entwicklung bringt. Allerdings ist die Tabelle im Artikel auch eine ernüchternde Erinnerung daran, dass wir von RT und hohen FPS in vielen Fällen noch weit entfernt sind.

Was da die richtige Kombination aus FPS und Grafikpracht ist, muss jeder für sich selbst entscheiden. Ich hab mich an meinen 165Hz Monitor gewöhnt, da wären 30-60 FPS ein Downgrade, was ich nicht eingehen möchte.
 
Oh ja. Gigantischer optischer Unterschied zwischen RT und non RT aber in 4K muss ich da schon auf ULtra Perforamcne FSR2 stellen um meine 40-50 fps zu bekommen und es sieht nicht so dolle aus.

Also unter dem höchsten Qualitätssetting bei DLSS und FSR ist vollkommen inakzeptabel und könnte gleich gar nicht existieren, find ich.
 
Interessant wie die Leute wirklich unter jedem Thema, das annähernd was mit RT zu tun hat, immer und immer wieder schreiben wie unnötig RT ist. Schon etwas ermüdend...
Das gleiche ist, immer bei NV über den Preis zu schimpfen, aber dann sagen, legt lieber Geld drauf und holt euch ne 4080 oder 4090 :ugly:
Danach sich wundern warum NV die Preise nicht senkt. ?
Ist eben so, das für manche RT wichtig ist und für manche eben nicht. ?✌️
 
Zurück