Special AMD Radeon RX 7900 XTX und RX 7900 XT im Test: "Doppel-Wumms" gegen Nvidias Geforce RTX 4080

Der Vorsprung der XTX vor der 4080 ist kleiner, als zunächst angenommen. Interessant aber, dass es in manchen Spielen richtig viele Prozent rauf/runter sind. Im Schnitt gleicht es sich dann halt auch wieder aus.
Im CB Testparkour liegt sie nahezu exakt auf der 4080.

Die RT Leistung geht auch in Ordnung dafür, dass es weiterhin noch ein Gimmick ist. Aber eine Grafikkarte will man ja auch mind. 2 Jahre behalten. Auch dann wird man RT wahrscheinlich noch akzeptabel benutzen können.

In Sachen Energieeffizienz hat sich leider nicht allzu viel getan, OC wird wohl sehr kostspielig.
P/L ist bei der XT auch schlechter. Wahrscheinlich hat man den Preis der XTX nach unten angepasst, als man gesehen hat, wo die 4080 liegt, damit man mit der XTX hier das wesentlich preiswertere Produkt hat. Der Preis der XT wird sich aber sicher auch eine Zeit lang halten, denn sie setzt sich durchaus klar vor der 3090 Ti ab, was bei deren momentanem Preis von rund 1400€ natürlich umso lustiger ist.

Was man jedenfalls sagen kann, die Euro UVP ggü. der USD UVP ist mehr als fair. Die berechneten ~1300€ für die XTX wird, zumindest theoretisch, ganz klar unterboten. Ganz unabhängig davon, dass ich solche Preise für Grafikkarten natürlich weiterhin lächerlich finde.
Die 4080 hat nun wirklich überhaupt keine Daseinsberechtigung mehr, ein weiterer kundenfeindlicher Schandfleck in Nvidias Historie.
 
Die 7900XT sieht interessant aus, mal die Partnerkarten abwarten evtl. wirds dann bei mir mal ne neue Karte.
Etwas schneller hätten die aber schon sein können, hatte mir erhofft die 7900XTX vernichtet die 4080 in Raster und die 7900XT ist gleich auf.
 
Das Preis/Leistungs-Verhältnis beider Karten ist besser als bei der RTX 4080, wenn man rein auf die Rasterizing-Leistung guckt.

MfG
Raff

Ich kenne die Preise bei euch leide rnicht aber zb hier italien kriegt man eine 4080 aktuell für 1300 euro die 7900Xtx sehe ich auch mit 1300 daher würde ich dann doch lieber eine 4080 nehmen besonders mit blick auf Raytracing!
 
Danke für den Test.

Leistung also mehr oder weniger wie erwartet. Preis sieht okay (nicht gut) aus.
Nur der "Idle" Stromverbrauch ist unschön.

Also mal Mitte/Ende Januar nachschauen wie es sich Preislich und Treibertechnisch entwickelt hat, dann könnte ich doch schwach werden.
 
AMD hat es IMMER NOCH NICHT geschafft, eine vertretbare Leistungsaufnahme bei minimalen 2D-Lasten hinzukriegen? Da habe ich mich schon bei meiner HD4870 drüber geärgert.
Sorry aber das geht heute einfach nicht mehr. Eine Grafikkarte die 100W (!!) verbraucht nur wenn man nen 4K@144Hz TFT anschließt ist ein absolutes no-go. Da hab ich den Mehrpreis zur 4080 ja innerhalb von nem Jahr an Stromkosten raus. :ka:
Die Verbindung zwischen den Chiplets brauch einfach zuviel power für so leichte Aufgaben.
 
AMD hat es IMMER NOCH NICHT geschafft, eine vertretbare Leistungsaufnahme bei minimalen 2D-Lasten hinzukriegen? Da habe ich mich schon bei meiner HD4870 drüber geärgert.
Sorry aber das geht heute einfach nicht mehr. Eine Grafikkarte die 100W (!!) verbraucht nur wenn man nen 4K@144Hz TFT anschließt ist ein absolutes no-go. Da hab ich den Mehrpreis zur 4080 ja innerhalb von nem Jahr an Stromkosten raus. :ka:

Hm, weißt du wie genau die Watteangabe über das
Meine GPU & Monitor Kombination braucht jetzt aufm Desktop zw. 14 und 17W. Wiedergabe 4K YT Video (youtube.com/watch?v=WjoplqS1u18) in Vollbild schwankt es zw. 23 und 28W.

Welche 100 Watt meinst du?
Ich sehe nur die Werte auf Seite 5 für die XTX:
Leerlauf (Desktop) 17 Watt*
Dual-Display (UHD + FHD) 48 Watt*
UHD-Youtube-Video 69 Watt*
[..]

Ich finde die 70 Watt allerdings auch übertrieben.

EDIT:
RawMangoJuli hat mich darauf hingewiesen, welche Tabelle du meinst, bei dir bin ich noch nicht angekommen gewesen auf der Seite!
Der Unterschied ist dann aber wirklich gigantisch, weil ich betreibe fast-4K in 144 Hz an meinem Monitor.
 
Zuletzt bearbeitet:
Eigentlich schade, man hat mit der Karte und dem Preis echt die Möglichkeit Nvidia wieder massiv zu ärgern, die 4080 ist in meinen Augen gänzlich ausgestochen (zumindest wenn sich die angekündigte Preissenkung nicht sehr stark dem EURO UVP der 7900XTX nähert. Aber man hat es im Desktopbetrieb (der für mich mittlerweile eine gewisse Wichtigkeit (HomeOffice) nicht geschafft vernünftige Werte zu finden, Dual Display, Dual WQHD und dann über 100W im Idle? Sorry, da bin ich raus.

Ansonsten in meinen Augen viele viele pro Argumente für AMD, schneller als eine 4080 (denke die zwei oder drei Games, die den Abstand so gering werden lassen, werden sicherlich noch gefixt; und dann reden wir eher von 10%), im RT auf Höhe einer 3090Ti (wie von mir erwartet und vorausgesagt) und preislich absolut TOP, auch in EURO.

Naja, zumindest gut, dass beide Hersteller aktuell noch Probleme haben, bei dem einen schmelzen die Stecker und bei dem anderen die Stromleitungen im Idle. Muss ich halt doch noch warten, bis vieleicht gescheite Customs getestet werden oder aber Treiberseitig das ganze stark optimiert wird. Ansonsten warte ich halt auf den "neuen" verbesserten 12VHPWR Stecker und ein paar Wochen um zu schauen, ob dieser keine Probleme mehr hat.
 
AMD hat es IMMER NOCH NICHT geschafft, eine vertretbare Leistungsaufnahme bei minimalen 2D-Lasten hinzukriegen? Da habe ich mich schon bei meiner HD4870 drüber geärgert.
Sorry aber das geht heute einfach nicht mehr. Eine Grafikkarte die 100W (!!) verbraucht nur wenn man nen 4K@144Hz TFT anschließt ist ein absolutes no-go. Da hab ich den Mehrpreis zur 4080 ja innerhalb von nem Jahr an Stromkosten raus. :ka:
Sehr enttäuschend, vor allem weil ständig mit Effizienz geworben wurde. Zwar nicht explizit genannt aber man konnte da schon rauslesen, dass es sich hauptsächlich um Idle und Teillastszenarien handeln soll. Und dann sowas... :daumen2:
 
Hm, weißt du wie genau die Watteangabe über das
Meine GPU & Monitor Kombination braucht jetzt aufm Desktop zw. 14 und 17W. Wiedergabe 4K YT Video (
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
) in Vollbild schwankt es zw. 23 und 28W.

Welche 100 Watt meinst du?
Ich sehe nur die Werte auf Seite 5 für die XTX:
Leerlauf (Desktop) 17 Watt*
Dual-Display (UHD + FHD) 48 Watt*
UHD-Youtube-Video 69 Watt*
[..]

Ich finde die 70 Watt allerdings auch übertrieben.
Scrol noch etwas weiter runter, da is noch ne Tabelle.
 
Unterm Strich ist die 4080 das für mich technisch bessere Produkt, da stimme ich dem Fazit zu und das wundert mich dann schon etwas. Ich habe gerade bei der XTX schon damit gerechnet, dass sie sich deutlicher von der 4080 absetzt und nicht "nur" ziemlich genau auf gleichem Lvl liegt, wohlgemerkt bei schlechterer Effizienz, also auch fraglich was Customs noch rausholen können.

Ich vermute auch, dass der Preissturz der 4080 damit erstmal wieder zu Ende ist, die gab es ja zwischenzeitlich fast schon für 1300€ und weit weg davon werden Customs der 7900XTX nicht liegen.

Insgesamt aber gerade noch so Aufgabe erfüllt von AMD, gegen die UVP der 4080 steht man sehr gut da und hat darauf bezogen die deutlich attraktivere Karte, 8Gb mehr Vram gibt es ja auch noch dazu.
Fast schon wütend bin ich mal wieder über die Idle-Leistungsaufnahme, bis zu 100W müssen ein schlechter Scherz sein und sind absolut nicht zeitgemäß, zumal das Problem ja auch schon ewig! bekannt ist. Nur dadurch disqualifiziert sich die Karte schon in meinem System, zumindest bis solche Probleme Treiberseitig gefixt sind, denn im Idle ist mein PC wohl die meiste Zeit mittlerweile.
 
Zuletzt bearbeitet:
Was treiben die da bitte in Sachen Leistungsaufnahme? Ich dachte das wäre diesesmal der groß angekündigte Pluspunkt?
Sorry AMD, mit drei Monitoren haben ich keinen Bock auf eine Karte die im Gaming stur am Limit hängt und selbst mit leichtem Workload säuft als gäbe es kein Morgen.
Wird dann auf eine RTX4080 hinauslaufen, schade drum, Chance klar verpasst.
 
Welche 100 Watt meinst du?
na die 102W hier wenn man nen 144er TFT anschließt - ganz ohne Video zu schauen:
1670855804723.png

Das ist offensichtlich ja ein Bug (denn wenn man das Video startet geht der Verbrauch RUNTER :ugly: ) aber wie gesagt das sind einfach dinge die heutzutage und in der Preisklasse nicht mehr zu verzeihen sind (für mich).
AMD kriegt es seit gefühlt Jahrzehnten nicht gebacken ihre Karten unter 2D-Lasten konkurrenzfähig zu machen - und das ist nunmal der Bereich wo ich mich 90+% aufhalte. Ob meine Karte da 15 oder 70-100W verbraucht macht hier einen viel größeren Unterschied übers Jahr als ob sie beispielsweise beim spielen 300 oder 350W bräuchte (einfach weil ich nicht viel spiele).

Es ist auch nicht so, als ob mich die geschätzt 100€ mehr im Jahr die das bedeuten würde jetzt arm machen würden aber das ist auch son bisschen prinzipbedingt. Ich will einfach keine 1000+€ Grafikkarte kaufen die (seit Ewigkeiten) an solch simplen Dingen wie einem anständig eingestellten 2D-Performance Modus scheitert.
 
Welche 100 Watt meinst du?
Ich sehe nur die Werte auf Seite 5 für die XTX:
Weiter unten:

1670856025534.png


102 Watt bei einem Display beim Nichtstun gehen mal gar nicht. Das macht mit CPU und allem drumherum ja dann locker 130 bis 150 Watt aus. Bei den Strompreisen, die ab Januar 2023 gelten, kann ich da nur "nein, Danke" sagen.

Edit: Dieses Mal war ich zu langsam :wall: :lol:
 
In Sachen Effizienz hatte ich mir etwas mehr erhofft, Mal sehen was mit UV passiert wenn man der Karte den Saft abdreht. Der RAM zieht natürlich schon Unmengen an Saft.
 
Zurück