Special AMD Radeon RX 7900 XTX und RX 7900 XT im Test: "Doppel-Wumms" gegen Nvidias Geforce RTX 4080

na die 102W hier wenn man nen 144er TFT anschließt - ganz ohne Video zu schauen:
Anhang anzeigen 1410524
Das ist offensichtlich ja ein Bug (denn wenn man das Video startet geht der Verbrauch RUNTER :ugly: ) aber wie gesagt das sind einfach dinge die heutzutage und in der Preisklasse nicht mehr zu verzeihen sind (für mich).

Weiter unten:

Anhang anzeigen 1410527

102 Watt bei einem Display beim Nichtstun gehen mal gar nicht. Das macht mit CPU und allem drumherum ja dann locker 130 bis 150 Watt aus. Bei den Strompreisen, die ab Januar 2023 gelten, kann ich da nur "nein, Danke" sagen.

Edit: Dieses Mal war ich zu langsam :wall: :lol:

Ja, wurde gerade derauf hingewiesen. :)
Das muss dann aber irgendwie an der Treiber/Hardware Konfiguration liegen, oder?
Wie gesagt, ich hämmer hier mit fast-4K und 144 Hz auf die Tasten und der angezeigt Verbrauch liegt bei rund 15W.
Meint ihr dass die Werte im Adrenalin Overlay schon ziemlich akkurat sind?
 
Sieht zwar sehr gut aus, aber auch hier preislich leider nichts für mein Budget (600, maximal 700 EUR) dabei. Mal hoffen, dass sowohl Nvidia, als auch AMD da im nächsten Jahr noch was für den "kleinen" Geldbeutel nachlegen.
 
69 Watt beim abspielen eines Youtube videos lol.

100 Watt im Idle bei 4k + 144hz. Das geht bei der 4080 mit 20 Watt und da kannst du noch zwei weitere Monitore dranhängen.

Bin gespannt auf die AMD Zielgruppe. Energieeffizienz bescheiden und bei Teillast und im Idle völlig außer Kontrolle. Raytracing deutlich dahinter. Features zu Nvidia fehlen auch und die Kühlerkonstruktion ist auch schlechter. Die 4080 kann über 100 Watt mit dem Kühler passiv kühlen, da hört man gar nichts. Und am Ende ist sogar selbst die Rasterleistung ähnlich.

Wer kauft da die AMD für 1150€, wenn man die 4080 für 1300 - 1400€ schon bekommt?
 
Ich hatte ja Bedenken beim Kauf der 4090, aber wenn ich das sehe... das ist ne herbe Enttäuschung.

Tragen wir mal die Fakten zusammen, insbesondere gegen die 4080 welche ja wie ein Stein in den Regalen liegt.

Die UVP sind 1149€ vs. 1399€, es liegen also 250€ zwischen den beiden Karten.
Für 250€ weniger bekommt man eine Karte, die je nach Auflösung etwa 3-5% mehr Rasterleistung bringt, dafür aber mit RT knapp 25% verliert und im Workstation Betrieb irgenwo zwischen 10-100% langsamer als die 4080 ist.

Weiterhin:
- Kein DLSS
- kein 10-bit OpenGL
- höhere Leistungsaufnahme
- nur GDDR6 und kein GDDR6X


Zudem gelten die 1149€ nur für die Ref Karten, die richtigen AIB Karten liegen nochmal mindestens 100€ darüber.

Dann haben wir also eine 7900XTX TUF für 1249€+ gegen eine 4080 TUF für 1469€.

Warum sollte ich wegen etwa 15% Preisunterschied all diese Nachteile hinnehmen und habe auf einmal ein gutes Produkt, während die 4080 in allen Bereichen verflucht wird? Die 7900XTX ist bestenfalls so uninteressant wie die 4080, wenn nicht sogar noch schlimmer.
 
Wieder einmal Danke an alle Beteiligten im PCGH-Team für diese Mammutaufgabe. So eine neue Generation ist immer etwas Besonderes - aber auch besonders anstrengend. :devil: Video folgt auch gleich noch auf Youtube.
Ja nun

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Wieder einmal zeigt AMD, dass man nicht unbedingt Mondpreise für neue GPUs verlangen muss. Und das mit üppigen Grafikspeicher. Raytracing kostet selbst auf RTX Karten sehr viel Leistung. Für Leute, die auf ihr Geldbeutel achten müssen, ist AMD fast immer die bessere Wahl. Gerade in der Mittelklasse würde ich aktuell eine RX 6700 oder eine RX 6800 kaufen. Da hat Nvidia einfach keine Alternativen. Aber für viele scheint es ohne RT nicht mehr zu gehen. Vielen Dank, Nvidia! Mir persönlich ist die reine Leistung immer noch am wichtigsten.
 
Vielen Dank für den tollen Test mal wieder! Da freut man sich auch schon wieder richtig auf den Heftinhalt!

Zur Karte selbst, gibt es noch viele Baustellen die behoben werden müssen.

Negativ empfinde ich:
- den hohen Idle Verbrauch
- schwankende Leistung aufgrund der Treiberumstellung

Positiv empfinde ich:
- Anschlüsse Displayport 2.1
- Neuen Codecs
- Preis

Daher freue ich mich schon auf die Karten im Preissegment eins darunter, die mit weniger Verbrauch daherkommen werden. 300W sind einfach für den Sommer zu viel Abwärme :)
 
Wieder einmal zeigt AMD, dass man nicht unbedingt Mondpreise für neue GPUs verlangen muss. Und das mit üppigen Grafikspeicher. Raytracing kostet selbst auf RTX Karten sehr viel Leistung. Für Leute, die auf ihr Geldbeutel achten müssen, ist AMD fast immer die bessere Wahl. Gerade in der Mittelklasse würde ich aktuell eine RX 6700 oder eine RX 6800 kaufen. Da hat Nvidia einfach keine Alternative. Aber für viele scheint es ohne RT nicht mehr zu gehen. Vielen Dank, Nvidia! Mir persönlich ist die reine Leistung immer noch am wichtigsten.
15% Preisunterschied zu einem verfluchten Produkt bei zusätzlichen Nachteilen ist also die Grenze zwischen "Mondpreis" und "Topprodukt"? Foren sind schon immer echt spannend.
 
Erst einmal besten Dank für den ausführlichen Test. :pcghrockt:

Der Preis hat mich positiv überrascht, hätte mit gut 150+ pro Modell Euro mehr gerechnet, mal sehen was die Shops bei Release so nehmen werden. Es gefällt mir auch, das die Topkarte eher Richtung 1K bepreist worden sind und nicht krampfhaft versucht wurde, mit noch mehr Leistung 2K als das "neue Normal" praktisch zu unterschreiben. Intel und AMD gehen den anderen Weg, gut so! Die Leistung im Rasterizing stimmt, RT... naja, Schwamm drüber, dafür gibt es halt den vergleichsweise günstigeren Preis. Dickes Manko ist aber der Idle Verbrauch, ich dachte zuerst, ich hätte mich verlesen. Da muss AMD dringend nachbessern.
 
Finde es schade, dass AMD nicht mehr an der RT Leistung geschraubt hat.
Dadurch müssen die Entwickler wieder Rücksicht auf AMD nehmen und die Nvidiakarten können nicht ihr volles Potential ausschöpfen.
AMD bremst die RT Entwicklung.

- Anschlüsse Displayport 2.1
Was bringt mir das, wenn die Karte zu langsam ist, um den Bildschirm zu befeuern?
 
Weiterhin:
- Kein DLSS
- kein 10-bit OpenGL
- höhere Leistungsaufnahme
- nur GDDR6 und kein GDDR6X

DLSS aufzuzählen ist aber schon sehr lächerlich. Wie sollen sie eine Nvidia proprietäre Technik implementieren? FSR gibt es ja auch (mit weniger Ghosting).
Welcher RAM verbaut ist, ist ja schlussendlich auch Wurst, was zählt ist, was dabei raus kommt.
 
@PCGH_Raff Vielen Dank für den ausführlichen Test! Gute Karte mit der erwarteten Leistung. Ich muss mich hier aber Alk anschließen und die Leistungsaufnahme bei 4K144Hz und simplen Videos bemängeln! Das geht einfach gar nicht. Hier ist noch ein Nutzer der sich 90% der Zeit im Idle Modus befindet und das kann nVidia leider wesentlich besser.
Schade!
 
Zurück