Special AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070?

Die 7800XT hat sich jetzt in den paar Stunden knapp 400 mal bei Mindfactory verkauft. Wieviel ist das, ungefähr das zehnfache der letzten paar Veröffentlichungen in der Zeitspanne? Anscheinend empfinden doch einige den Preis als vergleichsweise fair und hocken auf älteren Karten als die letzte Generation.

Die 7700XT floppt bei dem geringen Preisunterschied natürlich auch wieder.
 
Na alles, wo bei AMD Zahlen im Bereich 30-90W stehen wo bei den grünen <20W stehen.
Anhang anzeigen 1436540

Eben generell alle Dinge, die keine Grafikkarte der letzten 10-15 Jahre dazu veranlassen sollten, irgendetwas hochzutakten. Im Windows rumeiern, normales arbeiten (so mit Fenster öffnen, Maus bewegen und so...), Videos kucken, einen Bildschirm mit hohen Hz-Zahlen oder gar mehr als einen Bildschirm anschließen... so normale Sachen halt was Leute mit ihrem PC tun wenn sie nicht grade zocken. :ka:

In den Leerlauf kommt man da ja nie. Ich soweiso nicht weil ichn 4K/144Hz-TFT habe aber selbst wenns ein 60Hz wäre - wenn ich am PC arbeite wäre der Takt oben weil ich Fenster und Maus bewege, wenn ich nicht arbeite schaue ich Videos auf YT oder netflix oder sonstwo und der Takt wäre auch oben. Wenn ich das 10 Stunden am Tag mache habe ich 10 Stunden lang roundabout 50 statt 15W auf der Uhr. Wie gesagt - das ist kein Weltuntergang aber eben einfach unnötig und im Jahre 2023 (eigentlich schon 2013) inakzeptabel.
Ich bin mir nicht sicher, ob die Tabelle mit den Verbräuchen noch aktuell ist.

Zumindest bei meiner RX 6800 sind die Leerlauf/Videoverbräuche in den letzten Monaten mit jedem Treiber runter gegangen. In 2021 hatte ich z. B. noch knapp 40 W Leerlauf und 60 W Youtube auf meinem 144 Hz UWQHD-Monitor laut dem AMD-Overlay (also unvollständig). Das wurde dann besser, mit den letzten Treiberversionen - ich meine, es war der 23.7.1 oder 23.8.1 - liege ich jetzt bei "nur noch" 25-27 W im Leerlauf und 40 W beim Abspielen eines Videos. Das finde ich immer noch nicht prall, aber immerhin auch nicht mehr vollkommen peinlich. Es tut sich scheinbar wirklich etwas. Und unter Vollast braucht die Karte mit UV nur rund 200W, das finde ich für die Leistung bis heute sehr wenig.

Ungeachtet dessen bin ich grundsätzlich vollkommen bei Dir. Es ist einfach peinlich, wie ineffizient die 6000er und jetzt auch die 7000er Karten im Leerlauf und bei anspruchslosen Tätigkeiten sind. Es darf eigentlich nicht passieren, dass sich so ein Problem über Generationen von Karten hinzieht...

Edit: Gerade den 23.9.1 installiert und in Officeanwendungen inkl. offenem Browser sind es jetzt sogar nochmal 5 W weniger. Lande jetzt bei ca. 22 W. Youtube liegt aber immer noch bei ca. 40 W...
 
Zuletzt bearbeitet:
Die RX7800XT zeigt eindrucksvolle wie Stagnation funktioniert.
(Die Karte hätte Leistungstechnisch den Rufnamen RX7800(non)XT verdient)

Ja wahrlich mit der 7800XT wurde viele falsch & noch weniger richtig gemacht.

Wo soll man aber auch hin mit der Leistung, wenn direkt vor der Nase einen RX7900GRE geparkt wird.
Der Name 7800XT wäre bei dieser GRE wohl angebrachter gewesen um die Leistungsklassen Bezeichnung aufrecht zu erhalten.
 
Zuletzt bearbeitet:
Noch mehr Stillstand zum selben Preis.Meine Güte, den gehts derzeit echt zu gut offenbar.
Für Out of the Box Player ist die 7800xt idealer als die 6800xt, die fürs Optimum getweaked werden sollte.
Es gibt doch einige User, die Berührungsängste bezgl. 6800xt@MPT haben.

Bei TPU braucht die 7800xt-ref@stock takt erstaunlicherweise nicht das volle Powerlimit.
Das ist sicherlich vom Game abhängig, aber ein gutes Zeichen.
(siehe Anhang)
 

Anhänge

  • 7800xt_power@CP2077.jpg
    7800xt_power@CP2077.jpg
    175,6 KB · Aufrufe: 54
Zuletzt bearbeitet:
7800XT 263W
4070 200W
Preisdifferenz: günstigstes Modell 45€
Strompreisersparnis pro Stunde bei 40cent pro kw/H sind 2,5 cent
1800h Spielen bis sich der Aufpreis der 4070 amortisiert hätte.
Muss jeder selbst auf seine Spielzeit pro Woche umlegen
Bei 20h zocken jede Woche, schlappe 90 Wochen.

Das normale Narrativ eines Spielers ist jedoch nicht so energiebewusst. Da geht man eher davon aus, dass die 2% mehr Leistung sich unmittelbar in besserer e-Sport Performance niederschlägt und man die Mehrkosten mit Preisgeldern wieder reinholt.

Ich wiederum schlage vor in eine Schrebergartensiedlung zu ziehen, mehr wie so eine Gartenhütte braucht kein Gamer, Strom macht man Solar auf dem Dach und der Rest der Welt ist neidisch auf das Gras eine Tür weiter. Statt einer 2KW Elektroheizung für den Winter hat man dann sein Intel System mit Nvidia 4090.

Wer diesen Winter gut mit seiner GPU heizen möchte, der greift aber zu RDNA3 und nicht zu Ada:

1694069402480.png


1694069414877.png
 
Wo kommen eigentlich die Verbrauchswerte für Starfield her?
Sind die neuen Grakas im Review ergänzt worden?

Jo, jetzt sehe ichs auch, nice.
Die 7800xt ist drin, nur die 7700xt fehlt noch.
 

Anhänge

  • Starfield@WQHD.JPG
    Starfield@WQHD.JPG
    61 KB · Aufrufe: 46
Zuletzt bearbeitet:
Stillstand? Deutlich gestiegene Effizienz und eine zumindest im Vergleich zur Konkurrenz gesunde VRAM Ausstattung. Man kann AMD ja nicht dafür kritisieren, dass die 6800XT so zukunftssicher und nachhaltig war.
Dann hau mal raus,


in wie vielen Spielen sind die 12 GB der 4070 heute, ohne Mods ein Problem. Ein paar Wochen nach Release.

Die letzten 12-18 Monate war VRam doch eingentlich nur bei Release Buggy, ein paar wenige Patch weiter und Problem gelöst.
 
Navi32 ist keine überragend gute, aber auch keine schlechte GPU. Der Verbrauch ist etwas aus der Zeit gefallen, könnte aber für Leute interessant sein, die RDNA2 ausgelassen haben.
 

Schade das die Konkurrenten da nicht mit nachgemessen wurden.

Ich kann dazu beisteuern, in WQHD und inkl. OC Powerlimit bei 300W, kommt die 4070ti nicht über 230W. Im Schnitt eher 210-215W.
Raff hat die 7800xt auch in dem vorhanden Artikel/Gamereview eingepflegt.


Wer allerdings die Perf.@FSR2 wissen möchte, muss Woanders lesen.
Genau so bei DLSS, wer sich dafür interessiert muss woanders schauen. Da kann man auch gleich schauen wie sich Nvidia´s Framegeneration sich in Starfield macht und die Optik von FSR und DLSS vergleichen.
 
Wer diesen Winter gut mit seiner GPU heizen möchte, der greift aber zu RDNA3 und nicht zu Ada:
Finde ich jetzt auch übertrieben.
Bei RX7900XT(X) muss man nur bei den Customs doch aufpassen.

Ich sehe die Kernunterschiede eher bei der RT Leistung, der Bildqualität bei Verwendung von FSR/DLSS und der Leistung mit eben diesen Verfahren.

VR ist eher Nische, von daher für den Einzelnen wichtig, die Masse aber eher nicht.
Raff bemerkte z.B. vermehrt Abstürze bei 12GB in Hogwarts.
RTX4000 nach den ersten Patch?
 
Finde ich jetzt auch übertrieben.
Bei RX7900XT(X) muss man nur bei den Customs doch aufpassen.

Ich sehe die Kernunterschiede eher bei der RT Leistung, der Bildqualität bei Verwendung von FSR/DLSS und der Leistung mit eben diesen Verfahren.

Ich seh das auch so, den Quatsch hat jemand anderes ins Spiel gebracht:
Statt einer 2KW Elektroheizung für den Winter hat man dann sein Intel System mit Nvidia 4090.
 
Die RX7800xt wäre eine gute Karte, würde sie Rx7700xt heißen und ca. 450€ kosten.
So ist sie nunmal der offizielle Nachfolger der RX6800xt die quasi gleich schnell ist & gleich viel kostet. Damit eine riesen Enttäuschung.
Das ist dann quasi 0 Entwicklung + Mehrwert durch neue Generation. Da würde ich eher eine gebrauchte rx6800xt von ebay oder eine rx6950xt kaufen. Diese Karte gehört wie die RTX4070 + Rtx4070 (Vram-Krücken) + rtx4060/4060ti gemobbt. Ist genauso eine Verarsche wie gtx970 + rtx2060 6Gb damals.
Finde die einzigen Karten der aktuellen Gen sinnd nur ie aufwärts rx7900xt/rtx4080. Darunter ist doch alles Kunden-Verdummung. Die Hersteller glauben aktuell die kommen mit jedem Mist durch und wir dummen Gamer kaufen jeden Müll, egal wie schlecht, egal wie teuer.
Ich kaufe nix aktuell. Die sollen auf ihren Mist sitzen bleiben.
 
Finde ich jetzt auch übertrieben.
Bei RX7900XT(X) muss man nur bei den Customs doch aufpassen.

Ich sehe die Kernunterschiede eher bei der RT Leistung, der Bildqualität bei Verwendung von FSR/DLSS und der Leistung mit eben diesen Verfahren.

VR ist eher Nische, von daher für den Einzelnen wichtig, die Masse aber eher nicht.

RTX4000 nach den ersten Patch?
Ja, wohl bei den aktuellen Benchmarks.
 
Ja, wohl bei den aktuellen Benchmark

@PCGH_Raff

Kannst du einmal was dazu sagen. Ich kann mir mit den aktuellen Treibern und aktuellen Spielstand nicht vorstellen, das Hogwarts auf einer RTX4000 ab 12GB abstürzt.

Wenn doch wäre ich dankbar für eine Aufklärung.

Wie gesagt, mir fehlt der Glaube daran, das es wegen der 12GB zum Absturz kommt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

4k Ultra zeigt nur normale VRAM Auslastungen bis etwa 10GB.
 
Erinnert mich irgendwie an die HD 8000 Serien von damals, das was praktisch nur die HD 7000er Serie unter anderem Namen. Klar, das lässt sich Architektur technisch jetzt nicht verglichen, aber das Leistungsplus (oder besser gesagt kaum/kein Leistungsplus) war da gefühlt ähnlich. Also ich finde die neue Gen, bis auf die 4090 (dafür zu teuer), total enttäuschend.
Sollte Sony wirklich nee Pro rausbringen, dann kann da GPU Seitig nicht so viel mehr bei rum kommen.
Dann bleib ich erstmal weiterhin bei meiner XSX als Haupt-Gaming Platform und hoffe das die nächste GPU Gen mal wieder gut an Performance zulegt und das auch zu nachvollziehbaren Preisen, auch wenn nee 7800xt für Leute die unbedingt/ dringend ein System brauchen, sicherlich, in Anbetracht des Marktes, keine schlechte Idee wäre.
 
@PCGH_Raff

Kannst du einmal was dazu sagen. Ich kann mir mit den aktuellen Treibern und aktuellen Spielstand nicht vorstellen, das Hogwarts auf einer RTX4000 ab 12GB abstürzt.

Wenn doch wäre ich dankbar für eine Aufklärung.

Wie gesagt, mir fehlt der Glaube daran, das es wegen der 12GB zum Absturz kommt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

4k Ultra zeigt nur normale VRAM Auslastungen bis etwa 10GB.
Moin!

Wenn ich so etwas sage, dann nur, wenn ich sicher bin. :-) Das tritt auf grundverschiedenen Systemen auf. Ich hab's im Büro auf 5600X/X570 und ich hab's an der neuen Benchkiste mit 13900KS/Z790. Liegt definitiv am VRAM. RTX 4070 crasht - RTX 4060 Ti 16GB nicht. Benchmarkszene zwischen Hogsmeade und Hogwarts im Winter. Der Spielstand ist keine zwei Wochen alt.

Zur Sicherheit: Meine Aussage stammt aus der Abhandlung des "Next-Gen"-Raytracing-Leistungsindex. Da ist alles an, nicht bloß "Ultra". Getestet wird mit DLSS Quality. Spätestens in UWQHD wird die Karte absturzfreudig, in UHD sogar sehr. WQHD läuft länger, aber ich benche ein Spiel sowieso nicht länger als ~15 MInuten.

MfG
Raff
 
Zurück