Special AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070?

Selten dämlich, das Ding als 7800XT auf den Markt zu bringen, aber gut, AMD und Nvidia nehmen sich halt nichts, wenn es um saudämliches Marketing geht (hallo, 12GB-4080!).

Was man sich direkt mal klar machen sollte, ist die Tatsache, dass 7700XT und 7800XT einen am Ende immer teurer zu stehen kommen werden als die Nvidia-Konkurrenz, weil die Dinger nun mal mehr Strom verbrauchen, und zwar so viel - laut Tests etwa 50W bei der 7800XT und 65W bei der 7700XT - dass, selbst bei moderaten Daddelzeiten und Strompreisen und überschaubarer Nutzungsdauer der Karte, Nvidia am Ende immer die Nase vorne haben und einen Kaufpreisunterschied von vielleicht 50 Euro mehr als wett machen wird. Beim Kauf mögen das zwar viele ausblenden, aber das ändert halt nichts an den Fakten.
Weiß ja ned wieviel Ihr für den Strom Zahlt...
Ich Zahl 30 Cent per Kwh
..

Also rechnen wir doch 50 Watt und jeden Tag 1h zockn, ist für mich schon viel, sehr viel.. Also sagen wir 300h im Jahr zockn, 300 × 0.05 kWh × 0.3 euro

Sind ganze 4.5 im Jahr... Also wenn ich fast 2h JEDEN Tag zocke sind es 9 Euro im Jahr....

HAMMER
 
Weiß ja ned wieviel Ihr für den Strom Zahlt...
Ich Zahl 30 Cent per Kwh
..

Also rechnen wir doch 50 Watt und jeden Tag 1h zockn, ist für mich schon viel, sehr viel.. Also sagen wir 300h im Jahr zockn, 300 × 0.05 kWh × 0.3 euro

Sind ganze 4.5 im Jahr... Also wenn ich fast 2h JEDEN Tag zocke sind es 9 Euro im Jahr....

HAMMER
Da würde ich glatt das Zocken aufgeben! :D

Vielleicht hilft ja Undervolting, vsync und FSR. Dann spart man evtl. noch 9€! :-)
 
Vllt. sollte NV eher mal 50€ bei der 4070 im Preis runtergehen und dann noch ein gescheites Bundle beilegen.
dito bei der 16GB-4060Ti
 
Dennoch hast du die ausgesucht, die am Werbewirksamsten waren.
Die breit gefächerten Parcours von PCGH und CB bieten halt nicht das gewünschte Ergebnis, da muss man dann etwas erfinderisch werden.
Im Übrigen darfst Du gerne Deine Umgangssprache (oder was auch immer das darstellen soll) aus Deinen schriftlichen "Beiträgen" heraushalten. Bei dieser Schreibweise stellen sich ja einem die Nackenhaare hoch.
Ich dachte schon ich wäre der einzige den das nervt...
Vllt. sollte NV eher mal 50€ bei der 4070 im Preis runtergehen
Warum genau sollte Nvidia das tun? Die Karte liegt im Rastern gleich auf mit der Konkurrenz, ist gleichzeitig aber im Raytracing deutlich schneller und zusätzlich auch noch effizienter. Sie ist also insgesamt das überlegene Paket.
 
Und wieder mal hat AMD ihre Chance vertan. Hätten sie die Karten jeweils einfach mal bei beiden Modellen um 50 Euro gesenkt, wären sie was Preis/Leistung angeht Konkurrenzfähig. Jedesmal stellen sie sich damit ein eigenes Bein. Für 50€
mehr wird sich fast jeder lieber eine 4070 mit Zukunft RT, weniger Stromverbrauch und keinen treiberproblemen holen. Schade, große Enttäuschung!
 
Also rechnen wir doch 50 Watt und jeden Tag 1h zockn, ist für mich schon viel, sehr viel..
Was für dich sehr viel ist, ist für andere sehr wenig; am Ende muss sich halt jeder selber ausrechnen, wie viel es beim ihm ausmachen würde.

Es behauptet ja auch niemand, dass dabei üblicherweise Riesenbeträge zusammenkommen, aber selbst 10 Euro jährlich summieren sich bei einer Nutzungsdauer von fünf Jahre auf 50 Euro, was einen 50 Euro höheren Kaufpreis komplett egalisiert - nicht mehr, aber auch nicht weniger.
Und wieder mal hat AMD ihre Chance vertan. Hätten sie die Karten jeweils einfach mal bei beiden Modellen um 50 Euro gesenkt, wären sie was Preis/Leistung angeht Konkurrenzfähig. Jedesmal stellen sie sich damit ein eigenes Bein. Für 50€
mehr wird sich fast jeder lieber eine 4070 mit Zukunft RT, weniger Stromverbrauch und keinen treiberproblemen holen. Schade, große Enttäuschung!
Sag so was bloß nicht laut, sonst kommt wieder das übliche "Soll AMD seine Karten etwa verschenken!!1???1!!?!"-Geschrei.

Es mag ja durchaus sein, dass sich AMD aufgrund seiner im Vergleich zu Nvidia geringeren Margen gar keine Preissenkungen in dem Umfang leisten kann, wie sie nötig wären, um den Grünen tatsächlich spürbar Käufer abzujagen, nur ist das halt ein Aspekt, der die Käufer nicht interessieren muss und auch nicht interessiert, schließlich kauft man eine Grafikkarte nicht aus Mitleid, sondern um damit zu spielen (und zu arbeiten).

Ich wünschte echt, man würde Nvidia bei den GPUs genauso Paroli bieten, wie Intel bei den CPUs, dann würde es auch hier endlich mal wieder einen Wettbewerb geben, der seinen Namen verdient hat.
 
Zuletzt bearbeitet:
AMD: Die RX 7800 XT verbraucht nur 50W mehr als die Konkurrenz!
Potentieller Kunde: Unter Last oder im Leerlauf?
AMD: Ja.

Ich hab schon ein paar langweilige Launches gesehen, aber das toppt alles. Und dann dieser Verbrauch, vor allem beim Youtube gucken oder im Leerlauf.. Als ob die Architektur heute erst erschienen wäre und AMD dieses Problem früher nie gehabt hätte. Viel Glück mit sowas Marktanteile zu gewinnen.

Intel bitte rette uns.
 
Wenn du bei den 7XXX Karten einen Pixel Clock (lässt sich mit CRU auslesen) von 1080Mhz überschreitest, taktet der VRAM nicht runter...
Ja, ich kenne das Problem. Dass der vRAM nicht runtertaktet bei "younameit" (die gründe haben sich über die Jahre immer mal wieder geändert...) und deswegen Idle und 2D-Verbräuche extrem hoch sind hatte ich schon bei meiner HD4770. Und damals hat AMD schon gesagt dass es mit nem Treiber demnächst gelöst wird und ein bekanntes Problem ist. Das meinte ich ja... ;-)
 
Guter Test! Wie immer sehr ausführlich und es bleiben keine Fragen mehr offen, so soll das sein.

Die Ergebnisse sind dann weniger aufregend, ist ja alles schon seit Wochen bekannt. Für 550€ einfach nur das 1:1 Pendant zur 6800XT, welche es vor wenigen Tagen auch noch für 499€ gab.
Wenn der Preis unter 500€ fällt (und das wird er), macht man mit einem guten Custom für dann wahrscheinlich ~550€ nichts falsch (looking at you, Nitro+). Das ist für mich auch ein "besserer" Deal als ein vergleichbares Custom der 4070 für ~650€ (wobei die großen Kühler auf der 4070 für die gerade mal 200W TDP schon fast lächerlich wirken). Luftsprünge mache ich da aber nicht, dank der RT-Schwäche muss man bei den Vorzeigespielen von Nvidia ordentlich die Regler bedienen, in CP mit RT auf Ultra sind es über 40% zur 4070, das tut schon weh.
Ausschlaggebend sind für mich die 16Gb Vram, das ist einfach um einiges zukunftssicherer.
 
Normal würde man so eine Leistung allenfalls Facelifting einer RX 6800 XT nennen. Aber das ist es ja im Grunde genommen noch nicht einmal. Die 6800 XT hatte Navi 21, die 7800 XT jetzt Navi 32, also den nächst kleineren Chip im Vollausbau. Also eher eine 7700 XT, umgelabelt zur 7800 XT. Mit der Konsequenz, das faktisch nahezu Null Mehrleistung zum namenstechnischen Vorgänger vorhanden ist. Allenfalls eine etwas bessere Effizienz ist vorhanden und eine bessere RT-Leistung auf dem kleinsten 2 stelligen Nenner.

Sorry, aber das ist eigentlich ein Pile Of Shame, ein schlechter Witz. Nie gab es beim Generationswechsel innerhalb einer Namensklassifizierung (6800 XT --->7800 XT) so wenig Mehrleistung (eigentlich keine).
Wundert ja auch nicht, wenn man es Chiptechnisch betrachtet. Da wird eigentlich aus einer 6700 XT nun eine 7800 XT (mit 256 Bit Speicherinterface und 16 statt 12 GB RAM).
 
Weiß ja ned wieviel Ihr für den Strom Zahlt...
Ich Zahl 30 Cent per Kwh
..

Also rechnen wir doch 50 Watt und jeden Tag 1h zockn, ist für mich schon viel, sehr viel.. Also sagen wir 300h im Jahr zockn, 300 × 0.05 kWh × 0.3 euro

Sind ganze 4.5 im Jahr... Also wenn ich fast 2h JEDEN Tag zocke sind es 9 Euro im Jahr....

HAMMER
Mir persönlich geht es immer um das Mehr an Wärmeenergie, welche sich im Raum verteilt. Der Preis ist mir vollkommen egal. Und ja, die 50 Watt mehr machen sich deutlich bemerkbar.

Aber das sind nur meine Vorlieben :ka:

Ausser Preis und 16GB VRAM kann die 4070 nur leider alles besser.

Das ist leider wirklich so.
 
Ausser Preis und 16GB VRAM kann die 4070 nur leider alles besser.
AMD in a nutshell.

Was den Preis angeht ist der Unterscheid geringer als man glauben würde durch den Mehrverbrauch der AMD-Karte auf die Jahre gesehen, auch wenn einige hier nicht müde werden irgendwelche Märchen-Rechnungen aufzustellen um das schönzureden.

Und auch was die 16GB angeht hat Nvidia die bessere Speicherverwaltung, wie Raff über die Jahre immer wieder erwähnt hat. Der Unterschied zwsichen 12GB Nvidia und 16GB AMD ist also wohl auch geringer als man glauben würde, wobei ich da nie richtig durchgestiegen bin.
 
Also aus meiner Sicht keine Vollkatastrophe.
Habe aktuell nur ein Gaming NB und für einen Budget Gaming Rechner um die (grob geschätzt) ~1300€ passen die beiden Karten doch eigentlich ganz gut. Klar , der Generationssprung zur 6800XT is n Witz und zum aufrüsten lohnt es sich definitiv nicht, aber für Aufrüster aus älteren Generationen bzw. komplett neue Builds bieten sich die beiden durchaus an.
Ich hoffe mal die Preise bewegen sich ein Stück nach unten (UVP zahlt man ja eigentlich aktuell eh für keine Karte), denn für unter 500€ ist die 7800XT ne echt nette Karte.
Mal abwarten wie es sich so entwickelt (und ob Nvidia die Preise der 4070 nach unten anpasst).
 
AMD in a nutshell.

Was den Preis angeht ist der Unterscheid geringer als man glauben würde durch den Mehrverbrauch der AMD-Karte auf die Jahre gesehen, auch wenn einige hier nicht müde werden irgendwelche Märchen-Rechnungen aufzustellen um das schönzureden.

Und auch was die 16GB angeht hat Nvidia die bessere Speicherverwaltung, wie Raff über die Jahre immer wieder erwähnt hat. Der Unterschied zwsichen 12GB Nvidia und 16GB AMD ist also wohl auch geringer als man glauben würde, wobei ich da nie richtig durchgestiegen bin.
Erklär mir mal was du mit Märchen Rechmung meinst?

Bei 600h im Jahr vollast macht es bei 30 Cent per kWh ud 50 Watt mehr Verbrauch 9 Euro aus im Jahr
Bei 1200 h 18 euro

Edit: wie Raff auch immer erwähnt sind das max 500 mbyte was die bessere Speicherverwaltung ausmacht
 
Zurück