Special AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070?

Die 12GB RTX 4080 wäre allerdings gut 20% vor der 3080 gelegen.
AMDs 7800XT schafft in Raster 0%.
Richtig, allerdings lag die 12GB-4080 auch 100 Dollar über einer 3080, während die 7800XT 100 Dollar unter einer 6800XT liegt. Wie gesagt: Grün und Rot tun sich hier wenig bis gar nichts; da gibt's auf beiden Seiten nichts schön zu reden.
 
ok das ist jetzt ein kleiner Ausschnitt von vielen. Mich interessiert da ein umfassender Vergleich.
Vom Design her zB spricht mich die 7800 xT Asrock Steel Legend an, ....
Wenn es nicht so eilt, kommen bestimmt noch mehr Reviews zu den Customs.
Man kann dann mit der Zeit auch mal die Kundenbewertungen von Käufern anschauen.
 
Sehr schöner Test :)
AMD müsste man aber Ohrfeigen für den vergeben Namen :slap:
Sicher die Karte ist im Allgemeinen ganz solide und bei unter 500€ sicher auch ein toller Partner.
Der Unterschied zum namentlichen Vorgänger ist aber einfach zum fremdschämen. Da helfen auch die paar weniger Watt nicht.

Diese GPU Generation kann man schon als Beleidigung für uns treue Gamer bezeichnen. Nicht nur haben viele den Miningboom abgewartet und sich auf die neue Gen gefreut, nein es wurde uns auf beiden Seiten mit einer Serie gedankt, wo kleinere Chips den Namen der nächst größeren Version erhalten haben.
So war es bei der 4080, 4070, 4060, 7900XT und nun auch beider 7800XT :(

Ich weiß es wird wieder mal gemeckert und jedes Unternehmen will ihre Gewinne halten bzw. ausbauen aber spaß macht sowas doch beim einkaufen neuer Hardware nicht...

Ich drücke uns jedenfalls die Daumen, das neue Games kommen die uns optisch und inhaltlich aufzeigen, wie zukünftige Games aussehen müssen und das man auch dementsprechende Hardware benötigt. So müssen Nvidia und AMD jedenfalls bei der nächsten Generation wieder etwas mehr bieten und nicht die Chips größer vermarkten und verkaufen als sie es eigentlich sind :)
 
Weiß ja ned wieviel Ihr für den Strom Zahlt...
Ich Zahl 30 Cent per Kwh
..

Also rechnen wir doch 50 Watt und jeden Tag 1h zockn, ist für mich schon viel, sehr viel.. Also sagen wir 300h im Jahr zockn, 300 × 0.05 kWh × 0.3 euro

Sind ganze 4.5 im Jahr... Also wenn ich fast 2h JEDEN Tag zocke sind es 9 Euro im Jahr....

HAMMER

Wie ein Fähnchen im Wind. Plötzlich ist der Stromverbrauch total unwichtig. Wenn AMD bei der Effizienz vorne liegt, dann ist das aber total super, gell? Gibt ja genügend Beispiele von Deinen Aussagen diesbezüglich hier im Forum:

Das ist mir hier eh schon öfter Aufgefallen von Schaffe u co, wenn AMD Grafikkarten mehr Strom verbrauchen sind Sie deshalb unkaufbar bei CPUS ist auf einmal der Energieumsatz völlig schnuppe...

Sehr selektive Wahrnehmung.....
Und 8 % mehr Singelcore:
1. Die merkt man in der Praxis kaum bis gar nicht, alles unter 20% merkt man normalerweise nicht.
2. Dafür viel höherer Energieumsatz.
3. Massiv langsamer in Multicore..

Haben die eigentlich PCIE 4.0?

Was jetzt das das bessere Gesamtpaket ist... wohl Geschmackssache

Echt?
Meine 6600xt die ich glücklicher für up von 379 bekommen habe braucht im Desktop Betrieb 4 Watt, unterm Spielen nie mehr als 150 Watt...
Bei Cyberpunk mit Ultra Grafik in fullhd, das reicht mir, ohne rt, brauch ich noch ned, durchnittlich 95 FPS...
WO IST DA EIN HOHER Stromverbrauch?
Bei Nvidia evt...

Ja die 6600xt gabs am Anfang echt viele.... Deswegen gabs sie ja auch fast eine Stunde für UVP...
Und es kommen täglich welche nach und obwohl die Preise so gestiegen sind gehen die weg wie warme Semmeln ..

Als Händler wär man ja blöd Preise zu senken wenn eh alles gekauft wird....
Schade das so viele die überzogenen Preise zahlen

Mein Aussage bezog sich darauf das der Poster gesagt hat diese Generation verbraucht zu viel Strom, was definitiv falsch ist wenn man sich bei der 6600XT Performance per Watt anschaut, auch wenn es jetzt nur AVG 70 FPS sind, falls ich zu oft im Menü war z.B. ist diese Aussage falsch
Und Nvidia braucht halt in der Generation mehr Watt pro Frame, wo habe ich Nvidia nieder gemacht, sagte nur eventuell zählt das Argument bei Nvidia, wo man da runter machen lesen kann....

Dein Text Verständnis, 6

Es geht um den Durchschnitt, nicht einzelne Games, also wie kommst du darauf das der AMD im Durchschnitt dem Intel, der mind. das 3 Fache an Strom in Spielen benötigt und das doppelte kostet, nicht das Wasser reichen kann?

und was du sagst ist eh ein Schmarrn, wenn es nur nach Takt gehen würde, wäre ja der Bulldozer mit 5 GHZ der König ;-)

Es kommt drauf an wie Effizient eine CPU pro MHZ ist..

Also bitte bleib doch auch dabei wenn AMD neue Produkte released.

Ich erinnere mal daran dass es bei RDNA2 vs Ampere GENAU DIESELBE Diskussion gab, mit geringeren Abständen was Mehrverbrauch angeht.

6800XT 300W
3080 320W

Was war da los hier im Forum, "Nvidia ineffizient", "FPS/Watt zählt!", und jetzt? Alles egal!
 
Wieso ist alles war zurzeit erscheint Scheibenkleister?! Bei allen Produkte muss man eine gewaltigen Kröte schlucken.
Bei Nvidia der kleine RAM und Preis, und bei AMD der Verbrauch und die schlechten Technologien.:daumen2:

Wird aber trotzdem Amd
 
Ich denke, AMD möchte noch die Restbestände der 6700xt-6800xt abverkaufen und auch Händler die Chance geben ihre Lager noch zu leeren. Wenn die Lager dann leer sind, sinkt der Preis der 7000er.

Dafür wäre AMD zu spät dran.
Die günstigsten 7800 XT gibts für 560~570€, das sind 10~20€ mehr als für die günstigsten 6800 XT. Einzige Ausnahme ist die XFX die gerade bei Mindfactory für 540€ zu haben ist, wenn man in D wohnt
Wahrscheinlich wird die 6800 XT nicht mehr lange erhältlich sein, einen allzu günstigen Abverkauf mit deutlicher niedrigeren Preisen als der 7800 XT wirds wohl nicht geben.
 
Zuletzt bearbeitet:
Fad, wenn man die Leistung bereits aus der Vorgängergeneration im Rechner hat.
Interessant, wenn man die Leistung noch braucht, Starfield haben möchte und der Preis in ein paar Wochen um weitere 50 Euro gefallen sein wird.

Sind schon langweilig, die Karten der aktuellen Generation. Von der enttäuschenden Mehrleistung zur Vorgängergeneration abgesehen scheint mir die 7800 XT aber das rundeste Angebot aller aktuellen Karten zu sein.

Na gut, weckt mich, wenn die nächste Kartengeneration da ist. Vielleicht wird's bei Intel ja spannend nächstes Jahr!
 
Hab das Gefühl da geht nicht mehr viel zurzeit, daher baut NV DLSS aus. Hardwareseitig wird man Dank FSR und DLSS nicht mehr viel erwarten müssen.
 
Das Warten hat sich gelohnt - und für den Preis kann man sogar zum Release kaufen,

W E N N

der Kauf von Starfield ohnehin erfolgt wäre und man von unterhalb der 5700/3070 aufrüstet.

Einer SFX 7800 Merc 319 für 579 Ösen stehen dann, derer 700, für eine 4070 MIT Starfield PE* entgegen.
Peanuts oder Hausnummer, ist da vom jeweiligen, eigenen, Salär abhängig, nur völlig unbeachtlich ist eine solche Differenz eben nicht. Auch der nahende Black Friday wird einen derartigen Nachlass wohl nicht bringen.

Ebenso ist der Generationssprung im Nanobereich völlig unbeachtlich, wenn, wie bei mir, noch eine 1070 im Rechner werkelt. Die 6800 sollte es werden und die brandneue 7800 XT ist gar 2 FPS schneller und dabei weniger stromhungrig. Super! Die 7800XT ist um noch einiges besser als die 6800XT zum Aufrüsten. Vielleicht bin ICH mit meiner 1070 ja Zielgruppe - und nicht Besitzer einer 4070 oder 6800 XT?

Wäre da nicht der Verbrauch .... Oder?
Da wurde ja schon ausgerechnet, dass der gesparte Batzen Funkeltaler bei der Anschaffung, innerhalb einer halben Dekade beim örtlichen Elektronendealer landet. Was im ersten Moment logisch - weil rechnerisch richtig - klingt, möchte ich aber folgenderweise hinterfragen:

Was, wenn meine neue 7800 XT in den nächsten 5 Jahren tatsächlich die Preisdifferenz zur 4070 in kuschelige Wärme transformiert - jedoch der Besitzer eben jener in schon 3? Jahren wieder 600 Euro hinblättert, weil einfach zum entspannten Spielen dann, die 16 GB der 5070 absolut notwendig werden?
DAS würde derlei langfristige Strom-Rechenmodelle nämlich sehr zuungunsten von Team Grün verschieben.
Und, zumindest ich, sehe eine reelle Chance, dass es SO kommt.

Raytracing und DLSS:
WoW, Rimworld, Elite Dangerous, BG3 und demnächst auch Starfield sind jetzt nicht so die RT-Kracher ... ich schätze daher meinen Bedarf an derlei eher gering ein. Nett, aber muss nicht. Besonders dann, wenns viel mehr kostet.



In diesem Sinne: Ich hab vor gut 3 Stunden eine 7800 XT gekauft - und bin gespannt wie ein Flitzebogen, ob ich richtig liege oder nicht. Das wird die Zeit zeigen. Denn egal wie - Ich gehe fest davon aus wieder 5 Jahre Ruhe zu haben. Und wer weiß, was dann ist ....




*die Premium-Edition hat einen Wert von 100 Eu.
 
Zuletzt bearbeitet:
Da wurde ja schon ausgerechnet, dass der gesparte Batzen Funkeltaler bei der Anschaffung, innerhalb einer halben Dekade beim örtlichen Elektronendealer landet.
:lol:
Was, wenn meine neue 7800 XT in den nächsten 5 Jahren tatsächlich die Preisdifferenz zur 4070 in kuschelige Wärme transformiert - jedoch der Besitzer eben jener in schon 3? Jahren wieder 600 Euro hinblättert, weil einfach zum entspannten Spielen dann, die 16 GB der 5070 absolut notwendig werden?
DAS würde derlei langfristige Strom-Rechenmodelle nämlich sehr zuungunsten von Team Grün verschieben.
Und, zumindest ich, sehe eine reelle Chance, dass es SO kommt.
"Wenn™" und "bald™" sind bei AMD halt immer allgegenwärtig. Wenn die tollen Vega Features erst mal genutzt werden, dann.. Und wenn bald im März/April 2023 FSR3 kommt, dann..

Zum VRAM.. Wenn Raff davon redet, dass sich 10 "Geforce-GiByte" in etwa so verhalten wie 12 "Radeon-GiByte", dann wären das bei 12 "Geforce-GiByte" in etwa 14,4 "Radeon-GiByte". Da schmilzt der Vorsprung doch schon dahin, auf 1,6 Radeon-GiByte, oder 1,33 Geforce-GiByte.. :ugly: Die bessere Speicherverwaltung wird wohl auch der Grund gewesen sein, warum die Krüppel-970 damals länger durchgehalten hat als man ihr erst zugestanden hat.

Außerdem glaube ich nicht, dass Nvidia mit ihrem Einfluss zulassen werden, dass alle ihre 12-GB-Karten in 3 Jahren unbrauchbar sind. Wobei ich mich da durchaus irren kann. Mit dem ADA-Lineup hat Nvidia ja schon die letzten Hüllen fallen lassen. Man kriegt nur noch zu wenig Leistung oder zu wenig VRAM, es sei denn man latzt vierstellig. Nvidia will das wohl auch gar nicht mehr verheimlichen.

So oder so.. Die 7800 XT ist ne absolut solide Karte. Und AMD arbeitet ja scheinbar (mal wieder) daran das Problem mit dem Idle-Verbrauch im Treiber zu lösen. Dann fällt der für mich größte Minuspunkt der Karte weg.
 
Die News Artikel schreiben alle das gleiche. Das wirklich interessante bei Markt Release ist jetzt, welches der Custom Modelle das Beste ist. Da würd ich gern mal paar Vergleiche sehen wo die Pro und Kontra der einzelnen Designs gegenübergestellt wird, ggf. auch mit Benchmark und dann auf der Basis ne Empfehlung. Das wär sehr hilfreich
Ich denke, dass PCGH in der Print-/Online-Ausgabe früher oder später eine Übersicht der CUstom-Designs drin haben wird, inkl. auch einem Test der neuen Gen.
Das war immer so, dass man einen Test aller Custom Modelle mit Pro und Contra kurze Zeit später bekam.
 
7800XT 263W
4070 200W
Preisdifferenz: günstigstes Modell 45€
Strompreisersparnis pro Stunde bei 40cent pro kw/H sind 2,5 cent
1800h Spielen bis sich der Aufpreis der 4070 amortisiert hätte.
Muss jeder selbst auf seine Spielzeit pro Woche umlegen
Bei 20h zocken jede Woche, schlappe 90 Wochen.

Das normale Narrativ eines Spielers ist jedoch nicht so energiebewusst. Da geht man eher davon aus, dass die 2% mehr Leistung sich unmittelbar in besserer e-Sport Performance niederschlägt und man die Mehrkosten mit Preisgeldern wieder reinholt.

Ich wiederum schlage vor in eine Schrebergartensiedlung zu ziehen, mehr wie so eine Gartenhütte braucht kein Gamer, Strom macht man Solar auf dem Dach und der Rest der Welt ist neidisch auf das Gras eine Tür weiter. Statt einer 2KW Elektroheizung für den Winter hat man dann sein Intel System mit Nvidia 4090.
 
Was, wenn meine neue 7800 XT in den nächsten 5 Jahren tatsächlich die Preisdifferenz zur 4070 in kuschelige Wärme transformiert - jedoch der Besitzer eben jener in schon 3? Jahren wieder 600 Euro hinblättert, weil einfach zum entspannten Spielen dann, die 16 GB der 5070 absolut notwendig werden?
Moment mal.... wer sagt denn, dass die die 5070 16 GB bekommt und nur 600€ kostet ????? 12GB reichen da vollkommen und bei der Inflation kann man ruhig 750€ hinblättern! :D
Und nur mit etwas Glück, kratzt sie dann an der Leistung der heutigen 4080!
7800XT 263W
4070 200W
Preisdifferenz: günstigstes Modell 45€
Strompreisersparnis pro Stunde bei 40cent pro kw/H sind 2,5 cent
1800h Spielen bis sich der Aufpreis der 4070 amortisiert hätte.
Muss jeder selbst auf seine Spielzeit pro Woche umlegen
Bei 20h zocken jede Woche, schlappe 90 Wochen.

Das normale Narrativ eines Spielers ist jedoch nicht so energiebewusst. Da geht man eher davon aus, dass die 2% mehr Leistung sich unmittelbar in besserer e-Sport Performance niederschlägt und man die Mehrkosten mit Preisgeldern wieder reinholt.

Ich wiederum schlage vor in eine Schrebergartensiedlung zu ziehen, mehr wie so eine Gartenhütte braucht kein Gamer, Strom macht man Solar auf dem Dach und der Rest der Welt ist neidisch auf das Gras eine Tür weiter. Statt einer 2KW Elektroheizung für den Winter hat man dann sein Intel System mit Nvidia 4090.
Würde man mit einer AMD Karte nicht besser heizen ? Mit NVIDIA friert man sich doch einen ab!
Solar bringt einem nur mit einem Akku etwas. Wer zockt schon tagsüber ? :ugly:
 
Wie ein Fähnchen im Wind. Plötzlich ist der Stromverbrauch total unwichtig. Wenn AMD bei der Effizienz vorne liegt, dann ist das aber total super, gell? Gibt ja genügend Beispiele von Deinen Aussagen diesbezüglich hier im Forum:









Also bitte bleib doch auch dabei wenn AMD neue Produkte released.

Ich erinnere mal daran dass es bei RDNA2 vs Ampere GENAU DIESELBE Diskussion gab, mit geringeren Abständen was Mehrverbrauch angeht.

6800XT 300W
3080 320W

Was war da los hier im Forum, "Nvidia ineffizient", "FPS/Watt zählt!", und jetzt? Alles egal!
Auch bei den Pist sagte ich doch Stromverbrauch nicht so wichtig
Habe immer auf Post geantwortet die wieder mit der Stromkeule kamen, zum Teil sogar falsche behauptungen
 
Zurück