Special AMD Radeon RX 7800 XT und 7700 XT: Was ist von der neuen RDNA-3-Mittelklasse auf der Gamescom 2023 zu erwarten?

Hoher Takt und Leistungsaufnahme sollen es sicherlich richten.
Die 6750 XT und 6800 (non-XT) trennen auch nur ca. 10%, bei 64 zu 96 CU's. Haben aber auch beide eine TBP von 250W.
Da werde ich mich mal bei AMD beschweren. Meine RX 6800 hat nur 60 Cus.
Ein wenig mehr als 10% Unterschied ist ja schon zwischen den beiden.
 
Da werde ich mich mal bei AMD beschweren. Meine RX 6800 hat nur 60 Cus.
Ein wenig mehr als 10% Unterschied ist ja schon zwischen den beiden.
Das Verhältnis hat lustigerweise sogar gepasst. Die 6750XT kommt auf 40CU :haha:

Jo ca 23% mehr Rohleistung für die 6800 ergeben im Index 16% mehr Leistung. In UHD sogar 20%.
 
Dass die 7800XT fast schon eine 6800XT 2.0 ist, ist armselig.
klar der Name ist die Leistung der Karte nicht würdig, aber auch nur Schall und Rauch, es geht hier wie gesagt um das Portfolio was AMD gegenüber Nvidia mit der 4070 kontert, ob die Karte dabei jetzt 7800XT/7750XT oder T1000 heißt ist sowas von wumpe

es ist ganz einfach zu verstehen und frag mich ehrlich was man da meint noch großartig zu diskutieren und AMD zu flamen: 7900XTX vs. 4080, 7900XT vs. 4070Ti, 7800XT vs. 4070 und 7700XT vs. 4060Ti

AMD hätte vielleicht die 7900XTX=7900XT, die 7900XT=7800XT und die kommende 7800XT=7700XT nennen sollen, dann hättet ihr aber kein Grund mehr gehabt euch wie die letzten ... darüber auszulassen, aber wenn man sonst keine Probleme im Leben hat als sich über den Namen einer Grafikkarte zu echauffieren, first world problems und so
 
klar der Name ist die Leistung der Karte nicht würdig, aber auch nur Schall und Rauch, es geht hier wie gesagt um das Portfolio was AMD gegenüber Nvidia mit der 4070 kontert, ob die Karte dabei jetzt 7800XT/7750XT oder T1000 heißt ist sowas von wumpe

es ist ganz einfach zu verstehen und frag mich ehrlich was man da meint noch großartig zu diskutieren und AMD zu flamen: 7900XTX vs. 4080, 7900XT vs. 4070Ti, 7800XT vs. 4070 und 7700XT vs. 4060Ti

AMD hätte vielleicht die 7900XTX=7900XT, die 7900XT=7800XT und die kommende 7800XT=7700XT nennen sollen, dann hättet ihr aber kein Grund mehr gehabt euch wie die letzten ... darüber auszulassen, aber wenn man sonst keine Probleme im Leben hat als sich über den Namen einer Grafikkarte zu echauffieren, first world problems und so
Mit der Bennenung wird halt leider nur der 0815-Kunde verarscht, der nicht so tief in der Materie steckt, wie wir.

Ist doch bei den Laptop GPUs mit den verschiedenen TGPs genau das gleiche. Klar ist es da der gleiche Chip, aber durch das Powerlevel kann sich die mögliche performance halt auch einfach mal halbieren.

Preislich denke ich, wird ne 7800XT bei 600€ liegen und die 7700XT evtl bei 500€. Dann verkaufen sich erstmal noch die 6000er Karten ab und dann hat man ja keine Wahl mehr. Ich denk auch, der hohe Restbestand in der Mittelklasse, war der Grund, warum die Karten erst jetzt kommen. Viel ist da bestimmt nicht mehr da. 6800 und 6800Xt hat das Angebot schon merklich abgenommen.
 
Mit der Bennenung wird halt leider nur der 0815-Kunde verarscht, der nicht so tief in der Materie steckt, wie wir.
wieso wird damit jeder 0815 Kunde verarscht ? wenn es selbige Raster-Leistung zum Preis der 4070 gibt, du meinst die die ne 6800XT oder wie du ne 6700XT im System haben und sich nen entsprechenden Leistungsschub erhoffen ?

sollten sie sich dahingehend vorher im Netz vielleicht mal schlau machen und Tests der Karte anschauen und da werden sie sehen das die 7800XT als Konter der 4070 verfügbar ist

Preislich denke ich, wird ne 7800XT bei 600€ liegen und die 7700XT evtl bei 500€. Dann verkaufen sich erstmal noch die 6000er Karten ab und dann hat man ja keine Wahl mehr.
schau dir doch mal die Preise der 7900XT gegenüber der 4070Ti und der 7900XTX gegenüber der 4080 an, wäre da nicht so pessimistisch was den Preis der kommenden 7800XT und der 7700XT betrifft, ansonsten läuft es halt bei AMD etwas anders, aufgrund ihrer Marktanteile,

ja vielleicht wollten sie erstmal die ganzen alten Karten und Chips auf Lager loswerden, besser als sie als Elektroschrott auf die Müllhalde zu entsorgen oder auch erstmal nur die Leutz dazu bewegen die beiden Topmodelle zu kaufen, wer weis

aber ich bin ehrlich gesagt froh das es AMD überhaupt noch gibt und Nvidia nicht noch weiter seine eh schon bisherige Monopolstellung ausnutzt um die Preise noch weiter anzuheben, was ist wenn AMD sagt hier dGPU's lohnen sich für uns nicht mehr von der Entwicklung und wir konzentrieren uns nur noch auf Konsolen GPU's

bezweifle das es irgendwer dann feiern würde für ein x80 Modell 1500€, x70 Modell 1000€ und für ein x60 Modell 650€ hinzulegen, wenn Intel auch nix gebacken bekommt mit Battlemage und Celestial, dann knallen die Sektkorken hier bei einigen Fanboys und freuen sich nen Ast ab das sie Lederjacke noch mehr Kohle in den Hals schieben können
 
ja, du glaubst gar nicht, wie viele da eben genau nicht schauen und in den Köpfen ist da fest verankert, x700 vs x070 x800 v x080 usw.

Es ist aufjedenfall wichtig, dass die Preise gut werden. Aber ich glaub das halt leider nicht.

4070ti vs 7900XT sind grob preislich gleich. Wenn eine 7800XT die 4070 als Gegner hat, erwarte ich hier auch den gleichen Preis. Wir werden es morgen sehen. Ich würde mich freuen, wenn ich mich täuschen sollte.
 
Es ist aufjedenfall wichtig, dass die Preise gut werden. Aber ich glaub das halt leider nicht.
werden wir ja morgen erleben was sie an UVP ansetzen, da US Angaben immer ohne Steuern sind, rechne noch 20% drauf und berücksichtige den Dollar Kurs, ganz einfach

denke die 7800XT wird irgendwo bei 450-480$ landen und die 7700XT bei 300$ und selbst wenn sie doch teurer werden sollten, alles nur Angebot und Nachfrage solang wir den Preis zahlen, werden sie den natürlich auch abrufen
 
Bin einfach nur froh, erst kürzlich ne 6950 XT für ~650 Euro abgegriffen zu haben. Das ist nach kurzen Probeläufen mit 7900 XTX und 4090 auch fortan mein persönliches Limit für eine "Ultra-Enthusiast" GraKa. Und bevor wer fragt: Ja, die 4090 ist brachial, aber das wars mir dann doch nicht 1800 Euro wert, und auch der Aufpreis von gut 300 Euro von 6950 XT zu 7900 XTX ist die bestenfalls ~30% Performanceplus mir nicht wert gewesen.

Die 6950 XT ist derzeit IMHO unangefochtener P/L-Sieger und jeder Interessierte sollte zugreifen, solange der Vorrat reicht. Besser wirds wohl bis auf weiteres nicht mehr.
 
Bin einfach nur froh, erst kürzlich ne 6950 XT für ~650 Euro abgegriffen zu haben. Das ist nach kurzen Probeläufen mit 7900 XTX und 4090 auch fortan mein persönliches Limit für eine "Ultra-Enthusiast" GraKa. Und bevor wer fragt: Ja, die 4090 ist brachial, aber das wars mir dann doch nicht 1800 Euro wert, und auch der Aufpreis von gut 300 Euro von 6950 XT zu 7900 XTX ist die bestenfalls ~30% Performanceplus mir nicht wert gewesen.

Die 6950 XT ist derzeit IMHO unangefochtener P/L-Sieger und jeder Interessierte sollte zugreifen, solange der Vorrat reicht. Besser wirds wohl bis auf weiteres nicht mehr.
P/L-Sieger ja...Aber
Als "Ultra-Enthusiast" gehört aber auch Raytracing... und hier kackt die Karte ab...
Die 7900 GRE ist minimal besser, hat aber auch einen besseren Verbrauch als die 6950XT...und kostet gleichviel oder ein bisschen weniger...wenn man sie so bekommen würde.
Und die 6950XT ist nur noch mit einem Modell für unter 700€ zu haben, also wirklich nicht mehr lange.


Ich habe CP2077 zum Release mit Raytracing Ultra in 1440p mit 35FPS mit einer 3080 durchgespielt. Nur dafür hatte ich von einer 1080Ti geupgradet...
Ich konnte dank Miningboom ohne Aufpreis zu einer 3090 wechseln und mit der kam auch ein 4k OLED ins Haus (mein 1440p IPS hatte auch schlimmes BLB...).
War super geil, bis der Sommer kam und die Karte mit ihren 350W das Zimmer aufgeheizt hat. Egal was ich machte, die 3090 saufte 350W, ein PL kam mir nicht in den Sinn, wohl aber UV...hat aber nichts gebracht. :D

Dann kam die 4090 mit 70% mehr Leistung und...450W...aber es zeigte sich schnell, das die 450W nicht der eigentliche Verbrauch war und die Karte auch mit den selben 350W rund 65% mehr Leistung hat. Da die 3090 4k bei ca 60FPS in AAA-Titel hielt und ich einen 120hz OLED hatte, war die Entscheidung klar.
Ich hatte noch VOR dem Release der 4090 meine 3090 gut verkauft und das Geld in die 4090 gesteckt.

Aktuell nutze ich UV und ein PL um die Karte bei 250-300W zu halten, trotz solch starker Einschränkung verliert die Karte gerade mal 5-7% Leistung im Vergleich zu Stock...Mit der 3090 ging das gar nicht...

Am Ende muss ich sagen, dass die 4090 mir nicht genug ist. Da fehlt mir noch ein quäntchen an Leistung und der Verbrauch kann auch immer weniger sein.
Aber nochmal upgraden tue ich nur wenn alles zusammen passt. Leistung der 5090, Verbrauch der 5090, der Verkaufspreis meiner 4090 und ein geringer/gleicher Preis der 5090. Andernfalls würde ich eine Gen abwarten...
 
und sie erfordert ein ordentliches Netzteil. ist Außerdem recht groß. Eine 7800XT ist hoffentlich auch nahe dran, braucht dafür aber nicht so ein starkes Netzteil und die Kühler können hoffentlich auch kleiner ausfallen.

bei mir mit nem mATX-Gehäuse sind das leider alles wichtige Punkte. Die Top-Endkarten aus der letzten Generation passen einfach nicht, sodass die Midrange-Karten mit gleicher Leistung kompakter und weniger Stromhungrig werden.
 
Hab mich jetzt doch selbst breitgeschlagen und ne RX 6800 zugelegt, dürfte für Starfield gut genug sein (und ist mit dabei).
Die Hoffnung auf vernünftige Karten zum vernünftigen Preis habe ich für die nächsten 2 Jahre aufgegeben.

Ist für mich jedenfalls genug Leistung die nächsten 3 - 4 Jahre, zudem etwas undervoltet und der Stromverbrauch ist auch OK.

Die 7700 und 7800 werden auch entsprechend viel kosten und vielleicht in 6 - 9 Monaten auf dem Preisniveau der jetzigen 6er Generation sein. Was immer noch kein Schnapper ist.
 
klar der Name ist die Leistung der Karte nicht würdig, aber auch nur Schall und Rauch, es geht hier wie gesagt um das Portfolio was AMD gegenüber Nvidia mit der 4070 kontert, ob die Karte dabei jetzt 7800XT/7750XT oder T1000 heißt ist sowas von wumpe

es ist ganz einfach zu verstehen und frag mich ehrlich was man da meint noch großartig zu diskutieren und AMD zu flamen: 7900XTX vs. 4080, 7900XT vs. 4070Ti, 7800XT vs. 4070 und 7700XT vs. 4060Ti

AMD hätte vielleicht die 7900XTX=7900XT, die 7900XT=7800XT und die kommende 7800XT=7700XT nennen sollen, dann hättet ihr aber kein Grund mehr gehabt euch wie die letzten ... darüber auszulassen, aber wenn man sonst keine Probleme im Leben hat als sich über den Namen einer Grafikkarte zu echauffieren, first world problems und so
Es geht nicht um die Namen, sondern um die aufgerufenen Preise dazu!
werden wir ja morgen erleben was sie an UVP ansetzen, da US Angaben immer ohne Steuern sind, rechne noch 20% drauf und berücksichtige den Dollar Kurs, ganz einfach

denke die 7800XT wird irgendwo bei 450-480$ landen und die 7700XT bei 300$ und selbst wenn sie doch teurer werden sollten, alles nur Angebot und Nachfrage solang wir den Preis zahlen, werden sie den natürlich auch abrufen
Träum weiter! :lol:
450$ wären der Hammer! Ich würde alles zurücknehmen, was ich bisher geschrieben habe!
Unter 499$/589€ geht da nichts! Und das ist bitter! Klar, wer warten kann...... Irgendwann vielleicht!
 
Zuletzt bearbeitet:
Um eine 7800XT kaufwürdig zu machen sollte sie mindestens einer RX6950XT gleichziehen - sieht halt alles nicht danach aus.

Eine RX7800XT muss schneller werden als eine RX7900GRE sonst haben wir hier eine ordentliche Stagnationen in dem Bereich ?
Da stimme ich dir zu. Beim Test zur 7900 GRE hatte ich bereits kommentiert, das diese eigentlich als 7800 (GRE) hätte kommen sollen, und die 7800 XT dann als 7700 / 7750 XT.

Die einzige Leistungssteigerung ggü. der 6800 XT wird bei der 7800 XT wohl nur mit Raytracing zu sehen sein. Unter Rasterizing muss man sich mit einer Effizienzsteigerung begnügen.

Da werde ich mich mal bei AMD beschweren. Meine RX 6800 hat nur 60 Cus.
Ein wenig mehr als 10% Unterschied ist ja schon zwischen den beiden.
d'oh! In der Spalte verrutscht, 64 / 96 sind die ROPs. Bei CU korrekt sind 40 zu 60.

Zum Leistungsunterschied: Das hab ich von Computerbase - hatte es dort schneller gefunden als bei PCGH -, geschaut hatte ich jedoch nur bei FullHD. Ob Rasterizing oder Raytracing, hatte in FHD keine nennenswerte Auswirkung gehabt.
Hätte die Auflösung dazu schreiben sollen, denn mit steigender Auflösung fällt die 6750 XT weiter zurück.
 
Ich sehe eher die 7800xt in WQHD oder UWQHD@FSR2.
und
Die 7700xt in FHD-highFps oder WQHD@FSR2.
(bitte dann in Immortals testen)

Was sollen sinnlose Vgl. mit ner vollkommen unnötigen 6950?
(eher wäre 4070 bzw. 4060Ti angebracht)

Die N32 MBA sind prima niedliche Teilchen für Aufrüster. (auch ein Fortschritt ggü. den 6800xt-Customs)
sollten ohne Probleme ne RX 5700 oder RX 590 ersetzen können
 
Zuletzt bearbeitet:
Ich kann Aufrüstern die 6700 XT dringend ans Herz legen
Mit Zähneknirschen, denn die 6700 XT hat in 1440p in einigen Titeln schon arg zu kämpfen. Und die 6800 XT hat z.B. in Plague Tale Requiem, Metro Exodus und Hitman 3 ca. +50%, in Control, R3make und Cyberpunk +40% höhere P1-FPS und im PCGH-Index +43%.
 
Gerade ist der Preisvorteil der 6700xt ggü. der 6750@359€ net sehr groß, ... daher 6750-12GB!
(und incl. Starfield allemal sinnvoller als ne 4060-8GB)

(reicht auch für RT-light)

6750@359€.JPG


Ob ne 7700xt annähernd preiswert wird, who knows.
 
Zuletzt bearbeitet:
also bspw für Cyberpunk mit einer 6700XT, kann man bei WQHD und UWQHD jeglichen RT-Effekt auch mit FSR performance vergessen. Bzw will man sich eigentlich auch FSR performance nicht antun, weil das fürchterlich aussieht. Dann lieber ein scharfes Bild ohne RT.
 
Zuletzt bearbeitet:
450$ wären der Hammer! Ich würde alles zurücknehmen, was ich bisher geschrieben habe!
knapp, die Preise sind übrigens inkl. Steuern, frag mich nur wo die 7700XT gegenüber der 4060Ti da leistungsmäßig landen wird, naja ok zwischen der 4070 und der 4060Ti liegen dann auch nochmals fast 40% Leistung, werden ja am 06.09. sehen was Sache ist

 

Anhänge

  • 7800-7700XT.jpg
    7800-7700XT.jpg
    279,4 KB · Aufrufe: 6
[ Frame Generation ... bein Intel ]

Garantiert wird da bereits mit Hochdruck dran gearbeitet... das Feature ist einfach zu gut um es zu ignorieren...
Nur bei Intel wird es irgendwann einfach funktionsfähig veröffentlicht..
da war keiner so blöd bisher und hat das ganze in einer Panik Reaktion vorgestellt bevor die Entwicklung überhaupt angefangen hat...

Und die werden sich hüten da n Hype entstehen zu lassen um nachher mit runter gelassener Hose da zu stehen wenn's nicht klappt oder länger dauert.
Weiß man nicht und bei dem Sparkurs, den Intel zurzeit fährt kann man sich nicht sicher sein, dass die das vielleicht nicht canceln und sich anderen softwaretechnischen Dingen widmen, denn schließlich kann man die Karten auch über FSR3 laufen lassen. Und hierbei nicht verwechseln ... AMD unterstützt Drittkarten nicht weil die so nett und gönnerhaft sind, sondern schlicht weil der Martk sie dazu zwingt. Ihr extrem geringer GPU-Marktanteil würde ihr FSR3 ansonsten direkt zur Bedeutungslosigkeit verdammen, wenn man das nur den eigenen Produkten vorbehalten würde.
Intel könnte, wenn sie ihre Zeit also mit Lohnenswerterem verbringen wollten, also durchaus das Risiko eingehen und sich hier "auf AMD verlassen".

*) Es bleibt einzig noch die ungeklärte Frage zur Qualität, da man aktuell noch nichts zu FSR3 gesehen hat und nicht bewerten kann, wie das bspw. im direkten Vergleich abschneiden wird. Ein zwingendes "muss Intel selbst entwickeln" würde meiner Meinung nach nur geboten sein, wenn AMD hier nVidia deutlich hinterher hinkt, wobei ich davon jedoch erst mal nicht ausgehen würde. Darüber hinaus, kommt dann noch die Prestige-Karte ins Spiel und vielleicht will es sich Intel grundsätzlich nicht nehmen lassen und vielleicht auch zeigen, dass sie SW-technisch so einiges mindestens so gut wie die Konkurrenz machen? Da man auf den Informationen wie Motion Vectors, die man eh schon für das XeSS-Upscaling benötigt, aufbauen kann, dürfte sich die Technik vergleichsweise leicht in ihr SDK integrieren lassen. Mal abwarten ... ab Ende durchaus ein begrüßenswerter Punkt, dass wir nun wieder mit drei Herstellern im GPU-Markt unterwegs sind und es bleibt zu hoffen, dass Intel dieses Marktsegment für längerfristig lohnenswert erachtet ...
 
Schon und gut aber 22% + 10% minus zur 7900GRE wären was an Leistungsklasse ?

Anhang anzeigen 1435046

Um eine 7800XT kaufwürdig zu machen sollte sie mindestens einer RX6950XT gleichziehen - sieht halt alles nicht danach aus.

Eine RX7800XT muss schneller werden als eine RX7900GRE sonst haben wir hier eine ordentliche Stagnationen in dem Bereich ?

Na jetzt trudeln die ersten Benchmark-Werte ein, siehe https://www.guru3d.com/news-story/r...k-points-in-timespy-(matching-rx-6800xt).html ... etwas unterhalb der 6800XT in Timespy, wie erwartet (nicht von allen Forenteilnehmern, aber wegen der technischen Eckdaten im Vergleich).
 
Zurück