News Radeon RX 9070 XT und 9070: Leistungsprognosen für RDNA 4

Details sehr runterschrauben da nach einiger Spielzeit Speicher üblerlaüft und zum extremen ruckeln anfängt...
Und selbst wenn, ist das ein Fehler am Spiel (Bug) und nicht an der GPU des Nutzers.
Es gibt vermehrt Meldungen im Internet darüber, auch von 4080 Besitzern mit 16GB VRAM.
Wenn du lange genug spielst, könnte es auch mit einer 4090 passieren.
 
deine genannte mittelklassen karte kostet 850€, das ist keine mittlelklasse mehr.
Aus welchem grund muss Amds Karte 100$ weniger als die rtx5070 kosten? Wegen der leistung auf jedenfall nicht.
Die 5070 hat gerade mal ein Viertel der Shader des Vollausbaus. Wie soll das keine Mittelklasse sein? Nur weil Hersteller aufgrund der Marktlage jeden Preis verlangen können, macht das ihre Produkte nicht hochklassiger.
 
also ist die Namensgebung nur als Gegenpart für die alte Generation gedacht? clever Marketing!
nun ja, dazu gehört auch ein wenig Talent, schlißlich benennt Nvidia ihre Chips nahc unten hin schon völlig falsch, und zieht die preise nochmal hoch
Warum? Wer 2025 eine 12GB VRAM Karte kauft, ist selbst schuld.
Da hat jemand im PCGH Video aufgepasst :-)
Und trotzdem wird die 5070 weggehen wie warme Semmeln, weil nach Name gekauft wird.
Ist zwar nur noch ne 5060 zum 5080 Preis für FullHD, aber egal.
 
Zuletzt bearbeitet:
Sollte es so kommen, wird sich AMDs neue Nomenklatur bewahrheiten und die Radeon RX 9070 XT wird sich wohl knapp unterhalb der Geforce RTX 5070 einordnen. Dafür sprechen die durchgesickerten Preise, welche von 479 bis 549 US-Dollar reichen.
Quelle ???
5070>4070TiS kann man wo nachlesen?
 
Und selbst wenn, ist das ein Fehler am Spiel (Bug) und nicht an der GPU des Nutzers.
Es gibt vermehrt Meldungen im Internet darüber, auch von 4080 Besitzern mit 16GB VRAM.
Wenn du lange genug spielst, könnte es auch mit einer 4090 passieren.
Klar
Deswegen läufts ja auch einwandfrei mit reduzierten Texturen (beide)
Also nach deiner Aussage kann man auch mit 4gb gpu RAM glücklich werden
Wenn Speicher überhäuft-> bug
Wenn die Karten wirklich so gut werden schlage ich zu. sofern AMD den Preis diesmal von vornherein richtig setzt.
Dito
Der Angelpunkt ist der Preis....
Wie ist das Preisleistungsverhältnis
Wenn es gut ist, tschüss 6700xt
Wenn nicht
Mei noch kann ich alles zufriedenstellend zocken
 
Da widerspreche ich dir sehr als stolzer Besitzer einer 12 GB Karte.. Bei Indie in Fullhd und bei dragon age in 4k mit fsr muss ich Details sehr runterschrauben da nach einiger Spielzeit Speicher üblerlaüft und zum extremen ruckeln anfängt...
Und zwischen fullhd u 4k ist bei der Speicherbeöegung kaum Unterschied..

Ja wer heute noch viel Geld für eine 12 GB Karte ausgibt, kauft broken by Design
Allerdings. Z.B. Hogwarts Legacy hat bereits 2023 gezeigt, wo die Speicher-Reise hingeht: 12GB hart am Limit, selbst auf nur moderaten Settings. Indiana Jones ist hier nur der nächste Wink mit dem Zaunpfahl, wenn nicht mit dem gesamten Zaun. Natürlich kann man ältere und viele aktuelle Games auch mit 12GB Karten (noch) ordentlich spielen, eine zukunftsorientierte Bestückung ist das aber sicherlich nicht. Der Anteil an FHD-Gamern schwindet, WQHD ist längst die Normal-Ausstattung und anhand dessen sollte sich auch der Grafik-RAM ausrichten. Eine RX6800 von 2020 hatte bereits 16GB und läuft heute einer RTX3080 10GB in neuen / Speicherfresser Games in einigen Szenarien davon...

Ich sage 16GB als Mindeststandard bei der Anschaffung einer neuen Grafikkarte im Jahr 2025.
 
Allerdings. Z.B. Hogwarts Legacy hat bereits 2023 gezeigt, wo die Speicher-Reise hingeht: 12GB hart am Limit, selbst auf nur moderaten Settings. Indiana Jones ist hier nur der nächste Wink mit dem Zaunpfahl, wenn nicht mit dem gesamten Zaun. Natürlich kann man ältere und viele aktuelle Games auch mit 12GB Karten (noch) ordentlich spielen, eine zukunftsorientierte Bestückung ist das aber sicherlich nicht. Der Anteil an FHD-Gamern schwindet, WQHD ist längst die Normal-Ausstattung und anhand dessen sollte sich auch der Grafik-RAM ausrichten. Eine RX6800 von 2020 hatte bereits 16GB und läuft heute einer RTX3080 10GB in neuen / Speicherfresser Games in einigen Szenarien davon...

Ich sage 16GB als Mindeststandard bei der Anschaffung einer neuen Grafikkarte im Jahr 2025.
Ja.. 16 GB sollten es mindestens sein..

Edit: natürlich kommt es auf den Preid an
Aber 600 Euro Karten und mehr mit 12 GB ist naja.. Und wer sich dafür entscheidet...
 
Zuletzt bearbeitet:
Meine Unterhose sagt mir, dass die 9070 XT so schnell ist wie.....
Boah! Langsam reicht es! Es wird Zeit für Tests! Dann hat die Diskutiererei endlich ein Ende. :wall:

Obwohl es dann wieder losgeht, ob Karte X oder Karte Y die Bessere ist! :rollen:
 
der post bezog sich auf die im vorherigen post genannte 4070ti S.
Ich habe die 9070 XT, eine aktuelle Mittelklasse-Karte, einer Mittelklasse GPU aus der vorherigen Generation gegenübergestellt. Die hat ja laut deiner eigenen Aussage nicht 850 EUR gekostet, sondern weniger. Und die heutige Mittelklasse von NV kostet auch weniger. 9070 XT geringfügig schneller als 4070. Für die 4070 gibt es demnächst Ersatz in Form einer 5070, die unter 600 USD kosten soll. Daher kann ich mir nicht vorstellen, dass eine 9070 XT mehr als eine 5070 kosten darf, wenn sie viele davon verkaufen wollen.
 
Jetzt kommt es wirklich auf den Preis an. Mehr als $599 sollten sie auf keinen Fall nehmen wenn sie mal wieder Fuss fassen wollen im GPU Sektor.
Gerücht zum MSRP der Karten:

MBA Karten(Referenzdesign) $479
Custom AIB Designs $549

Damit wären die Karten wirklich ziemlich konkurrenzfähig. 80$ unter der MSRP einer 5070. Mit Vergleichbarer RT Leistung(ohne DLSS4 Frame Gen) und besserer Raster Performance.

Interessant dürfte es werden in Bezug auf die "alten Midrange NVidia Karten". Eine 4070 Super für +600€ oder eine 4070TI Super für über 800€ werden sich kaum verkaufen. Sprich da könnte es gute Schnäppchen geben. Denn schlecht sind die Karten ja nun nicht von einem auf den anderen Tag. Das gleiche gilt dann für eine RX 7800XT und die 7900XT(X). Auch dort dürfte es entsprechende Preiseduzierungen geben.
 
wenn du noch ein TI super dran hängst dann stimmt dein satz. Ansonsten soll die 9070xt ~40% schneller als die 4070 sein
Die 9070 XT würde ich auch irgendwo da einordnen. Sehe die Mittelklasse bei NV aber von 4070 bis 4070 Ti Super. Die 4070 Ti Super hat ja gerade mal 50% der Shader einer 4090. Wie kann das keine Mittelklasse in dieser Generation sein.
 
Die 4070 Ti Super hat ja gerade mal 50% der Shader einer 4090. Wie kann das keine Mittelklasse in dieser Generation sein.
weil sie auf dem chip der rtx4080 basiert und nur 10% weniger shader hat. Trotz der 70 im Namen gehört sie schon zur oberklasse wie die 4080.

der vollausbau mittelklassen chip hat die 4070ti welcher mit reduzierten shadern auch in der rtx4070/super vorkommt


ansonsten gäbe es nach deine Aussage bei der 5000er gen garkeine Oberkkasse mehr. Denn die 5080 hat nur 50% der shader einer 5090. und 1200€ für eine Mittelklassen karte will doch keiner ausgeben.
 
Zuletzt bearbeitet:
Auf den ersten Blick wirkt das in der Tat merkwürdig, dass aus x800 dann xx70 wird. Aber meine Vermutung ist, dass dies eine Namensanpassung an das Schema von Nvidia ist und ausdrücken soll, dass die 9070XT gegen die 5070 oder 5070 ti antritt, und nicht gegen die 5080 oder gar 5080 ti. Just my two cents.
Das musst du nicht vermuten, AMD hat auf der CES ein Bild gezeigt - bzw. vor dieser, der Presse zugänglich gemacht -, das genau dies erklärt.
Wobei sie im Schaubild die 4070S und 4070 TI genommen hatten.

Siehe:
 
So eine eindimensionale Sicht auf das Angebot werden die wenigsten haben.
Wenn Nvidia wieder mit RT, Upscaling, Featureset (MFG) überzeugen kann, dann hast du für 1080p und 1440P immer noch viel zu geringe greifbare Nachteile durch 12GB Speicher, als dass die Entscheidung so eindeutig wäre.
Die fressen nochmal extra VRAM, das ist ja grad der Witz das die NV Karten mit ihren so schon geringen VRAM durch die eigenen Features noch mehr belegen.
Bei AMD wahrscheinlich ja. Das scheint so.

Hatte an andere Stelle schon gepostet, dass das bei Nvidia etwas anders ist bei dem VRAM.
Das sind vielleicht ein paar hundert MB, das gleicht niemals mehrere GB Unterschied aus.
 
Meine Unterhose sagt mir, dass die 9070 XT so schnell ist wie.....
Boah! Langsam reicht es! Es wird Zeit für Tests! Dann hat die Diskutiererei endlich ein Ende. :wall:

Obwohl es dann wieder losgeht, ob Karte X oder Karte Y die Bessere ist! :rollen:
Ich finde es eigentlich ganz witzig, da es jede Gen das Selbe ist, nur mit neuen Wörtern/Features/Preisen zur eigenen Meinungsverstärkung. Ich nenne das einfach "aktives Forumsen" :love::haha::fresse:
 
Zurück