Und selbst wenn, ist das ein Fehler am Spiel (Bug) und nicht an der GPU des Nutzers.Details sehr runterschrauben da nach einiger Spielzeit Speicher üblerlaüft und zum extremen ruckeln anfängt...
Die 5070 hat gerade mal ein Viertel der Shader des Vollausbaus. Wie soll das keine Mittelklasse sein? Nur weil Hersteller aufgrund der Marktlage jeden Preis verlangen können, macht das ihre Produkte nicht hochklassiger.deine genannte mittelklassen karte kostet 850€, das ist keine mittlelklasse mehr.
Aus welchem grund muss Amds Karte 100$ weniger als die rtx5070 kosten? Wegen der leistung auf jedenfall nicht.
Da hat jemand im PCGH Video aufgepasstWarum? Wer 2025 eine 12GB VRAM Karte kauft, ist selbst schuld.
der post bezog sich auf die im vorherigen post genannte 4070ti S.Die 5070 hat gerade mal ein Viertel der Shader des Vollausbaus. Wie soll das keine Mittelklasse sein?
Quelle ???Sollte es so kommen, wird sich AMDs neue Nomenklatur bewahrheiten und die Radeon RX 9070 XT wird sich wohl knapp unterhalb der Geforce RTX 5070 einordnen. Dafür sprechen die durchgesickerten Preise, welche von 479 bis 549 US-Dollar reichen.
KlarUnd selbst wenn, ist das ein Fehler am Spiel (Bug) und nicht an der GPU des Nutzers.
Es gibt vermehrt Meldungen im Internet darüber, auch von 4080 Besitzern mit 16GB VRAM.
Wenn du lange genug spielst, könnte es auch mit einer 4090 passieren.
DitoWenn die Karten wirklich so gut werden schlage ich zu. sofern AMD den Preis diesmal von vornherein richtig setzt.
Allerdings. Z.B. Hogwarts Legacy hat bereits 2023 gezeigt, wo die Speicher-Reise hingeht: 12GB hart am Limit, selbst auf nur moderaten Settings. Indiana Jones ist hier nur der nächste Wink mit dem Zaunpfahl, wenn nicht mit dem gesamten Zaun. Natürlich kann man ältere und viele aktuelle Games auch mit 12GB Karten (noch) ordentlich spielen, eine zukunftsorientierte Bestückung ist das aber sicherlich nicht. Der Anteil an FHD-Gamern schwindet, WQHD ist längst die Normal-Ausstattung und anhand dessen sollte sich auch der Grafik-RAM ausrichten. Eine RX6800 von 2020 hatte bereits 16GB und läuft heute einer RTX3080 10GB in neuen / Speicherfresser Games in einigen Szenarien davon...Da widerspreche ich dir sehr als stolzer Besitzer einer 12 GB Karte.. Bei Indie in Fullhd und bei dragon age in 4k mit fsr muss ich Details sehr runterschrauben da nach einiger Spielzeit Speicher üblerlaüft und zum extremen ruckeln anfängt...
Und zwischen fullhd u 4k ist bei der Speicherbeöegung kaum Unterschied..
Ja wer heute noch viel Geld für eine 12 GB Karte ausgibt, kauft broken by Design
Ja.. 16 GB sollten es mindestens sein..Allerdings. Z.B. Hogwarts Legacy hat bereits 2023 gezeigt, wo die Speicher-Reise hingeht: 12GB hart am Limit, selbst auf nur moderaten Settings. Indiana Jones ist hier nur der nächste Wink mit dem Zaunpfahl, wenn nicht mit dem gesamten Zaun. Natürlich kann man ältere und viele aktuelle Games auch mit 12GB Karten (noch) ordentlich spielen, eine zukunftsorientierte Bestückung ist das aber sicherlich nicht. Der Anteil an FHD-Gamern schwindet, WQHD ist längst die Normal-Ausstattung und anhand dessen sollte sich auch der Grafik-RAM ausrichten. Eine RX6800 von 2020 hatte bereits 16GB und läuft heute einer RTX3080 10GB in neuen / Speicherfresser Games in einigen Szenarien davon...
Ich sage 16GB als Mindeststandard bei der Anschaffung einer neuen Grafikkarte im Jahr 2025.
Bei AMD wahrscheinlich ja. Das scheint so.Ich sage 16GB als Mindeststandard bei der Anschaffung einer neuen Grafikkarte im Jahr 2025.
Ich habe die 9070 XT, eine aktuelle Mittelklasse-Karte, einer Mittelklasse GPU aus der vorherigen Generation gegenübergestellt. Die hat ja laut deiner eigenen Aussage nicht 850 EUR gekostet, sondern weniger. Und die heutige Mittelklasse von NV kostet auch weniger. 9070 XT geringfügig schneller als 4070. Für die 4070 gibt es demnächst Ersatz in Form einer 5070, die unter 600 USD kosten soll. Daher kann ich mir nicht vorstellen, dass eine 9070 XT mehr als eine 5070 kosten darf, wenn sie viele davon verkaufen wollen.der post bezog sich auf die im vorherigen post genannte 4070ti S.
Gerücht zum MSRP der Karten:Jetzt kommt es wirklich auf den Preis an. Mehr als $599 sollten sie auf keinen Fall nehmen wenn sie mal wieder Fuss fassen wollen im GPU Sektor.
wenn du noch ein TI super dran hängst dann stimmt dein satz. Ansonsten soll die 9070xt ~40% schneller als die 4070 sein9070 XT geringfügig schneller als 4070
Die 9070 XT würde ich auch irgendwo da einordnen. Sehe die Mittelklasse bei NV aber von 4070 bis 4070 Ti Super. Die 4070 Ti Super hat ja gerade mal 50% der Shader einer 4090. Wie kann das keine Mittelklasse in dieser Generation sein.wenn du noch ein TI super dran hängst dann stimmt dein satz. Ansonsten soll die 9070xt ~40% schneller als die 4070 sein
weil sie auf dem chip der rtx4080 basiert und nur 10% weniger shader hat. Trotz der 70 im Namen gehört sie schon zur oberklasse wie die 4080.Die 4070 Ti Super hat ja gerade mal 50% der Shader einer 4090. Wie kann das keine Mittelklasse in dieser Generation sein.
Das musst du nicht vermuten, AMD hat auf der CES ein Bild gezeigt - bzw. vor dieser, der Presse zugänglich gemacht -, das genau dies erklärt.Auf den ersten Blick wirkt das in der Tat merkwürdig, dass aus x800 dann xx70 wird. Aber meine Vermutung ist, dass dies eine Namensanpassung an das Schema von Nvidia ist und ausdrücken soll, dass die 9070XT gegen die 5070 oder 5070 ti antritt, und nicht gegen die 5080 oder gar 5080 ti. Just my two cents.
Die fressen nochmal extra VRAM, das ist ja grad der Witz das die NV Karten mit ihren so schon geringen VRAM durch die eigenen Features noch mehr belegen.So eine eindimensionale Sicht auf das Angebot werden die wenigsten haben.
Wenn Nvidia wieder mit RT, Upscaling, Featureset (MFG) überzeugen kann, dann hast du für 1080p und 1440P immer noch viel zu geringe greifbare Nachteile durch 12GB Speicher, als dass die Entscheidung so eindeutig wäre.
Das sind vielleicht ein paar hundert MB, das gleicht niemals mehrere GB Unterschied aus.Bei AMD wahrscheinlich ja. Das scheint so.
Hatte an andere Stelle schon gepostet, dass das bei Nvidia etwas anders ist bei dem VRAM.
Ich finde es eigentlich ganz witzig, da es jede Gen das Selbe ist, nur mit neuen Wörtern/Features/Preisen zur eigenen Meinungsverstärkung. Ich nenne das einfach "aktives Forumsen"Meine Unterhose sagt mir, dass die 9070 XT so schnell ist wie.....
Boah! Langsam reicht es! Es wird Zeit für Tests! Dann hat die Diskutiererei endlich ein Ende.
Obwohl es dann wieder losgeht, ob Karte X oder Karte Y die Bessere ist!![]()