Radeon RX 6700: Modell mit 6 GiByte gesichtet - und RX 6600 XT mit 12

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6700: Modell mit 6 GiByte gesichtet - und RX 6600 XT mit 12

Bisher ging man davon aus, dass die Radeon RX 6700 wie die XT-Variante auf 12 GiByte Grafikspeicher setzt. Die EEC listet nun allerdings auch ein Modell von Asrock mit nur 6 GiByte. Auch mehrere Varianten der Geforce RX 6600 XT zeigen sich, allerdings wieder mit 12 GiByte.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 6700: Modell mit 6 GiByte gesichtet - und RX 6600 XT mit 12
 
Unnötig ya salame.
Was macht das für einen Sinn? Macht doch entweder 8 für die Leistung der 6600 XT oder direkt 12 GiB VRAM für alle. An der Speicheranbindung wird es wohl nicht liegen, oder? In welches Leistungsprofil passt die 6600 XT? Wenn die 6700 XT die Konkurrenz der 3060 Ti sein soll, welche auf dem Niveau der 2080 SUPER liegt, dann wird die sich vermutlich zwischen 2070 und 2070 SUPER einordnen. 12 GiB VRAM wären da schon nett. Die 6700 mit 6 sind aber ein Fail.
 
An der Speicheranbindung wird es wohl nicht liegen, oder?
Vermutlich wird es genau daran liegen. Der Speicher wird wohl per 192bit angebunden, heißt halt effektiv entweder 6 oder 12 GiByte. Ob es da nun wirklich die 6 GiByte-Varianten benötigt, darüber lässt sich sicher vortrefflich streiten. Halt ebenso wie bei Nvidia über die 8 und 10 GiByte-Karten in gewissen Leistungsregionen.

Im Grunde verkauft man solche Karten halt am Ende wieder an (hardwaretechnisch) eher unbedarfte Kunden und in Komplett-"Gaming"-PCs. 'Nen Markt wird es also schon geben.
 
Auch mehrere Varianten der Geforce RX 6600 XT zeigen sich, allerdings wieder mit 12 GiByte.

Soso, die Nvidianer bauen jetzt auch schon wieder 6000er Karten :)

Ansonsten hört sich die mit 6 Gb echt nach was für günstige Karten und Komplett-PCs an.
 
Unnötig ya salame. [...]
Wenn der kleinere Navi-Chip nur über sechs Speichercontroller verfügt, geht schlicht nicht mehr. Und die Option für 12 GiB (mittels 16 Gb-BGAs) wird schlicht zu teuer. Die wird man sich möglicherweise für später aufheben (wenn es schlechte Absatzzahlen erforderlich machen), jedoch geht es erst mal darum das kleinere Preissegment abzudecken und da kann man nicht noch einen größeren Chip und mehr Speicher einpreisen, weil es sonst zu teuer wird.

Darüber hinaus wären 8 GiB problematisch, denn das benötigt zwei zusätzliche GDDR6-Controller, benötigt also mehr Chipfläche, zieht mehr Strom, benötigt zusätzliche BGAs und man müsste den InfinityCache verkleinern oder wohlmöglich ganz streichen, weil Chipfläche für den Cache aufzuwenden und dann noch ein größeres SI mit mehr Speicher zu verbauen kalkulatorisch voraussichtlich nicht hinkommt, d. h. man würde den IF-Cache min. verkleinern, wenn nicht gar komplett streichen, es würde also am Ende ein komplett anderer Chip werden. AMD hat sich jedoch für erstere Implementation entschieden, demnach bleibt nur die Option für 6 GiB (oder ggf. später 12 GiB).
 
Zuletzt bearbeitet:
Kann ich mir max in nem OEM Rechner vorstellen. Unnötige Karte in der heutigen Zeit, kann aber natürlich auch mit Mining und Co. begründet sein, denen ist der Vram Ausbau eigentlich recht egal, da zählt lediglich die Geschwindigkeit des Ram.
 
Ich denke AMD hat da Extra für Verwirrung gesorgt um Nvidia etwas
zu foppen. Die Leaks beschreiben einen abstand zwischen der 6700XT
und der 6800 der viel zu groß ist. Ich denke der Chip für die 6700/6700XT
ist immer noch ungeleakt, alles an den Daten schreit nach 6600 Chip.
 
[...] Ich denke der Chip für die 6700/6700XT
ist immer noch ungeleakt, alles an den Daten schreit nach 6600 Chip.
Sehr unwahrscheinlich, weil keine Luft bliebe für einen separates Chipdesign für eine 6700(XT). Das ist für AMD viel zu teuer und würde konktraproduktiv zu deren Marge und Wachstumszielen stehen. Die müssen hier möglichst effizient entwicklen.
Man kann hier mit sehr, sehr hoher Sicherheit davon ausgehen, dass die Kartenmodelle 6700(XT) und 6600(XT?) alle auf dem gleichen Chip basieren werden und da Navi21 bereits 8 Controller mit 128 MiB L3 kombinierte, sind 6 Controller und 96 MiB absolut plausibel für den kleineren Chip.

Einzig ein noch kleinerer Chip steht zur Debatte. Der könnte ggf. bei 4 bis 6 Controllern bleiben und dafür den L3 komplett streichen, aber das wird man abwarten müssen. Aber der könnte ggf. auch komplett entfallen da hier in der Vergangenheit schon mehrfach von Navi-Refreshes die Rede war, d. h. die kleinsten Modelle könnte AMD ggf. weiterhin mit RDNA(1) abbilden.
 
Zuletzt bearbeitet:
Wenn das eine Nicht-XT ist und es noch eine 6700 XT geben sollte, sind die 6 GiB durchaus plausibel. Die 12 GiB würde man dann voraussichtlich der XT vorbehalten, bspw. in Verbindung mit dem Vollausbau des Chips, während die Nicht-XT ein paar CUs weniger hätte.

Abzuwarten bliebe jedoch, ob es von der 6700 XT nicht ggf. auch 6 GiB-Varianten geben wird, denn hier könnte es AMD bzgl. einer preislichen Positionierung schwer i. V. z. RTX 3060 Ti haben und man müsste mit einzig 12 GiB-Modellen wieder auf Marge verzichten. Ich würde daher annehmen, dass es selbst von der XT möglicherweise auch 6 GiB-Modelle geben wird. (Oder AMD wälzt das schlicht auf die Boardpartner ab und überlässt es denen ggf. derart kleine Margen in Kauf zu nehmen; dann hängt es hier schlicht davon ab wie hoch deren Schmerzgrenze ist. ;-))
 
Zuletzt bearbeitet:
Also wenn AMD aus Speichermangel auch Karten mit halber Speichermenge zusätzlich anbietet, oder diese vornehmlich in kostengünstigen OEMS verbaut werden sollen, so ist das vollkommen ok.
Gab es ja immer schon mal.
Wer einfache Spiele ohne Grafiktralalala zocken möchte, aber dafür lange (Lebens)Zeit hohe Bildraten haben möchte, wie z.B. ich auf einem FullHD 120hz Bildschirm selbst für einfache Adventures (jaaa, der Vorteil ist in jedem Spiel sofort sicht- und fühlbar), da sind gesparte 30-50 Euro sicherlich willkommen.
Das man damit dann aber kein Wolfenstein 3 mehr anstellen braucht, sollte einem vorher klar sein.
Ist also quasi wie so eine 570 mit 8 und 4 GB.
Ich persönlich sage jedoch auch lieber, auf den Komplettrechner umgelegt und über eine lange Lebensdauer lang gesehen, kann man eigentlich fast imemr besser zu der größeren Speichermenge greifen, wenn man das Geld aufbringen kann und möchte.
 
Wenn der kleinere Navi-Chip nur über sechs Speichercontroller verfügt, geht schlicht nicht mehr. Und die Option für 12 GiB (mittels 16 Gb-BGAs) wird schlicht zu teuer. Die wird man sich möglicherweise für später aufheben (wenn es schlechte Absatzzahlen erforderlich machen), jedoch geht es erst mal darum das kleinere Preissegment abzudecken und da kann man nicht noch einen größeren Chip und mehr Speicher einpreisen, weil es sonst zu teuer wird.

Darüber hinaus wären 8 GiB problematisch, denn das benötigt zwei zusätzliche GDDR6-Controller, benötigt also mehr Chipfläche, zieht mehr Strom, benötigt zusätzliche BGAs und man müsste den InfinityCache verkleinern oder wohlmöglich ganz streichen, weil Chipfläche für den Cache aufzuwenden und dann noch ein größeres SI mit mehr Speicher zu verbauen kalkulatorisch voraussichtlich nicht hinkommt, d. h. man würde den IF-Cache min. verkleinern, wenn nicht gar komplett streichen, es würde also am Ende ein komplett anderer Chip werden. AMD hat sich jedoch für erstere Implementation entschieden, demnach bleibt nur die Option für 6 GiB (oder ggf. später 12 GiB).
Du könntest Recht haben, ya salame.
 
Das selbe Spiel wir die 3080ti mit 12GB. Speicher ist Mangelware und erfordert hochwertige PCB. Beides ist momentan knapp und teuer. Ich würde mal davon ausgehen das die bereits angekündigten aber noch nicht finalisierten Karten auch nochmal abgespeckt werden....denkbar das auch vorhandene Serien "neu" aufgelegt werden. Ich denke da an die 1060 Serie mit 6 und 3GB zurück.

AMD wie Nvidia verkaufen den Speicher samt Chip im Bundle. Wenn also mehr Chips als Speicher vorhanden sind, gibts auch weniger Karten....so gesehen macht es schon von beiden Firmen Sinn den Ram gegenwärtig abzuspecken.
 
Es gibt noch viele andere Gamer in der Welt da draußen, denen 6 GB VRAM völlig ausreichen. Hier im Forum wird das gerne mal vergessen und als "Schrott" abgetan.
Auch solche Karten finden ihre Käufer.
 
Es gibt noch viele andere Gamer in der Welt da draußen, denen 6 GB VRAM völlig ausreichen. Hier im Forum wird das gerne mal vergessen und als "Schrott" abgetan.
Auch solche Karten finden ihre Käufer.
Retro-Gamer gibts immer noch und dafür muss man sich auch nicht schämen, ganz im Gegenteil, da die Spiele von früher qualitativ die meisten Gurken heute meilenweit hinter sich lassen. Für die meisten AAA-Spiele über FHD und mittleren Details reichen 6 GiB aber nicht mehr aus. Da sich hier zumeist Enthusiasten rumtreiben sind 6 GiB logischerweise "Schrott" und zeitgemäß ist es schon gar nicht mMn. Durch diesen ganzen RT-Kram werden selbst Spiele wie Minecraft und Fortnite richtig hardwarefordernd. Es ist aktuell noch optional und nicht sehr weit verbreitet, aber sobald das erstmal Standard wird und du es vielleicht nicht mal mehr komplett deaktivieren kannst, wird es kritisch. Dennoch gebe ich dir Recht, dass wenn man Gamer global betrachtet, sich die wenigsten eine Highend-Grafikkarte und einen sehr starken Prozessor leisten können. Wir sind hier sehr privilegiert durch unsere Lebensumstände. Selbst ein Hartzer kann sich zumindest einen halbwegs passablen Rechner mit ein bisschen sparen oder Schwarzarbeit kaufen.
 
Oha, wo wurde denn diese Karte gesichtet, und, viel wichtiger, wurde sie schon verkauft? (Die Eine die es auf den Markt für Enduser schafft.)
 
Retro-Gamer gibts immer noch und dafür muss man sich auch nicht schämen, ganz im Gegenteil, da die Spiele von früher qualitativ die meisten Gurken heute meilenweit hinter sich lassen. Für die meisten AAA-Spiele über FHD und mittleren Details reichen 6 GiB aber nicht mehr aus. Da sich hier zumeist Enthusiasten rumtreiben sind 6 GiB logischerweise "Schrott" und zeitgemäß ist es schon gar nicht mMn.

Eben für viele Leute die hauptsächlich ältere Spiele zocken, reichen 6GB meist vollkommen aus. Ich hab selbst auch eine 5600XT und zocke damit auf WQHD, allerdings aktuell auch nur ältere Spiele, die ich schon ewig mal durchspielen wollte... Von daher könnte das für den preisbewussten Käufer, der nur alte Schinken spielt, aber vielleicht einfach gerne mehr fps hätte, durchaus ne Alternative sein.
Und man muss ja auch beachten, was man kommt. Als ich meine 5600 XT gekauft habe, gabs nur die Pulse zu nem vernünftigen Preis. 5700/XT mit Kühlsystemen die ich gerne genommen hätte waren mindestens 100€ teurer und da ich eh geplant habe auf Navi 2 oder auch 3 umzusteigen, war es als Zwischenschritt die beste Lösung. Weil sind wir Ehrlich auch bei Nvidias aktueller Generation ist RT noch nicht ganz ausgereift und wenn das wirklich mehr Spiele unterstützen sollten, kauf ich doch keine Zwischenlösung, die nach nem Jahr schon schlapp macht.
 
Hat schon jemand den "Neuzeit-Preis" ausgerechnet, also "Sinnvoller Preis" X 2? So zwischen 500 und 800 Euro vielleicht?
 
Zurück