Radeon RX 6600 XT im Test: Eine Mittelklasse-Grafikkarte nähert sich der 3-GHz-Marke

Also für mich wäre die Karte etwas zu schwach auf der Brust, dennoch bin ich ganz happy, dass ich gestern eine XFX MERC bei Notebooksbilliger erstehen konnte mit "nur" 50€ Aufpreis zum UVP :ugly: Seis drum, die Alternative wäre eine gebrauchteGTX1080 oder eine Vega 56 in der Preisklasse "um die 400€" gewesen. Unter diesem Aspekt schmeckt der Preis(für den Man unter normalen Umständen wohl eine 6700XT/3060TI) bekommen hätte zwar salzig aber noch erträglich. Sohnemann wird sich jedenfalls freuen, dass er seine GTX970 endlich los wird und vielleicht auch endlich andere Games als Minecraft oder Roblox flüssig spielen kann.
 
Und?
Langsamer als die Hölle!
vergess die nooooch schlechteren minFps net
(percentil)
Es gibt durchaus Games wie Battlefield 5, da sind die beiden (RTX 3060 und RX 6600 XT) recht nahe beieinander.
Auf die Gefahr hin, dass ich mich wiederhole:
Die RT Leistung der 3060 ist brauchbar, die der 6600 XT nicht (Cyberpunk 2077 auf ultra, 1080p, DLSS 2.2.11 auf Quality).
Wenn die kleine Radeon für 450€ verfügbar ist, würde ich nach Möglichkeit bis 500€ die Geforce RTX mit 12 GB nehmen. Das sage ich, der mit HD 7950, R9 290 und RX 480 eigentlich immer AMD bevorzugte.
:kaffee:
Die Effizienz kann man auch bei der Geforce erhöhen (Afterburner 4.6.3, benutzerdefinierte Spannungskurve, beim Start wird 3D Profil geladen). Da sind quick and dirty bei 1777 MHz, 0,86 V, 110 Watt Boardpower oder 1880 MHz, 0,91 V, 135 W Boardpower möglich.
 
Zuletzt bearbeitet:
Es gibt durchaus Games wie Borderlands 3, da sind die beiden (RTX 3060 und RX 6600 XT) recht nahe beieinander.
Man kann natürlich beide Grakas weiter auf sparsam pimpen, aber im Review siehts bei B3 momentan
mit Werksseinstellung so aus: ... da kann man für Gehäuse mit wenig Airflow die 3060 net empfehlen,
die 6600 kommt in dem Game mal ausnahmsweise fast an die 6800nonXT ran, scheint also net übertrieben
auf Höchstleistung von AMD voreingestellt zu sein, wie zum Bsp. die hitzige 6700.
 

Anhänge

  • 6600xt@B3_Effizienz.png
    6600xt@B3_Effizienz.png
    39,2 KB · Aufrufe: 37
Zuletzt bearbeitet:
Ich habe auch erst gedacht, tolle und effiziente Karte für Full HD. Allerdings dann den Vergleich mit meiner 5 Jahre alten GTX 1070 gemacht...

- beide 8 GB
- ähnlicher Stromverbrauch
- Preis damals und heute in etwa gleich

Vorteil der 6600? In etwa 25% mehr Performance. Man verkauft also 5 Jahre später eine Grafikkarte, die in 7nm anstelle von 16nm produziert wird und hat quasi 25% mehr Performance gefunden? Abgesehen davon merkt man immer häufiger, dass 8GB schon jetzt nicht mehr genug sind. Eine 1070 kann man nach 5 Jahren noch verwenden, weil es eben 8GB damals waren. Warum dann heute nicht min. auf 12GB setzen? Besser aber 16GB, wenn man nicht in 2 Jahren wieder aufrüsten möchte.

Leider der Grund warum auch eine 3070 oder 3080 aktuell für mich nicht in Frage kommt. Die einzige Grafikkarte für mich ist im Moment die 6800. Allerdings finde ich für Adobe eine Nvidia Karte sinnvoller...
 
In modernen Games mit variable Rate Shading wird der Abstand zu Pascal sicher noch viel größer als 25%.
DE AG ist eigentlich symptomatisch. (minFps der 1070=100%)
 

Anhänge

  • 6600@DE AG.png
    6600@DE AG.png
    93,2 KB · Aufrufe: 37
Zuletzt bearbeitet:
Ich bin gespannt wie gut man die Karte trimmen kann, Königsweg scheint hier ja das Undervolting zu sein.
Die Verfügbarkeit scheint aber auch langsam zu enden, zumindest die erste Charge.
 
Zwecks Verfügbarkeit siehts in einschlägigen Aufrüst-PCs <1499€ auch gut aus.
(zumindestens sinnvoller als der pcgh3060er für 1800€)

Hatte einfach mal die MSI in die Konfig genommen, weil ganz gut bei Igor im Review.
 

Anhänge

  • Dubaro6600.JPG
    Dubaro6600.JPG
    37,2 KB · Aufrufe: 24
Ich hatte in meinem Post einen Verschreiber, ich meinte natürlich Days gone und Battlefield. In Borderlands 3 sieht die GeForce 3060 vergleichsweise schlecht aus.
Über 400€ kosten sie beide, von daher stimmt wenigstens diese Prognose von mir. :ugly:
Prinzipiell könnte man sagen, dass die eine Karte RT halbwegs nutzen kann und die andere sehr schnell bei herkömmlichen Rastergrafiken ist, wenn man bei 1080p bleibt und teils bis 1440p.

Ich weine mich heute mit meinen 12 GB VRAM in den Schlaf. :ugly:
Spaß beiseite: 150€ geringere Anschaffungskosten würde beiden gut stehen. Ich kann mir auch gut vorstellen, dass Nvidia noch eine voll aktive 3060 Super mit 16 GT/s schnellem Speicher bringt.
 
Zuletzt bearbeitet:
So mal an alle Miesmacher hier:

Klar ist 379 für die Karte eigentlich zu viel, für UVP wäre die 3060 viel besseres Paket, aber das ist der erste gelungene GPU Start in diesem Jahr, wann konnte man Karten für UVP kaufen, ich bin froh das meine 470 4gb in Rente geht
In Borderlands 3 sieht die GeForce 3060 vergleichsweise schlecht aus.
Über 400€ kosten sie beide, von daher stimmt wenigstens diese Prognose von mir. :ugly:
Wie konnte ich dann gestern ohne Probleme die Fighter für 379 kaufen wenn beide über 400 kosten?
 
Soso NVIDIA braucht also eine RTX3060ti mit gigantischen, beinahe 400 mm2 um mit einer klitzekleinen 237mm2 großen RX6600XT mithalten zu können bzw. marginal schneller zu sein.
8% Vorsprung in FHD und 15% in WQHD scheint mir da aber ziemlich belanglos, bzw. kaum fühlbar zu sein.
Beide Karten haben 8GB aber die 6600XT ist dabei um Welten effizienter.
Quelle: GameStar Test RX6600XT
6600xt2.png
6600xtWQHD.png
 
Soso NVIDIA braucht also eine RTX3060ti mit gigantischen, beinahe 400 mm2 um mit einer klitzekleinen 237mm2 großen RX6600XT mithalten zu können bzw. marginal schneller zu sein.
8% Vorsprung in FHD und 15% in WQHD scheint mir da aber ziemlich belanglos, bzw. kaum fühlbar zu sein.
Beide Karten haben 8GB aber die 6600XT ist dabei um Welten effizienter.
Quelle: GameStar Test RX6600XT
Anhang anzeigen 1371737Anhang anzeigen 1371738
Man könnte auch sagen AMD braucht fast 3ghz mit neueren Node um an knapp 2ghz Karte mit Uralt node zu kommen.
Diese Spiel gehört auf den Schulhof.
 
Man könnte auch sagen AMD braucht fast 3ghz mit neueren Node um an knapp 2ghz Karte mit Uralt node zu kommen.
Diese Spiel gehört auf den Schulhof.
Auch im selben Node könnte NVIDIA nicht viel höher takten, der Unterschied zwischen Samsungs 8nm und TSMC 7nm ist nicht so groß wie von manchen behauptet wird.
AMD's Architektur ist einfach prädestiniert für hohe Taktraten. Node hin oder her.
Die RX5700 bzw. RX5700XT hatten einen vergleichsweise niedrigen Takt im selben node.


RX5700 (TSMC 7nm)
Base 1465MHz
Boost 1725MHz

RX5700XT (TSMC 7nm) real anliegender Takt bei diversen Games ca. 1.8Ghz
Base 1605MHz
Boost 1905MHz

RX6600XT (TSMC 7nm) real anliegender Takt bei diversen Games ca. 2.5-2.6Ghz
Base clock 1968MHz
Boost clock 2589MHz

RTX3060ti (Samsung 8nm) real anliegender Takt bei diversen Games ca. 1.9Ghz
Base clock 1410MHz
Boost clock 1665MHz

RTX3060 real anliegender Takt bei diversen Games ca. 1.9Ghz
Base clock 1320 MHz
Boost clock 1777 MHz

RTX3070 real anliegender Takt bei diversen Games ca. 1.9Ghz
Base clock 1500 MHz
Boost clock 1725 MHz

GeForce RTX 2060 Super FE (TSMC 12nm) real anliegender Takt bei diversen Games ca. 1.8Ghz
Base clock 1470 MHz
Boost clock 1650 MHz

GeForce RTX 2070 Super FE (TSMC 12nm) real anliegender Takt bei diversen Games ca. 1.9Ghz
Base clock 1605 MHz
Boost clock 1770 MHz

Also man sieht trotz deutlich modernerem Prozess, haben sich sie Taktraten bei NVIDIA kaum verändert.
Bei AMD wiederum, passierte trotz gleicher Fertigung erstaunliches, was auf das Design der Architektur und nicht auf den Prozess zurückzuführen ist.
 
Zuletzt bearbeitet:
Ach ist das so? Dann kannst du mir bestimmt deinen Bildungsgrad in Ingenieurwesen verraten. Welche stelle du bei beiden beziehst wäre auch hilfreich. Oder gar eine Quelle.

Dann lassen wir mal lieber aus das viel fläche bei nvidia für andere Einheiten verwendet werden. Wäre dem nicht so hätte Amd den selben Rückstand wie immer obwohl 7nm.

nm ist nur marketing lieber Freund.

Der Unterschied ist signifikant zwischen Samsungs 10nm und tsmcs 7nm.
 
AMD will also eine 3060 kopieren aber scheitert!
Für den Preis im Verhältnis zur Leistung, ist eine 3060 oder 6700 die bessere Wahl.
 
Ach ist das so? Dann kannst du mir bestimmt deinen Bildungsgrad in Ingenieurwesen verraten. Welche stelle du bei beiden beziehst wäre auch hilfreich. Oder gar eine Quelle.

Dann lassen wir mal lieber aus das viel fläche bei nvidia für andere Einheiten verwendet werden. Wäre dem nicht so hätte Amd den selben Rückstand wie immer obwohl 7nm.

nm ist nur marketing lieber Freund.

Der Unterschied ist signifikant zwischen Samsungs 10nm und tsmcs 7nm.
NVIDIA braucht halt ca. 10% der Fläche für ihr RT und Tensor cores.
AMD braucht wiederum ca. 15% der Fläche für die 32MB IF-Cache.
Da liegst du mit deiner Behauptung das AMD den selben Rückstand hätte total daneben.
 
Zurück