AMD Radeon RX 6500 XT im Test: Kompromissbehaftete Mainstream-Sparflamme

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Radeon RX 6500 XT im Test: Kompromissbehaftete Mainstream-Sparflamme

Ihre alte Grafikkarte pfeift aus dem letzten Loch? Der Nachwuchs beschwert sich ständig, dass Fortnite seit dem letzten Update ruckelt? Rettung naht - sagt AMD. Mit der Radeon RX 6500 XT startet heute eine neue, bezahlbare Mainstream-Grafikkarte für populäre, nicht allzu anspruchsvolle Spiele in Full HD. PCGH prüft, was die RX 6500 XT kann - oder besser gesagt: was sie alles nicht kann.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD Radeon RX 6500 XT im Test: Kompromissbehaftete Mainstream-Sparflamme
 
Puh, mal gucken wo der Marktpreis landet. Eine Alternative zur GTX 1050 Ti mit weniger Displayanschlüssen und einem Stromkabel, das vorhanden sein muss.

Frametimes würden mich noch interessieren. Da sieht es sicherlich gruselig aus.
 
Wenn keine Grafikkarten zu kaufen sind, dann müssen die Spielentwickler Ihre Spiele besser optimieren.

Schlecht optimierte Spiele, wie bei Cyberpunk 2077 können sich die Spielestudios nicht mehr leisten.
 
Wirklich schöner und ausführlicher Test PCGH :pcghrockt:

Die Karte performt leider so wie man es vorher erwarten konnte. Mit 8GB und PCIE4.0 "Pflicht" wäre es für 209€ in der jetzigen Zeit noch vertretbar gewesen.

So wie die Karte aber daher kommt kann man diese wirklich niemanden empfehlen...

Da es kein Referenzdesign gibt wird diese wohl auch nicht direkt bei AMD verkauft und so sicher deutlich über 200€ kosten.
Da kann man wirklich zu einer gebrauchten RX570-590 8GB Version greifen oder was Nvidia zu bieten hat (GTX1060+).

Ich persönlich kann der Karte nichts abgewinnen, leider :(
 
Puh, mal gucken wo der Marktpreis landet. Eine Alternative zur GTX 1050 Ti mit weniger Displayanschlüssen und einem Stromkabel, das vorhanden sein muss.
Exakt! Wenn diese Teile für 229€ über die Theke gingen, wären sie immerhin einen Deut schneller, als die angeführte Geforce 1050ti, die gelegentlich immer mal wieder bei den "Daily Deals" hier für diesen Preis auftaucht.
Leider scheint das gute Stück mit einer GTX1650 zu konkurrieren, die momentan immer noch für knapp 300€ im Netz auftaucht ... mal sehen ... :-) ...
So wie die Karte aber daher kommt kann man diese wirklich niemanden empfehlen...
Das ist sicherlich richtig. Wahrscheinlich dann eher in Low Budget Komplett-Systemen, bei denen die Käufer nicht auf der Höhe der Entwicklung sind ...
 
Keine Karte die man guten Gewissens empfehlen könnte...

Das einzige Einsatzgebiet wo sie so halbwegs Sinn macht, sind Games ala CSGO, vorausgesetzt die werden ausschließlich gezockt, denn dann profitiert man vom niedrigen Energieverbrauch. Dabei sollte sie aber auch unter 200€ Kosten, für alles andere eigentlich vergeudete Waferfläche.

Vermutlich werden die meisten Karten in irgenwelchen OEM PCs landen, die an ahnungslose verkauft werden.
 
Das ist sicherlich richtig. Wahrscheinlich dann eher in Low Budget Komplett-Systemen, bei denen die Käufer nicht auf der Höhe der Entwicklung sind ...

Da passt sie perfekt rein oder in einem Laptop wo kein PCIE3.0 Problem bestehen kann.

Wirklich schade um die Karte. Da hätte AMD etwas für die Gamer bauen können. Von der Rohleistung ist es nichts besonderes aber schnell genug für die meisten Spiele mit angepassten Settings.
Rein von den TF ist sie ja potenter als die Xbox Series S.
 
Wenn der Preis entsprechend ausfällt wäre das Ding höchstens als Übergangskarte brauchbar wenn die eigene Karte stirbt und man das absolute Minimum ausgeben und was mit Garantie will.
Hier sieht man ganz gut das sich selbst aus dem größten Schrott Die noch was fertigen lässt bevor man ihn wegschmeißt, absolute Resteverwertung.
 
Schade wollte die Karte für Lost Ark nutzen aber da ich nur einen 2500k habe und nur PCI Express 2.0 aber zur Zeit keine Grafikarte, sollte ich dennoch die Finger von lassen oder? Auch wenn wohl die 4GB nicht voll werden bei dem Spiel.

PCI Express 2.0 hat nur Einfluss wenn der Speicher voll läuft oder generell auch so? Im Test ist ja der unterschied bei Witcher nicht gross aber wie gesagt im Vergleich zu 3.0.
 
Ich frage mich gerade was AMD aus dem TSMC 6nm Verfahren gemacht hat? Ich meine die GTX1070 mit 8GB sind TSMC 16nm gefertigt und ist die deutlich stärkere Karte bei ähnlicher Effizienz. Die 6500XT verbraucht max. 100Watt, die GTX1070 maximal 140 Watt. Dafür ist die 6500XT aber auch um diesen Faktor langsamer.

Wenn ich mir die Karte anschaue, dann hätten da eher 50 Watt und nicht 100 Watt Verbrauch stehen müssen. Oder Alternativ deutlich mehr Leistung. Wird AMD das neue INTEL? :ugly:
 
Erstere wirst du schon sehr bald hier auf dem Seziertisch sehen. Intel, deutlich spannender, wird noch etwas dauern.
Sehr schön :daumen: ...
... und wie heute schon mal angeregt: Plant doch mal einen aussagefähigen Vergleich von aktuellen GPUs und iGPUs(!) für die untere Schublade, auch wenn wir hier bei "extreme" sind.

Bei Preisen für die Spitzenteile, für die man noch vor 2 Jahren einen gebrauchten Kleinwagen bekam, wäre das immerhin ein gewaltiger Schritt Richtung Realität, am besten noch mit 1 oder 2 Teilen aus der Altmetallschublade als Vergleich (zum PL-Fortschritt ;)), so RX470 oder Geforce 1050?!?
da ich nur einen 2500k habe und nur PCI Express 2.0 aber zur Zeit keine Grafikarte, sollte ich dennoch die Finger von lassen oder? Auch wenn wohl die 4GB nicht voll werden bei dem Spiel.
Jau, das sollte für alles passen, solange Du dafür sorgst, daß nichts hin oder her geschoben wird, also die 4GB nicht überschritten werden!!
PS: Habe auch noch eine laufende Möhre mit Sandy-Bridge und hatte mir diese Gedanken schon bei PCI Express 2.0 zu 3.0 gemacht ... einfach mal im Overlay während der Spiele kontrollieren, um mit den gewählten Einstellungen die GPU maximal bis an die RAM-Grenze zu treiben!
 
Zuletzt bearbeitet:
Zurück