AMD Radeon RX 6500 XT im Test: Kompromissbehaftete Mainstream-Sparflamme

Schade wollte die Karte für Lost Ark nutzen aber da ich nur einen 2500k habe und nur PCI Express 2.0 aber zur Zeit keine Grafikarte, sollte ich dennoch die Finger von lassen oder? Auch wenn wohl die 4GB nicht voll werden bei dem Spiel.

PCI Express 2.0 hat nur Einfluss wenn der Speicher voll läuft oder generell auch so? Im Test ist ja der unterschied bei Witcher nicht gross aber wie gesagt im Vergleich zu 3.0.
Kannst du vergessen. Bei 2.0 bricht die Karte massiv ein:
 
Eine 350-Euro-Grafikkarte mit einer Leistung, bei der sich die Radeon RX570 warm anziehen muss?
Nice. Ich glaube, sowas hat AMD seit der Radeon R9 290 nicht mehr veröffentlicht und die war Anno 2013 eigentlich sehr beliebt!
(@PCGH_Raff: Bitte bei den Spezial-Nachtests berücksichtigen, wir wollen doch ein faires Duell sehen. :-))


Schade wollte die Karte für Lost Ark nutzen aber da ich nur einen 2500k habe und nur PCI Express 2.0 aber zur Zeit keine Grafikarte, sollte ich dennoch die Finger von lassen oder? Auch wenn wohl die 4GB nicht voll werden bei dem Spiel.

PCI Express 2.0 hat nur Einfluss wenn der Speicher voll läuft oder generell auch so? Im Test ist ja der unterschied bei Witcher nicht gross aber wie gesagt im Vergleich zu 3.0.

Solange der Speicher bequem reicht, bewegen sich die Auswirkungen von PCI-E-Bremsen meist im niedrigen einstelligen Bereich für eine Halbierung; bei einer Viertelung bei einem ohnehin schon knapp bei Kasse seiendem Modell wie diesem hier würde ich aber auch mehr als 10 Prozent nicht ausschließen. Das sind dann aber schon die Worst-Case-Fälle — es gibt auch genug Spiele, bei denen wir immer wieder 0 Prozent Unterscheid bei einer Halbierung messen. Aber wie gesagt: Nur solange der Speicher reicht. Und mittlerweile werden 4 GiB auch in dieser Leistungsklasse bei alltagstauglichen Spiele-Settings knapp, wie man unschwer an den Testergebnissen sehen kann.

Raffs Parcours legt es zwar eher darauf an, eine RTX 3090 zu überfordern als darauf, Einsteiger-Grafikkarten in angemessenem Umfeld zu testen, aber dennoch zeigen Doom und Borderlands in der PCI-E-Sonderbetrachtung, dass es einen auch bei eigentlich alltagstauglichen Settings erwischen kann und auch in einer handvoll anderer Benchmarks liefert die 580/8G noch gut spielbare Frameraten, während die 6500 XT auf einem Niveau herumkriecht, dass man nun wirklich nicht als "Aufrüst"-Ziel bezeichnen möchte. Vermutlich könnte man mit GPU- und weniger RAM-lastigen Settings noch einiges retten; niedrigere Textur-Details machen da einen großen Unterschied. Wo sich Lost Ark in dieser Hinsicht positioniert, kann ich aber nicht einschätzen — intuitiv sieht es nicht nach einem übermäßig fordernden Spiel aus und eine nach unten gerichtete Kamera verhindert schon einmal zuverlässig hohe, RAM-fressende Sichtweiten.

In Anbetracht der Neupreise rate ich dennoch zum Gebrauchtmarkt. Wie gesagt: Diese Karte hier bietet Leistung von vor 7,5 Jahren zum damals üblichen Tarifen. Selbst mit der heutigen Preisexplosion und selbst auf Ebay kann man für den Preis einer neuen 5600 XT eine GTX 1070, mit etwas Glück auch eine 1080 oder eine 980 Ti bekommen und die sind dann, erst recht @PCI-E 2.0 sicherlich die flottere Wahl.
 
Raffs Parcours legt es zwar eher darauf an, eine RTX 3090 zu überfordern als darauf, Einsteiger-Grafikkarten in angemessenem Umfeld zu testen [...]
Spaßfakt: Der amtierende Parcours war bei der Ur-Konzeption noch ein ganzes Eck gemeiner (mehr SSAA), um RTX 3090 und 6900 XT garantiert nie ins CPU-Limit laufen zu lassen. Doch je mehr ich intern testete, desto klarer wurde, dass die Mittelklasse dann nur noch Diashows ausgibt. Das Ergebnis ist dieser für PCGH-Verhältnisse eigentlich ziemlich harmlose Parcours. Was nicht bedeutet, dass er wirklich harmlos ist. :devil: Die Revision ist schon im Gange ...

MfG
Raff
 
WOW !
Wer bitteschön soll sowas käuflich erwerben ?!?
Die schlägt ja nicht mal ne Uralt RX 590 (!) und die gab es zum Schluß für 189 €.
Ist nur was für OEM Automaten oder jene die bis Dato gar keine dedizierte GraKa haben.
Für Gamer nur "Schrott" ... :klatsch:

MfG Föhn. p
Dürfte eben unter" Proof of Concept" fallen! Der 6nm Prozess funktioniert und das mit Taktraten von bis zu 2,8 GHZ! Vielleicht ist die Ausbeute noch nicht optimal? Bzw. > 2,8 GHZ gibt die Kombinatorik den Geist auf? Schaltzeiten <350 Pikosekunden hat was! Ok die CPU's können ungefähr 200 Pikosekunden Schaltzeit! Die Kapazitäten sind wohl das Problem, hauptsächlich Substrate!
 
Ich finde besonders bestürzend, dass die Karte (trotz 6nm und keiner dabei erhöhten Packdichte!) in Punkto Effizienz keine Maßstäbe setzt, sondern je nach Test sogar schlechter als der Rest des RDNA2-Portfolios abschneidet.
 
Der Takt hängt halt an der Kotzgrenze. Was beim Endergebnis die Frage aufwirft warum man das der Karte auch noch antut.
Hatte man etwa doch Hoffnung so die Leistung einer 3050 zu schlagen?
 
Der Takt hängt halt an der Kotzgrenze. Was beim Endergebnis die Frage aufwirft warum man das der Karte auch noch antut.
Hatte man etwa doch Hoffnung so die Leistung einer 3050 zu schlagen?
Für mich ist es vor allen Dingen der Vergleich mit der 6600XT, der so problematisch erscheint. Hoffentlich setzt jemand mal beide auf gleichen Takt und macht dann (im GPU-, aber außerhalb des Speicherlimits) Effizienzvergleiche. Wenn dann die 6500XT nicht besser abschneidet wird es wirklich peinlich...
 
Hatte man etwa doch Hoffnung so die Leistung einer 3050 zu schlagen?
Das werden wir sehen, wenn Nvidia die 3050 veröffentlicht hat und AMD doch eine 8-GiB-Variante der 6500 XT nachschiebt. Ansonsten wird das nichts.

Für mich ist es vor allen Dingen der Vergleich mit der 6600XT, der so problematisch erscheint. Hoffentlich setzt jemand mal beide auf gleichen Takt und macht dann (im GPU-, aber außerhalb des Speicherlimits) Effizienzvergleiche. Wenn dann die 6500XT nicht besser abschneidet wird es wirklich peinlich...
So furchtbar weit auseinander sind die ja nicht, Navi 23 XT taktet ebenfalls sehr hoch. Dessen Effizienz ist in Gestalt der 6600 XT um Dimensionen besser als bei der 6500 XT - wobei Letztere durch ihre Speicherkapazität gehemmt wird. 8 GiB @ 16 GT/s (statt 4 GiB @ 18 GT/s) würden das Bild insgesamt deutlich verbessern.

MfG
Raff
 
Das ist ja schon ne sehr witzige Karte. Gerade mal so schnell wie die bald 6 Jahre alte Mittelklasse in Form einer RX480. Und natürlich passend zur heutigen Zeit auch nicht wirklich günstiger in der UVP als die 480 damals - bzw auf dem Level der 470. Dann noch die x4-Anbindung und 4GB VRAM - also im Optimalfall mit PCIe4.0 eine halb so schnelle Anbindung bei halber Speichermenge.

Das Ding kann doch nur als Witz gemeint sein? Na immerhin wird sie ziemlich sicher unter 300€ kosten, denn sonst wäre sie teurer, als gebrauchte RX480/580 auf ebay...
Und vor 9-10 Jahren gabs für das Geld noch ne HD7950 :rollen:
 
Ich finde besonders bestürzend, dass die Karte (trotz 6nm und keiner dabei erhöhten Packdichte!) in Punkto Effizienz keine Maßstäbe setzt, sondern je nach Test sogar schlechter als der Rest des RDNA2-Portfolios abschneidet.
Siehe 6700 XT, die hängt bei der Leistungsaufnahme nur hauchdünn hinter der 6800 non-XT, ohne deren Rechenleistung zu erreichen.
Wenn an Ausführungseinheiten gespart wird, muss das mit hohem Takt ausgeglichen werden. Der hohe Takt fordert seinen Tribut in Form von hohen Spannungen, und somit hoher Leistungsaufnahme.


Die 6500 XT ist definitiv nicht nur von der Leistung die schwächste RDNA2, sondern auch insgesamt. Die kann man eigentlich nur als Rufschädigend bezeichnen.
 
Offenbar war AMD der deutsche Markt nicht wichtig genug oder doch zu heikel angesichts gewisser Fachkenntnis.

Computerbase, Gamestar und Igor sind leer ausgegangen.

Egal, ob es so ist oder nicht, es drängt sich ein Verdacht auf, dass AMD nicht unbedingt Presse haben wollte, Angesichts dieser desatrösen Leistung völlig zurecht.
 
Desaströs, die Karte wird von einer fast 6 Jahre alten GTX 1060 bzw RX 480 geschlagen, dabei haben beide letztere auch mehr Vram.

Wer ist denn auf die Idee gekommen das auf den Markt zu werfen?
 
Wow. So ein unnötiges Produkt. um es mit den Worten von GN Steve zu sagen: Waste of Sand.
War doch im vorhinein schon klar, als die Specs geleaked worden sind, dass die Karte Technikschrott ist. 4GB in 2022? Ernsthaft? Da wären wohl 6GB besser gewesen, aber die Karte hat sowieso null Leistung.
 
Toll, das wirft dann aber kein gutes Licht auf uns, oder? :fresse:
Computerbase: Größte Reichweite in DE, was Grakatests angeht.
Gamestar: Größte Reichweite in DE unter Gamern allgemein.
Igor: Pingelige Effizienztests, die die Karte wahrscheinlich besonders mieß darstehen lassen.

Ich will ne 3090TI für 600€, dass ist absolut angemessen… alles andere ist Abzocke…
Hmm, keine Ahnung, ob das eine Parodie oder ernst gemeint sein soll. Es ginge nämlich problemlos beides:
Parodie: Selbst der Listenpreis der 3080 liegt bereits höher.
Ernst gemeint: GTX 480 und GTX 580 als Grakas mit großen Chips, bei denen die zweite Auflage (wie hier die 3090ti) dann den Vollausbau erhielt, kosteten sogar nur unten 500€.
 
Am meisten Energie spart man, wenn man diesen Schrott nicht kauft - hätte eine offizielle Kaufwarnung verdient!

Ganz nebenbei hat sich AMD damit ihre vermeintliche weiße Weste schön selbst zerlegt, inklusive dämlich dreistem Marketing Stunt (siehe andere News bzgl Blog Eintrag)
 
Zurück