Radeon RX 6500 XT: Hinweise auf zweckentfremdeten Chip

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6500 XT: Hinweise auf zweckentfremdeten Chip

Die Performance der Radeon RX 6500 XT ließ so manch einen fragend zurück: Nun gibt es Hinweise darauf, dass der Chip eigentlich für einen anderen Zweck entworfen wurde. Navi 24 sei angeblich als Kompagnon-Chip in Rembrandt-Notebooks gedacht gewesen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 6500 XT: Hinweise auf zweckentfremdeten Chip
 
Da fragt man sich warum AMD das Ding überhaupt so auf den Markt gebracht hat, so lässt die 6500 höchstens die RTX 3050 besser aussehen...
 
Da fragt man sich warum AMD das Ding überhaupt so auf den Markt gebracht hat, so lässt die 6500 höchstens die RTX 3050 besser aussehen...
Mich wundert da eher, warum man nicht einen ähnlichen Weg wie Nvidia in dieser Sache geht (noch mehr bei der RX 6400). Eine minimal andere Bezeichnung analog zu Nvidias GT (anstelle von GTX/RTX) und gut.

Aber nein, man vermarktet sie sogar als RX XT. Gleichzeitig schickt man sonst gerne gesehenen Magazinen/Medienvertretern keine Test-Samples - ein Schelm, wer Böses dabei denkt.


Die Karte löst bei mir auch nur Unverständnis aus. Habe nichts dagegen und finde es ökonomisch und ökologisch kein bisschen verwerflich solche Chips auf den Markt zu werden, aber bitte nicht als "tolle Full HD-AAA-Erfahrung" oder ähnliches. Anstelle von 4 GiB packt man da 2 GiB drauf und vermarktet sie als Officekarten in Ergänzung zu den eigenen aktuellen CPUs ohne IGP. Durch den eingesparten Speicher noch etwas günstiger, man versaut sich seinen Ruf nicht und gleichzeitig bietet man in dem Segment ein aktuelles Gegenstück zu Nvidias Karten. (Das Negative wäre dann "nur" noch die Frage nach den hardwareunterstützten Video-De/Encodern.)
 
Zuletzt bearbeitet von einem Moderator:
Was ist jetzt an der NEWS Meldung neu?
War doch bekannt das es eigentlich ein Notebook Chip ist.
Genauso die 6600xt u 6600
 
War doch bekannt das es eigentlich ein Notebook Chip ist.
Genauso die 6600xt u 6600
Interessant, mir war das so jedenfalls nicht bekannt ... :ka:
Aber immerhin, die neue RTX3050 wird kommende Woche als dezidierte GPU wohl wenigstens nominal ein würdigerer Nachfolger der angejahrten GTX1650 :-).
Was mir dabei so in den Sinn kommt ... wird die avisierte RX6400 vielleicht einfach die Nachfolgerin der ebenfalls angejahrten RX550? Die war bereits damals nur dafür geeignet, bei CPUs ohne iGPU ein geordnetes Bild auf den Monitor zu bekommen, nur jetzt für 100€ mehr pro Stück?
Und ja, ich finde es weiter spannend, ob sich Intel mit seiner Arc-Serie auch so eine Nummer wie AMD jetzt leisten wird/will ... auch preislich ...
PS: Man stelle sich in dieser verrückten Zeit vor, Intel als Rächer der Enterbten, der, um Marktanteile als neuer Spieler zu bekommen, wenigstens für die beiden unteren Schubladen GPUs auf den Markt wirft, die von der Lieferbarkeit und vom P/L-Verhältnis den Platzhirschen enteilen werden ...:gruebel: ...
 
Media Encoder braucht der Chip dann wirklich nicht, den hätte ja der Rembrandt Chip.
PCIe 4.0 wäre auch kein Problem im Laptop Segment.

Da stellt sich eher die Frage, ob AMD hier ein Produkt versucht hat an Laptop-OEMs auszuliefern, aber keine Abnehmern gefunden hat. Schließlich gibt es im Laptopsegment aktuell eher zu viel Lagerbestände und auch 3060 Laptops werden ständig im Preis reduziert um sie durchzuverkaufen. OEMs könnte da geneigt sein kein Geld für so einen Chip zahlen zu wollen, denn wegen der 3060 Laptop würde das Laptop ja bestenfalls zwischen 600€-800€ kosten dürfen beim Endkunden. AMD könnte der Preis der für den Chip von Laptop OEMs geboten wird nicht gefallen.

Das würde aktuell zum Verhalten passen, wenn AMD dann den Ramsch den kein OEM für seine Laptops haben will mit dem Kampfschrei "für die Gamer nicht die Miner" als DIY Karte auf den Markt wirft. Vielleicht kaufen es die OEMs ja als Karte für einen OfficePC den sie schnell als Gaming umetikettieren wollen.
 
Doch, genau das ist bei Cézanne ein Problem. Deswegen wäre der Chip erst ab Rembrandt brauchbar.

Der Unterschied von PCie 3.0 auf PCIe 4.0 manifestiert sich bei fps-Zahlen, die der Chip in einem Laptop wohl nicht erreicht hätte, weil er nicht so hohen Takt und die damit verbundene Abwärme hätte produzieren können.

Praktisches Beispiel:
mit PCIe.3.0 erreicht die 6500XT in Shadow of the Tomb Raider 45fps.
mit PCIe.4.0 erreicht die 6500XT in Shadow of the Tomb Raider 60fps.

bei maximaler Leistung und Takt ist PCIe 3.0 ein Flaschenhals.

Aber im Laptop kommt der Chip nicht auf maximale Leistung und Takt, keine 100W, keine 2,8GHz. Mit reduzierter Leistung bringt der Chip dann vielleicht von Haus aus nur 45fps, zu wenig, als dass sich der Flaschenhals PCIe bemerkbar machen würde.

Dann denkt sich AMD, perfekt, so ist der genau am Limit und für einen Laptop stimmt das. Dann nehmen AMD den Chip raus auf den Laptop und pushen ihn bis ans Limit und da macht sich dann der PCIe Flaschenhals sofort bemerkbar.
 
Da stellt sich eher die Frage, ob AMD hier ein Produkt versucht hat an Laptop-OEMs auszuliefern, aber keine Abnehmern gefunden hat. Schließlich gibt es im Laptopsegment aktuell eher zu viel Lagerbestände und auch 3060 Laptops werden ständig im Preis reduziert um sie durchzuverkaufen. OEMs könnte da geneigt sein kein Geld für so einen Chip zahlen zu wollen, denn wegen der 3060 Laptop würde das Laptop ja bestenfalls zwischen 600€-800€ kosten dürfen beim Endkunden. AMD könnte der Preis der für den Chip von Laptop OEMs geboten wird nicht gefallen.

Das könnte sein. Ich fände es nur seltsam, wenn sich AMD und die OEMs damit so verkalkuliert haben. Da muss es doch schon länger Absprachen und Verträge geben. Vielleicht kommen ja noch Laptops mit der GPU und AMD hat aus irgendwelchen Gründen den Launch der Desktopkarte vorgezogen. Laptops mit 6600m gibt es ab 1200€, da ist ja noch Luft nach unten. Ich kann mir aber vorstellen, dass es nicht viele sinnvolle Varianten mit der 6500 als dGPU gibt, die ja nicht so viel schneller als die schnellste APU ist.

Es wäre auch interessant zu wissen was AMDs ursprünglicher Plan für die 6500 XT war.
ein anderer Chip in 7nm, für den keine Kapazitäten da sind?
stark beschnittener Navi 23?
gar keine Karte unterhalb der 6600?
 
Das könnte sein. Ich fände es nur seltsam, wenn sich AMD und die OEMs damit so verkalkuliert haben.

Einmal mehr folgende Quelle:

Wirft man einen Blick in die neueste PCGH GPU Übersicht, so fällt auch, dass die 6700XT (40CU)und die 6800 (60CU) das beste Verhältnis von CU (Takt mit eingerechnet) zu fps hat, wenn es um AMD Karten geht. Das ist in Sachen CU wo sich die neuen Konsolen aufhalten (36&52), darauf ist die Architektur scheinbar optimiert.

Bei den ganz großen Karten gibt es was das Verhältnis von CU zu fps angeht schon nur noch "diminishing returns", will heißen, mehr CUs sind nicht linear mehr Leistung. Ist bei Nvidia ab der 3080 nicht anders, auch da ist die 3070 das Maximum, so weit nichts neues.

Schaut man sich die Karten mit 28 und 32 CU unter dem Aspekt fps or CU an kann man auch noch zufrieden sein. Bei der 6500XT mit 16CUs ist da jedoch ein harter Bruch.Egal wie man es dreht und wendet, der Chip wurde wohl zu stark beschnitten, oder funktioniert einfach nicht so weit unten.

Ich nehme an, AMD hat die wohl mit einer anderen Erwartung produziert. Würde die Karte linearer skalieren, wäre sie im PCGH bei 22,7 punkten, satte 20% mehr. Aber das tut die Karte nicht, stattdessen sackt sie ab. Wenn man sich vorstellt, dass sie in einem Laptop noch mehr absackt, weil das TDP und Takt noch viel weiter sinken, könnte ich mir vorstellen, dass die OEMs die Karte einfach nicht wollten. Die kaufen ja auch keine Katze im Sack, die sehen sich das an, vergleichen es mit 3050 und 3060 Laptop Edition und winken dann ab.

AMD verkauft das dann unbeirrt als "wir schlagen den Minern ein Schnippchen" und ich hoffe niemand fällt darauf rein. Besonders wenn die Gerüchte zur abgrundtief schlechten Miningleistung der 3050 halten (600 Tage und mehr für Mining Break Even bei UVP), dann kann man schnell vergessen, dass es diese AMD je gegeben hat.
 
Schaut man sich die Karten mit 28 und 32 CU unter dem Aspekt fps or CU an kann man auch noch zufrieden sein. Bei der 6500XT mit 16CUs ist da jedoch ein harter Bruch.Egal wie man es dreht und wendet, der Chip wurde wohl zu stark beschnitten, oder funktioniert einfach nicht so weit unten.
Das klingt plausibel. Dass eine Architektur bei zu kleiner Chipgröße nicht mehr gut skalieren könnte, denkt man auch nicht so schnell. Wobei ja AMD selber vorgerechnet hat wieviel der Infinity Cache bringt und dann bringen sie eine GPU raus, die eigentlich schon für 1080p zu wenig davon hat, dazu mit einem 64bit Speicherinterface.

Da hat AMD wohl Glück gehabt, dass sie dank Pandemie das Ding überhaupt verkaufen können und dann noch weit über dem eigentlichen Wert.:schief:

Bei der 3050 mache ich mir auch keine große Hoffnung. Die 3060 startet bei 670€, je nach Leistung wird es dann 550-600€. Naja hoffen wir mal, dass NVIDIA so gnädig ist so viele Karten zu produzieren, dass die Nachfrage teilweise gesättigt wird und die Preise etwas sinken.
 
Dass sich CUs bei der Skalierung nach unten plötzlich nicht auslasten lassen ergibt technisch keinen Sinn.
Was aber sein kann ist, dass man neben dem Cache und Speicher-Interface auch am Frontend zu viel gespart hat.
 
Wenn die Karten für +/- 200€ erhältlich WÄREN ist es halbwegs vertretbar. Damit läge sie preislich unter einer 1050TI bzw. 1650 zur Zeit. AMD hätte dann preislich das untere Ende der Entry Level Gaming GPUs besetzt.
 
Zurück