Radeon-Ausverkauf: Preissturz von RX 6600 XT bis RX 6950 XT nach Enthüllung von RTX 4090 & RTX 4080

ist in 28nm gefertigt und die Wafer haben einen Bruchteil dessen gekostet was man inzwischen für die 7nm bezahlen muss. Die BOM einer 6800XT dürften wohl bei rund dem dreifach liegen gegenüber einer 280x. Vergleich doch nicht Äpfel mit Birnen.
Die 280X hatte einen größeren Memory Bus. Der GPU-Markt war wesentlich kleiner, womit man heute mehr über die abgesetzte Menge wieder einspielt. Die Margen waren sicher nicht bei >20%. Der Die war kleiner und die Nodes waren größer, aber das trifft auf so gut wie alle Generationen vor der R9 280X im entsprechenenden Vergleich auch zu. Außerdem habe ich den Anstieg der Die-Fläche mit einem großzügigen Multiplikator berücksichtigt. Ich vergleiche GPU mit GPU und dabei sogar ähnliche Klassen. Wenn du einen Benchmark öffnest, dann werden GPUs unterschiedlicher Klassen über unterschiedliche Generationen ebenso verglichen.

Außerdem: AMD und NV fragen sich ja auch nicht, woher ich mehr Geld hernehmen muss. Also wieso sollte ich so nett sein und bei ihnen so viel Verständnis zeigen? Die interessieren sich für mein wirtschaftliches Umfeld nicht wirklich.
 
Die 280X hatte einen größeren Memory Bus.
Was hat das mit den BOM einer 6800XT zu tun? Nichts. Und btw. 3gb GDDR5 kostet nen Appel und Ei im Vergleich zu 16gb GDDR6.
Die Margen waren sicher nicht bei >20%
Sind sie heute auch nicht. Die AIBs waren ziemlich dankbar als AMD sogar rückwirkend auf bereits gekaufte Chargen bis zu 50$ pro Chip Rabatt gab. Für NV gibt es wohl eine Marge von approx 5%. Bei AMD könnte sie etwas höher sein. Aber auch nicht so viel.
EVGA_NV_006.png

Außerdem habe ich den Anstieg der Die-Fläche mit einem großzügigen Multiplikator berücksichtigt.
Nur ist die DIE Fläche nicht proportional zu den Waferkosten gestiegen. Das DIE einer RX6800XT ist rund 67% größer als das einer 280x. Die Waferpreise(12inch Wafer) haben sich dagegen in etwa vervierfacht(28nm vs. 7nm).
Außerdem: AMD und NV fragen sich ja auch nicht, woher ich mehr Geld hernehmen muss. Also wieso sollte ich so nett sein und bei ihnen so viel Verständnis zeigen? Die interessieren sich für mein wirtschaftliches Umfeld nicht wirklich.
Du bist nicht bereit einen entsprechenden Preis zu bezahlen. Das ist dein gutes Recht. Nur tue doch nicht so als wenn der von dir genannte Preis in irgend einer Form kostendeckend wäre.
 
Was hat das mit den BOM einer 6800XT zu tun? Nichts. Und btw. 3gb GDDR5 kostet nen Appel und Ei im Vergleich zu 16gb GDDR6.

Sind sie heute auch nicht. Die AIBs waren ziemlich dankbar als AMD sogar rückwirkend auf bereits gekaufte Chargen bis zu 50$ pro Chip Rabatt gab. Für NV gibt es wohl eine Marge von approx 5%. Bei AMD könnte sie etwas höher sein. Aber auch nicht so viel.
Anhang anzeigen 1403497

Nur ist die DIE Fläche nicht proportional zu den Waferkosten gestiegen. Das DIE einer RX6800XT ist rund 67% größer als das einer 280x. Die Waferpreise(12inch Wafer) haben sich dagegen in etwa vervierfacht(28nm vs. 7nm).

Du bist nicht bereit einen entsprechenden Preis zu bezahlen. Das ist dein gutes Recht. Nur tue doch nicht so als wenn der von dir genannte Preis in irgend einer Form kostendeckend wäre.
Die Investitionskosten haben sich vervierfacht. Die abgesetzte Menge stieg aber ebenso deutlich, wobei eben nicht nur der Heim-PC Markt zu betrachten ist. Auch die Absätze der Hersteller abseits dieses Segments macht Aufträge bei TSMC und Samsung pro Die billiger. Entsprechend sind die Produktionskosten pro Die nicht 4x. Und du verwechselst da etwas bei der angefügten Grafik. Die Marge ist nicht bei 4%. Das betrifft nur die AIBs. Die Marge ist bei 4% AIBs SOWIE >60% NV. Beide Margen zahlt man als Endkunde. Yields sind sind aktuell extrem hoch bei 7nm, RAM Preise gingen die letzten Wochen zurück - und ja, ich rede von GDDR6 8Gb und 16Gb Chips.

Edit: Natürlich ist ein breiterer Memory-Bus aufwändiger zu entwickeln und zu produzieren. Damit gab es Speicher-seitig durchaus höhere Kosten bei der 280X im Vergleich zur 6800XT. Es hat insofern etwas damit zu tun, weil wir ja bereits auf die Kosten bei der Speicherausstattung der 6800 XT gekommen sind. Wenn wir die höheren RAM Preise auf aktuelel Gens anrechnen, dann sollten wir auch den höheren Preis für breitere Memory-Busses bei der alten Generation berücksichtigen.
 
Zuletzt bearbeitet:
Auch die Absätze der Hersteller abseits dieses Segments macht Aufträge bei TSMC und Samsung pro Die billiger.
Die genaue Zahl kennt wohl nur NV. Aber man schätzt das Samsung für sein 8nm Wafer rund 9000$ pro Stk berechnet hat. TSMC liegt für 7nm leicht drüber. Die Volume Contracts hat TSMC hat vor einiger Zeit eingestellt und die Waferpreise um 20-30% angehoben.
Yields sind sind aktuell extrem hoch bei 7nm
Das waren sie bei der 280x mit 28nm auch schon. Der Prozess ging bei TSMC 2010 in die Risk und 2011 in die Mass Production. Die 280x kam Ende 2013 auf den Markt. Da waren die Yields für 28nm schon entsprechend hoch.
Die Marge ist nicht bei 4%. Das betrifft nur die AIBs
Die verkaufen die aber nun mal die Karten. Im Falle von AMD ist die Menge an Referenz Karten marginal gering.
NV =/= AMD. Schau dir mal die Zahlen aus dem letzten Earnings Call an. Gaming Segment Net Revenue rund 1,6Milliarden Dollar. Bei einem Profit von 187Millionen Dollar. Während das Revenue Y/Y um 32% stieg lag das Wachstum beim Profit "nur" bei 7%. Als Operating Marging gibt AMD für das Gaming Segment 11% an. Im Vergleich dazu Datacenter und Client Systems mit jeweils 32% Marging und Embedded mit 51%. Man sieht also wo AMD wirklich Geld verdient.
 
Die verkaufen die aber nun mal die Karten. Im Falle von AMD ist die Menge an Referenz Karten marginal gering.
Natürlich verkaufen sie die Karten. Vom Preis bleiben ihnen die einstelligen Prozent Marge. Als Endkunde zahlst du trotzdem die Marge von AMD/NV ebenso, die die AIBs dann durchreichen. Somit Marge 4% und noch einiges drauf (NV die angesprochenen 60%). AMD hat ganz gute Verträge bei TSMC. Wenn NV bei den Preisen deutlich profitabel ist, dann ist es AMD auch. Vielleicht nicht bei 60%, aber mit Sicherheit hoch zweistellig. Die 7% beziehen sich auf Profit Margin von AMD, nicht auf einzelne Margen von Grafikkarten. Außerdem ist der Free Cash Flow relevanter für den Investor. Deutlich über den GAAP earnings. Die übrigen Earnings könnten z.B. Stock Buybacks berücksichtigen, was sie auch tun. Ich finanziere doch nicht mit meinen GPU Käufen, dass AMD ihre eigenen durchaus (relativ) teuer bewerteten Aktien kauft.
 
Zuletzt bearbeitet:
Meine XT ist getweakt bis auf den letzten Kondensator und hat bei 300Watt Gesamtaufnahme die Leistung einer 6950XT/3090 OCin QHD. Wer gerne undervoltet um sehr sparsam unterweg zu sein, dem würde ich aber am ehsten die 6800 empfehlen. DIe lässt sich ohne große Probleme bei 200Watt betreiben.

Das ist meine 6800er.
Irgendwie haben die Möglichkeiten im Wattman bei den neueren AMD Karten auch abgenommen. Ich konnte da früher bei der VEGA 56 sieben Stages einstellen mit mV und Takt. Bei der RX 6xxx gibt es den Slider für Voltage und Max. Takt.
So wie ich es bei der VEGA gemacht hatte mit höherer Takt, Power Limit rauf und gleichzeitges UV ist mit meiner RX 6700 XT kaum möglich. Wird sehr schnell instabil oder entwickelt sich zum Hochofen :D. An so tools wie das MPT trau ich mich nicht so richtig ran.

Meine Wunschkarte war übrigens auch immer die RX 6800 weil das der Sweetspot von RDNA2 ist. Aber ich glaub das lohnt jetzt nicht mehr. Dazu müsste der Preis noch weiter fallen und ich meine gut verkaufen.
 
Ich hab mir jetzt um ca. 850 die Asus 6900XT OC geholt. damit hab ich erstmal eine gute Leistungsbasis und kann dann immer noch auf die neue Gen upgraden wenn diese dann breit und zu vernünftigen Preisen verfügbar wird und auch Performance bietet.
Wenn man sich die NVIDIA Preispolitik ansieht wird AMD sicher auch etwas mitziehen. Aber eine 40er Nvidia kommt mir mit diesen Specs nicht in den Rechner.
 
Jahrelang?
Ich rüste nächstes Jahr auf UHD 144Hz+ und die wollen befeuert werden.
Und warum jetzt für 800 Euro ne Karte kaufen, wenn ich in 2 Monaten für 1000 Euro ne deutlich schnellere Karte kriege?
Wenn du nur in FHD spielst, wird ne 6900XT auch ne Weile reichen.
Mit Full HD hat ne 6900XT nichts am Hut, da reicht ne 1060er locker. Die 6900er würde für 2 und mehr Jahre für 4K reichen (auch wenn nicht bei jedem Game auf den höchsten Einstellungen...denke da an CP 2077) für 2K, so wie ich spiele, reicht sie ewig. Hatte ne 1070er 5 Jahre lang und habe sie bis zuletzt ebenfalls für 2K benutzt (mittlere bis low Einstellungen) . Wenn du immer alles ausreizen willst ohne Sinn unf Verstand, wird deine zu teure 4090 nächstes Jahr bereits nicht reichen. Es ist das ewige Rennen der Technik, welches wir mitspielen. Abgesehen davon zahlst du ja nicht 200€ mehr für die 4090 sondern deutlich mehr, da Nutzungszeit × Strompreis noch dazu kommt. Und wenn du 200€;mehr meinst reden wir von der kleinen 4080, die gefällt mir von der GB Ausstattung her schonmal nicht, egalbwieviel Leistung sie hat. Ich habe 0 Verlangen nach überteuerten/noch teureren Karten mit denen ich doch dieselben Spiele spiele. Aber jeder muss für sich entscheiden, wünsche dir viel Spaß mit deiner Auswahl.
 
Na wenn in deinem Falle FHD mit unbekannten fps reicht, ist das doch schön.
Verstehe nur nicht warum die 6900XT erst nix mit FHD am Hut hat, aber dann doch wieder für FHD ewig reicht.
 
Zurück