Leider nein, da die Waferpreise in meiner Firma (Siltronic AG) zum Betriebsgeheimnis gehören.
Schade, aber trotzdem hat er mit dem Ansatz der Rechnung doch recht.
Der Wafer macht nur einen Teil X von der Kostensumme eines belichteten Wafers aus.
Das bedeutet, dass dieser höhere Preis des Grundmaterials sich auf die zu erzielende Anzahl an DIEs je Wafer verteilt.
Auch da ist seien Annahme richtig.
Wenn jetzt die absoluten Beträge nicht stimmen mag das ja sein, aber selbst wenn man von 50% Waferkosten bei der Fertigung aus geht, wären es nur 500$ in Top bei 5000$ Fertigwafer bisher.
Und die 500$ würden sich auf grob 285 DIEs verteilen, was wiederum unter 2$ wären.
Klar, mit allem Pipapo kommen beim Kunden dann eher 8-10$ an, aber das fällt fast nicht mehr auf, zumal man das so machen würde, dass man strategisch wieder mehr beim Top-Modell auf schlägt und beim Einsteigermodell eher etwas weniger drauf legt...
Was richtig doof ist, sind die GPUs, die dank ihrer viel größeren Fläche da deutlich mehr an absoluten Kosten pro Chip hinzugewinnen, allerdings sind diese Chips bisher ja auch schon vergleichsweise Teuer. Und selbst wenn es bei einer GPU dann 10$ wären, würde das bedeuten, dass die Chips bei gleicher Größe beim Endkunden irgendwo 35-50$ teurer kommen, Klar immer noch viel Geld, aber gegenüber den Mehrkosten durch Mining ein Witz, leider.
Dagegen wird aber der Trend wirken, die GPUs selbst wieder zu verkleinern, weil man seitens AMD/Nvidia auch weiß, das zu große Chips noch ganz andere Probleme aufwerfen. (Ausbeute pro Wafer wegen nicht voll nutzbarer Fläche, dann zusätzlich Probleme mit Chipdefekten, ...)
War nicht sogar die Rede davon das man bei AMD über eine skalierbare GPU im Stile der Ryzen/Epic-Prozessoren nachdenkt?