News TSMCs 3 nm: Höhere Preise bei GPUs und iPhone 15 durch steigende Wafer-Preise

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu TSMCs 3 nm: Höhere Preise bei GPUs und iPhone 15 durch steigende Wafer-Preise

Der Preis für TSMCs Wafer soll einen neuen Höchststand erreicht haben. Das wirkt sich auf kommende Produkte, wie Grafikkarten und das iPhone 15 aus.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: TSMCs 3 nm: Höhere Preise bei GPUs und iPhone 15 durch steigende Wafer-Preise
 
Ist ja schön wenn die Leistung immer weiter steigt, wenn die Kosten mit der Leistung fast Linear steigen, braucht man aber auch nicht mehr die beste Fertigung.
Wenn man für ne Ordentliche GPU einen Monat arbeiten musst, statt 1 Woche frag ich mich ob das so zielführend ist.
 
Zuletzt bearbeitet:
Aber bekommt man nicht auch mehr Chips aus den Wafern? Wenn man das gegenrechnet, sind die Kosten dennoch gestiegen, aber absolut nicht besonders.

Das wäre dann keine Rechtfertigung, für größere Preisanstiege.

Gerade gelesen,

TSMC soll vor der Produktion bei 70% Ausbeute gewesen sein. Auf einen Wafer gehen rund 70-72 Chips für eine 4090.

Bei 70% wären also 50 verwertbar. Also 16000 USD / 50 Stück. Ist ein Stückpreis von 320USD.

Nvidia verkauft pro Jahr rund 20.000.000 Grafikkarten pro Jahr, macht pro Gen 40.000.000 bei 6.048.000.000 Unkosten (nennen wir es mal so). Das macht pro GPU nochmal 151 USD.

Der Kühler soll ja auch 150USD gekostet haben, aber sicher mit Entwicklung usw. inkl.

Weiß einer was ein PCB kostet, inkl Bauteile außer VRAM? Und dann separat was VRAM kostet? GDDR6X.

Ich schätze mal die gesamten Kosten für eine 4090 auf etwa 800-900USD. Da sollte dann alles drin sein, inkl. Vertrieb usw... Wirklich alles.
 
Zuletzt bearbeitet:
Aber bekommt man nicht auch mehr Chips aus den Wafern? Wenn man das gegenrechnet, sind die Kosten dennoch gestiegen, aber absolut nicht besonders.
Nur wenn man welche aus einem älteren Verfahren im neuen fertigen würde, macht aber meistens keiner.
Die genutzte Fläche bleibt ja meistens immer die gleiche um mehr Shader etc. im Vergleich zur alten Fertigung unterzubringen.
 
Aber bekommt man nicht auch mehr Chips aus den Wafern? Wenn man das gegenrechnet, sind die Kosten dennoch gestiegen, aber absolut nicht besonders.

Das wäre dann keine Rechtfertigung, für größere Preisanstiege.
Das kommt immer auf die Chipfläche an.
Klar kann man mit kleineren Fertigungsgrößen auch kleinere Chips produzieren, allerdings kann man auch auf der selben Fläche mehr Transistoren unterbringen und so die Rechenleistung steigern.

Einen reinen Shrink würde man im Grunde nur aus Energieeffizienzgründen und zur Kostenersparnis machen.
Ob letztere bei den stark steigenden Preisen für die neue Fertigungsgröße noch gegeben ist, kann zumindest angezweifelt werden.

Im Angesicht von Stromhungrigen GPU-Rechenmonstern die, unter bestimmten Umständen, selbst die Stromanschlüsse zum schmelzen bringen können, wären ein-zwei reine Effizienz-Shrink-Generationen keine schlechte Idee.
 
Tja, mit steigenden Energie- und Rohstoffpreisen wird jedes "höher, weiter, schneller" mal gebremst. Und wenn es dadurch ist dass man Preise aufruft (oder aufrufen muss) die dem Endkunden nicht mehr schmecken.

Wir scheinen langsam an dieser Schwelle zu stehen. Manche spielen noch mit, manche nicht mehr. Wenns weiter steigt spielen vermutlich immer weniger mit.

Spätestens dann wird man sehen ob die Neuerungen noch so schnell kommen wie man sie theoretisch bringen könnte. Viele erinnern sich nicht mehr, aber früher gab es z.B. wesentlich längere Produktlebenszyklen und auch weniger Stufen bei den Produktabstufungen - deren Schritte waren auch viel größer. Heute gibt es, um wieder auf Chips zurückzukommen, gefühlt für jeden die individuell optimale Leistungsklasse. Und dann blickt keiner mehr durch und dann braucht es Beratung und Tests etc. Eigentlich ein Wahnsinn. Aber wir fanden diesen Wahnsinn alle gut.

Vielleicht bereinigt und entschleunigt sich das jetzt dann wieder. Und vielleicht achtet man dann wieder auf Qualität und Haltbarkeit. Hätte doch auch was.
 
Dann kann man ja jetzt schon anfangen zu sparen, eine RTX 5090 wird dann eine UVP von 2.946 Euro haben (die Customer Modelle natürlich dann noch teurer!) und die RTX 5080 wird dann eine UVP von 2.470 Euro haben.

Wenn das alles so weiter geht, mit den höheren Strompreisen, Gaspreisen, Ölpreisen, Lebensmittelpreisen und dann auch mit den gestiegenen Preisen im Hardwarebereich, dann brauchts aber noch einige Abschlüsse bei den Tarifverhandlungen. Da braucht man dann als Gewerkschaft mit Lohnerhöhungen von einstelligen Prozentbereiche gar nicht anfangen. Da werden sich aber die Arbeitgeber freuen!
 
Dann kann man ja jetzt schon anfangen zu sparen, eine RTX 5090 wird dann eine UVP von 2.946 Euro haben (die Customer Modelle natürlich dann noch teurer!) und die RTX 5080 wird dann eine UVP von 2.470 Euro haben.

Wenn das alles so weiter geht, mit den höheren Strompreisen, Gaspreisen, Ölpreisen, Lebensmittelpreisen und dann auch mit den gestiegenen Preisen im Hardwarebereich, dann brauchts aber noch einige Abschlüsse bei den Tarifverhandlungen. Da braucht man dann als Gewerkschaft mit Lohnerhöhungen von einstelligen Prozentbereiche gar nicht anfangen. Da werden sich aber die Arbeitgeber freuen!

Wenn die 5090 rauskommt hoffe ich dass mein zukünftige 4090 dann bei 1000€ liegt, gebraucht ^^
 
Nur wenn man welche aus einem älteren Verfahren im neuen fertigen würde, macht aber meistens keiner.
Die genutzte Fläche bleibt ja meistens immer die gleiche um mehr Shader etc. im Vergleich zur alten Fertigung unterzubringen.
Habe meinen Beitrag um ein paar Zahlen ergänzt.
Also ja und nein. Ja, es stimmt, das man es meistens in mehr Transistoren pro Chip unterbringt und auf eine ähnliche Chipfläche kommt.

Erklärt anhand der Zahlen, aber keine übertriebenen Preissteigerungen.
Dann kann man ja jetzt schon anfangen zu sparen, eine RTX 5090 wird dann eine UVP von 2.946 Euro haben (die Customer Modelle natürlich dann noch teurer!) und die RTX 5080 wird dann eine UVP von 2.470 Euro haben.

Wenn das alles so weiter geht, mit den höheren Strompreisen, Gaspreisen, Ölpreisen, Lebensmittelpreisen und dann auch mit den gestiegenen Preisen im Hardwarebereich, dann brauchts aber noch einige Abschlüsse bei den Tarifverhandlungen. Da braucht man dann als Gewerkschaft mit Lohnerhöhungen von einstelligen Prozentbereiche gar nicht anfangen. Da werden sich aber die Arbeitgeber freuen!
Wieso, wenn der Preis pro Wafer von 16000 auf 20000 steigt, dürfte die GPU am Ende ja nur um 80 USD teurer werden, sofern der Hersteller dich nicht noch mehr übers Ohr ziehen will ;)

ok, der Gewinn soll ja auch steigen und das Prozentual, also am Ende wohl 166USD, ohne Gweinnsteigerung, mit Gweinnsteigerung um einen Zufriedenen Aktionär zu haben, gut und gerne 339USD mehr.


Nochmal ;)
TSMC soll vor der Produktion bei 70% Ausbeute gewesen sein. Auf einen Wafer gehen rund 70-72 Chips für eine 4090.
Bei 70% wären also 50 verwertbar. Also 16000 USD / 50 Stück. Ist ein Stückpreis von 320USD.
Nvidia verkauft pro Jahr rund 20.000.000 Grafikkarten pro Jahr, macht pro Gen 40.000.000 bei 6.048.000.000 Unkosten (nennen wir es mal so). Das macht pro GPU nochmal 151 USD.
Der Kühler soll ja auch 150USD gekostet haben, aber sicher mit Entwicklung usw. inkl.
Weiß einer was ein PCB kostet, inkl Bauteile außer VRAM? Und dann separat was VRAM kostet? GDDR6X.
Ich schätze mal die gesamten Kosten für eine 4090 auf etwa 800-900USD. Da sollte dann alles drin sein, inkl. Vertrieb usw... Wirklich alles.
 
Zuletzt bearbeitet:
Blabla, gibt doch immer Gründe warum irgendwas teurer wird...
Die Smartphonepreise von guten Smartphones sind doch schon lange jenseits von Gut und Böse. Es macht aus vielerlei Hinsicht Null Sinn, so viel Geld für Technik auszugeben, die man im Alltag zu, gefühlt, 99 % nicht nutzt, nicht einmal im Ansatz. Das ist nur Marketing-Habenwill, mehr nicht. Wenn man sich einmal aus dieser Spirale verabschiedet hat, merkt man erst einmal wie sinnlos die Entwicklung ist und wie gut günstige oder "ältere" Smartphones funktionieren. :-)

MfG
 
Na das sind doch mal wieder gute Aussichten:-(
Aber die Lederjacke wird´s freuen. Endlich kann er sich schon mal ausmalen in 2-3 Generationen die Highend Karten für 5 Stellige Beträge feilzubieten :ugly:
 
Oder es ist so, dass Jensen mit seiner Aussage diese Preisentwicklung seiner Herstellkosten schon kannte und das damit ausdrücken wollte. Und wenn das stimmt, wird auch AMD nicht mehr als günstige Alternative funktionieren. Relativ vielleicht. Aber die 500-600€ Topmodelle sind dann wirklich Geschichte.
 
Ich bin gespannt, ob TSMC irgendwann den Preis so weit steigert bzw. steigern muss wegen eigenen Ausgaben für die Fabs und Entwicklung, dass die Chip-Kundschaft anfängt neue Nodes zu ignorieren. Nvidia hat uns ja vor der 4000er-Serie schon gezeigt, dass sie auch mit vergleichsweise schwächeren und älteren Nodes eine ordentliche Leistung abliefern können. AMD hat sowohl bei Ryzen als auch bei Radeon zwei mal hintereinander 7nm verwendet mit kleinen Optimierungen und die Ergebnisse waren sehr gut. Hier fällt ein höherer Energieverbrauch im Desktopbereich ja erst bei der Jahresabrechnung des Stromanbieters auf.

Anders wird es wahrscheinlich im Smartphonebereich sein, da dort Energieeffizienz immer noch König ist und ich den Eindruck habe, dass viele Leute sich ein neues Telefon kaufen, damit ihr Akku noch länger hält und nicht, weil das achte Kameraobjektiv auf der Rückseite sie dazu bewegt hat. Vielleicht kommt es hier dann wirklich mal zur Leistungs- und Featurestagnation, damit die Chips dann kleiner werden und der Preis nicht weiter anziehen muss.
 
Spätestens dann wird man sehen ob die Neuerungen noch so schnell kommen wie man sie theoretisch bringen könnte. Viele erinnern sich nicht mehr, aber früher gab es z.B. wesentlich längere Produktlebenszyklen und auch weniger Stufen bei den Produktabstufungen - deren Schritte waren auch viel größer. Heute gibt es, um wieder auf Chips zurückzukommen, gefühlt für jeden die individuell optimale Leistungsklasse. Und dann blickt keiner mehr durch und dann braucht es Beratung und Tests etc. Eigentlich ein Wahnsinn. Aber wir fanden diesen Wahnsinn alle gut.

Vielleicht bereinigt und entschleunigt sich das jetzt dann wieder. Und vielleicht achtet man dann wieder auf Qualität und Haltbarkeit. Hätte doch auch was.
Auf welchen Zeitbereich beziehst du dich? Auf GPUs bezogen, wann in der Vergangenheit gab es denn mal einen Produktionszyklus, der länger als zwei Jahre war?

Weiß einer was ein PCB kostet, inkl Bauteile außer VRAM? Und dann separat was VRAM kostet? GDDR6X.
Mouser hatte den GDDR6X der 3090 mal im Angebot. Ich meine der Lag bei 30€ pro Chip. Nvidia bezahlt sicherlich weniger. Einfacher ist es wohl Rückwärts zu rechnen. Wir kennen UVP, Mwst., Marge der Händler (ca. 5%), Marge der Distris (ca. 15%), Marge von Nvidia ca. 60%. Wobei letzteres für GPU und Speicher gelten muss, da Nvidia dies im Bundle verkauft.
Wir wissen von EVGA auch, dass die ihre 3090 nicht unter UVP der FE verkaufen konnten, ohne Verlust zu machen.
 
Nur wenn man welche aus einem älteren Verfahren im neuen fertigen würde, macht aber meistens keiner.
Die genutzte Fläche bleibt ja meistens immer die gleiche um mehr Shader etc. im Vergleich zur alten Fertigung unterzubringen.
Es schwankt durchaus bei der Größe. Hier ein Beispiel bei Apples SoCs:
A4 53.3 mm2
A6 96.71 mm2
A7 102 mm2

A8 89 mm2
A9 96 mm2 bzw. 104.5 mm2
A10 125 mm2
A11 87.66 mm2
A12 83.27 mm2

A13 98.48 mm2
A14 88 mm2
A15 107.68 mm2


Meist wurden die Chips flächenmäßig größer wenn der "Nodeshrink" eigentlich keiner war und mit einem "echten" Nodeshrink bestellte Apple meist wieder kleinere Chips.
 
Aber bekommt man nicht auch mehr Chips aus den Wafern? Wenn man das gegenrechnet, sind die Kosten dennoch gestiegen, aber absolut nicht besonders.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück