News Hoffnung auf sinkende Preise: Geforce RTX 4090 unter 1.900 Euro

Gut, dafür passen auf ein Samsung Wafer auch nur 89 Stück von der 3080. Geben wir denen den gleichen 20% Wegwerfrate, dann sind es 71 Chips pro Samsung Wafer, macht umgerechnet $112 pro 3080 Chip für Nvidia. Damit ist der neue TSMC Prozess für Nvidia pro Chip nur $17 teurer geworden. Ich glaube es ist sicher zu sagen, dass die typische 80er Serie mehr als $17 teurer geworden ist. Berechnet man mit ein, dass die Fehllerrate bei Smsung richtig schlecht gewesen sein soll, ist sogar davon auszugehen, dass Nvidia aktuell bei TSMC weniger zahlt. Also ja, ein 4080 Chip von TSMC ist höchstwahrscheinlich billiger in der Herstellung als ein 3080 Chip es war. Es reicht nicht, nur die Schlagzeile (WAFER BEI TSMC KOSTET DAS DOPPELTE) zu lesen, man muss die Mathematik dahinter durchrechnen, denn Nvidia macht das auch. Da sehen wir vor allem dass RTX40 schon in der Herstellung viel mehr SInn macht bei TSMC als bei Samsung.

Als würde Nvidia für defekte Chips zahlen. Glaubst Du ernsthaft so sehen die Verträge aus?

Sagen wir Samsung liefert nur 50% funktionsfähige Chips die eigentlich auf den Wafer passen (die besonders Anfangs schlechte Yield Rate ist ja bekannt), dann zahlt Nvidia trotzdem den vollen Wafer Preis? Warum sollte Nvidia so einen Vertrag bei Samsung unterschreiben? Das wäre kompletter Unsinn. Die Entscheidung für Ampere zu Samsung zu gehen muss ja irgendeinen guten Grund gehabt haben, sonst wäre man bei TSMC geblieben.

Nvidia soll bei TSMC jetzt WENIGER pro Chip zahlen als bei Samsung? Bei DREIFACHEN Wafer Preisen und "nur" circa halb so großen Chips? Du rechnest hier nach Deinem eigenen Gusto, hast Du dazu auch etwas Belastbares?

Die Kosten für ein 4060 PCB unterscheiden sich nicht groß von einem 4090 PCB und die zusätzlichn 6GB RAM eines leicht anderen Typus den eine 4080 kosten auch nicht hunderte Euros mehr. Ich empfehle eine Lektürde der Nvidia Quartalsberichte, da werden auch Personal, Forschung und andere Kosten aufgeschlüsselt (Leider nicht nach Bereich), aber auch da sind die Kosten sehr stabil. Kurz gesagt, Nvidia bietet zweistellige Milliardenbeträge um Firmen aufzukaufen, deren Gewinnspanne ist entsprechend enorm und damit meine ich Gewinn nach Abzug aller Kosten wie Herstellung, R&D, Personal, Marketing, Software und Hausmeister.

Nvidia steckt schon seit Jahren zwischen 10-15% des Gewinns in R&D. Heißt wenn Nvidia mehr Gewinn macht, dann wird auch mehr in R&D gesteckt.

https://www.statista.com/statistics/988048/nvidia-research-and-development-expenses/

1705834354628.png


So bleibt man Technologie-Führer.

Natürlich ist der Gewinn enorm, die Margen im Gaming Bereich sind aber über die Jahre immer ungefähr gleich geblieben. Auch das kann man recherchieren.
 
3080 -> 799 USD (2020)
3080 Ti -> 1199 USD (2021)
4080 -> 1199 USD (2022)
4080 super -> 999 USD (2024)

Ich sehe die 1080 Ti/2080 Ti eher als Vorgänger des 80er Lineup, die 90er Serie als einen Mix Richtung "Pseudo-Titan" Nachfolger. Sollte die 5090 eine "echte" Titan werden, sind wir bei 3K aufwärts und der Spagat, dass die Karte auch für Gaming PCs herhält, hätte sich bis auf wenige Exemplare damit weitestgehend erledigt. Das wird Nvidia m.E. nicht machen, sondern die Preise werden sich im Rahmen der 40er Reihe bewegen.
Ich gehe da nach den Chips.
1080ti, 2080ti, 3090, 4090, alles leicht beschnittene 02er Chips knapp unter dem vollen Chip angesiedelt.
3080ti ist da noch dicht dran, ne 4080 ist aber zb nen 03er Chip.
 
Als würde Nvidia für defekte Chips zahlen. Glaubst Du ernsthaft so sehen die Verträge aus?
Deswegen nennt TSMC ja den Preis pro Wafer, weil man pro Wafer zahlt und immer einen Wafer geliefert bekommt. Deswegen konnte TSMC ja Nvidia wieder von Smasung abwerben, weil dort die FEhlerrate auf den Wafern so hoch war und man das in die Kosten einbeziehen muss.


Nvidia soll bei TSMC jetzt WENIGER pro Chip zahlen als bei Samsung? Bei DREIFACHEN Wafer Preisen und "nur" circa halb so großen Chips? Du rechnest hier nach Deinem eigenen Gusto, hast Du dazu auch etwas Belastbares?

So sieht ein 3080 Wafer aus. 89 Chips von 625mm² Größe. Genaugenommen ist es die schematische Darstellung eines GA-102 Wafers und je nachdem wieviel Cuda Kerne Nvidia pro Chip abschalten MUSS (nicht will), wird aus einem Chip eine 3070Ti, 3080, 3080-12GB, 3080Ti, 3090 oder 3090Ti. Allein das zeigt, dass der Wafer Hersteller einfach sagt, hier hast du, sie zu was du da rausbekommt, wir haben das Ding so gut es geht gemacht und werden nach Wafer bezahlt, wenn dir das nicht passt geh woanders hin. Das hat Nvidia dann auch gemacht und ist zu TSMC.

3080wafer.jpg


Man nehme also den Preis pro Wafer, zieht von 89 Chips die ab die man wegwerfen muss. Sagen wir mal 20% also 18 Stück und dann bleiben 71 Chips. DU, nicht ich, hast gesagt die Preise pro Wafer von Samsung auf TSMC hätten sich verdoppelt. DU, nicht ich, hast gesagt TSMC will $16.000. Macht nach der Logik und dem Diagramm also $8000 pro Wafer und somit $112 pro Chip.



Gehen wir rüber zur RTX 4000. Die RTX 4080 ist der AD-103 Chip und der ist kleiner als sein Vorgänger der in der 3080 gesteckt hat. Das bringt uns zu diesem Diagramm von 156 Chip mit 378,6mm² Fläche)

4080wafer.jpg


156 Chips passen also maximal drauf, wir werfen wie zuvor 20% weg, bleiben 124 Stück übrig. $16.000 geteilt durch 124 sind $129. Da beißt die Maus keinen Faden ab. $17 pro Chip, mehr ist es nicht, was die 4080 im Vergleich zur 3080 kostet. Voila, mit Schaubild. Jetzt kann man Google bemühen um rauszufinden wie schlecht oder gut die Aubeute bei Samsung war und dann hört man viel darüber wie schlecht die Ausbeute bei Samsung im Vergleich zu TSMC war. Wäre die Ausbeite bei Samsung 70% gewesen und bei TSMC ist sie jetzt 80%, dann wäre schond er Punk erreicht bei dem die 4080 gleich teuer in der Herstellung ist.



Jetzt hast du leider in deinem ersten Post geschriben, dass sich die Preise verdoppelt hätten und in dem anderen, dass die Preise das dreifache wären. Also gut, ich spiel mit, rechnen wir das mit dreifachen Preisen durch.

TSMC Wafer für deine genannten $16.000 sind die $129 pro Chip.
Samsung kostet nur noch ein Drittel, macht $5333 pro Wafer und bei 71 verwertbaren Chips $75.
Sicherlich ein Grund warum eine 4080 ca. $54 mehr kosten dürfte als eine 3080, aber kein Grund warum wir bei 1250€ für eine 4080 gelandet sind. Das hat selbst Nvidia gemerkt und macht aus den gleichen Chips jetzt die Super Serie, damit es nicht aussieht als hätte man das gemacht was man gemacht hat, nämlich den Preis einer Karte mit AD103 gesenkt.
 
Deswegen nennt TSMC ja den Preis pro Wafer, weil man pro Wafer zahlt und immer einen Wafer geliefert bekommt. Deswegen konnte TSMC ja Nvidia wieder von Smasung abwerben, weil dort die FEhlerrate auf den Wafern so hoch war und man das in die Kosten einbeziehen muss.




So sieht ein 3080 Wafer aus. 89 Chips von 625mm² Größe. Genaugenommen ist es die schematische Darstellung eines GA-102 Wafers und je nachdem wieviel Cuda Kerne Nvidia pro Chip abschalten MUSS (nicht will), wird aus einem Chip eine 3070Ti, 3080, 3080-12GB, 3080Ti, 3090 oder 3090Ti. Allein das zeigt, dass der Wafer Hersteller einfach sagt, hier hast du, sie zu was du da rausbekommt, wir haben das Ding so gut es geht gemacht und werden nach Wafer bezahlt, wenn dir das nicht passt geh woanders hin. Das hat Nvidia dann auch gemacht und ist zu TSMC.

Anhang anzeigen 1449665

Man nehme also den Preis pro Wafer, zieht von 89 Chips die ab die man wegwerfen muss. Sagen wir mal 20% also 18 Stück und dann bleiben 71 Chips. DU, nicht ich, hast gesagt die Preise pro Wafer von Samsung auf TSMC hätten sich verdoppelt. DU, nicht ich, hast gesagt TSMC will $16.000. Macht nach der Logik und dem Diagramm also $8000 pro Wafer und somit $112 pro Chip.



Gehen wir rüber zur RTX 4000. Die RTX 4080 ist der AD-103 Chip und der ist kleiner als sein Vorgänger der in der 3080 gesteckt hat. Das bringt uns zu diesem Diagramm von 156 Chip mit 378,6mm² Fläche)

Anhang anzeigen 1449670

156 Chips passen also maximal drauf, wir werfen wie zuvor 20% weg, bleiben 124 Stück übrig. $16.000 geteilt durch 124 sind $129. Da beißt die Maus keinen Faden ab. $17 pro Chip, mehr ist es nicht, was die 4080 im Vergleich zur 3080 kostet. Voila, mit Schaubild. Jetzt kann man Google bemühen um rauszufinden wie schlecht oder gut die Aubeute bei Samsung war und dann hört man viel darüber wie schlecht die Ausbeute bei Samsung im Vergleich zu TSMC war. Wäre die Ausbeite bei Samsung 70% gewesen und bei TSMC ist sie jetzt 80%, dann wäre schond er Punk erreicht bei dem die 4080 gleich teuer in der Herstellung ist.



Jetzt hast du leider in deinem ersten Post geschriben, dass sich die Preise verdoppelt hätten und in dem anderen, dass die Preise das dreifache wären. Also gut, ich spiel mit, rechnen wir das mit dreifachen Preisen durch.

TSMC Wafer für deine genannten $16.000 sind die $129 pro Chip.
Samsung kostet nur noch ein Drittel, macht $5333 pro Wafer und bei 71 verwertbaren Chips $75.
Sicherlich ein Grund warum eine 4080 ca. $54 mehr kosten dürfte als eine 3080, aber kein Grund warum wir bei 1250€ für eine 4080 gelandet sind. Das hat selbst Nvidia gemerkt und macht aus den gleichen Chips jetzt die Super Serie, damit es nicht aussieht als hätte man das gemacht was man gemacht hat, nämlich den Preis einer Karte mit AD103 gesenkt.


Somit hast Du Deine vorherige Aussage also selbst widerlegt, Nvidia zahlt bei TSMC eher mehr pro Chip als weniger, selbst bei einer Chip-Flächen Verringerung auf ca. die Hälfte.

Ich würde auch darauf wetten dass Nvidia bei Samsung einen Vertrag hatte der ab einer bestimmten Fehlerrate den Wafer Preis verringert. Ohne so eine Klausel wäre, meiner bescheidenen Meinung nach, Nvidia nie von TSMC zu Samsung gewechselt.

Lirum larum, die Preise sind wie sie sind, kann man doof finden und nicht kaufen, oder doof finden und trotzdem kaufen weil man Bock auf High-Tech hat, oder es kann einem egal sein weil man nicht so sehr auf's Geld schauen muss.

Das ständige Nvidia-Bashing in jedem Thread hier nervt einfach nur noch.
 
Somit hast Du Deine vorherige Aussage also selbst widerlegt, Nvidia zahlt bei TSMC eher mehr pro Chip als weniger, selbst bei einer Chip-Flächen Verringerung auf ca. die Hälfte.
Mehr als Vorrechnen, dass ein Anstig der Lieferantenkosten um maximal $50 (eher $20) keinen Anstieg der Preise um mehrere hunderte Dollar rechtfertigt kann ich leider nicht machen.

Zur Grafik mit den R&D Kosten ist zu bemerken, dass Nvidia inzwischen nicht nur GPUs für Spiele entwickelt, wir von daher nicht wissen, wie sehr der Preis der GPU zu Spielezwecken wirklich gestiegen ist.

Nvidia ist ja nicht nur bei Spielern für Preise berüchtigt. Frag mal Unternehmen die einen Virtualisierungscluster haben bei denen die virtuellen Maschinen eine virtuelle Zuteilung von Cuda-Kernen und GPU RAM bekommen. Die zahlen mittlere sechs-stelllig Beträge im Jahr nur damit sie die Treiber benutzen dürfen. Wenn man so eine Karte dann als Gamer in der Hand hält muss man lachen,. weil da einfach vier Chips einer 1050 Laptop Edition auf einer großen Serverkarte verlötet sind, da ist nix mit A100, das ist Haaresträubend und daher sollte man auch alles andere was JEDE Firma, nicht nur Nvidia, so treibt nicht unhinterfragt schlucken.
 
Die solltest zügig Deinen Job wechseln, wenn Du nicht gerade in der Ausbildung/Umschulung/Teilzeit bist oder per Unterhaltszahlungen komplett abgeripped wirst. Das ist weit unter dem gesetzlichen Mindestlohn von 12,51€/Std. (2151€ mtl. brutto / ca. 1546€ net. bei Stk. 1 ohne Kirchensteuer).
Bürgergeld + Minijob
mehr ist da halt nicht, bei mehr Arbeit klapp ich direkt wieder ab und lande in bestimmten Einrichtungen, reicht dann auch irgendwann
die Zeiten als ich Vollzeit noch dick kohle machen konnte vermisse ich halt schon, aber mit der richtigen Unterstützung klappts ja in Zukunft nochmal, aufgeben ist nich :daumen:
 
Bürgergeld + Minijob
mehr ist da halt nicht, bei mehr Arbeit klapp ich direkt wieder ab und lande in bestimmten Einrichtungen, reicht dann auch irgendwann
die Zeiten als ich Vollzeit noch dick kohle machen konnte vermisse ich halt schon, aber mit der richtigen Unterstützung klappts ja in Zukunft nochmal,

Ah okay, verstehe. Das ist natürlich was anderes.
aufgeben ist nich :daumen:

Top Einstellung! Ich wünsche Dir viel Erfolg! :daumen:
 
Top und hat die GK die heute noch immer das 7x Fache kostet wie meine GK vor 1 Jahr wenigstens das 5 x Fache an Speicher, hmmm Nope nur die 3x Menge.

2,3,4 Jahre noch dann ist die 4090 mit ihren 24GB outdated und bringt dann mit UE5 und co. spielbare Frameraten nur noch bei Textur Mittel.
 
Zurück