News Nvidia: Die KI-Beschleuniger haben den Geforce-GPUs bereits den Rang abgelaufen

Ein Wort rausgegriffen und dann eine Antwort drumrum gebastelt? Besser nochmal den von dir zitierten Beitrag lesen. Wo find ich eigentlich die 2,17 Mrd im zitierten Artikel?

Ansonsten ist es aber natürlich richtig, das Hersteller und Händler immer versuchen, Durchsatz im Lager zu haben, weil Lagerung an sich erstmal nur Geld kostet und keins verdient (was wir ja vor kurzem auch wieder anders erlebt haben :D). In Relation zum Wert der Ware (und des potentiellen Gewinns) in seinem Beispiel bleibt es trotzdem ein Fliegenschiss.
 
Zuletzt bearbeitet:
Schön wäre es.

Doch leider geht die Rechnung so nicht auf.

Nvidia sieht das aktuell so, dass die Spieler froh sein können, ein Stück vom Wafer abzubekommen.

Die nächste Generation wird genauso aufgestellt sein.

5070 = 650 bis 700 Euro
5070 ti = 850 bis 900 Euro
5080 = 1.050 bis 1.200 Euro
5090 = 1.800 bis 2.200 Euro

Da wird sich bedauerlicherweise erst einmal nichts ändern. Für Nvidia besteht ja leider auch kein Druck aufgrund der Absatzzahlen, da sie ohnehin erst einmal den HPC-/KI-Sektor bedienen wollen.

Nvidia wird zukünftig noch weniger über Stückzahl und mehr über hohe Preise gehen.

Für uns Spieler bleibt es noch ziemlich lange bei diesem absurden Niveau.

Liebe Grüße
Sven
Dann müsste ja AMD Stückzahlen machen können.
All die Karten die bei Nvidia nicht mehr gekauft werden, müssten dann ja bei AMD gekauft werden.

Sehe aber gar nicht das AMD das wirklich versucht.
 
Nvidia sieht das aktuell so, dass die Spieler froh sein können, ein Stück vom Wafer abzubekommen.

Hast du dafür eine belegbare Quelle?

Die Zahlen für den Gaming-Bereich sind relativ transparent, bei Datacenter leider nicht.

Aber laut Schätzungen war das Stückzahlen- bzw. Fertigungs-Verhältnis von Gaming- zu Datacenter-Produkten in der Vergangenheit weit über 10:1.

Also warum sollte der "kleine" Markt an KI-Produkten, wo viel Marge gemacht wird, aber im Vergleich deutlich geringere Stückzahlen benötigt werden, irgendwie in Konkurrenz zum Gaming stehen? Und die Marge im KI-Bereich kommt ja noch nicht einmal vorwiegend durch die Hardware, sondern das, was NVIDIA mit der Hardware drumherum verkauft. Also das komplette Ökosystem, Tools, Support etc.

Nach dem Wechsel von Samsung zu TSMC hat NVIDIA trotz des KI-Hypes händeringend versucht, die Wafer-Abnahmemengen zu reduzieren. Bekanntlich aufgrund der sehr schlechten Nachfrage bei Gaming-Produkten.

Und momentan kommt die Krise mit etwas Verzögerung auch bei TSMC an. Auf einigen Nodes massive Unterauslastung. Gleichzeitig wollen sie als Wette auf die Zukunft überall massiv neue Kapazitäten aufbauen. Da gibt es absehbar wahrscheinlich ein erhebliches Ungleichgewicht, außer die Nachfrage spring überraschend schnell wieder an.

Aktuelle Zahlen von TSMC sind gut, aber der Forecast zeigt, dass die Krise langsam auch bei TSMC durchschlägt.

Chipmaker TSMC (2330.TW), a major Apple supplier, forecast a 16% plunge in sales for the second quarter as consumers grapple with an inventory glut while a weakening global economy clouds demand outlook.
Dann müsste ja AMD Stückzahlen machen können.
All die Karten die bei Nvidia nicht mehr gekauft werden, müssten dann ja bei AMD gekauft werden.

Sehe aber gar nicht das AMD das wirklich versucht.

Wie soll das gehen? AMD weiß selbst, dass RDNA3 nicht optimal ist. Auf der Grundlage geht ein kleiner Anbieter mit 10% Marktanteil doch nicht einfach auf Verdacht zu TSMC und bucht zusätzlich so viele Wafer-Kapazitäten, um NVIDIA ernsthaft Konkurrenz zu machen.

Oder anders ausgedrückt.

Zuletzt hat NVIDIA fast 10x so viele GPUs abgesetzt wie AMD. Das kann AMD unternehmerisch gar nicht kontern, ohne unfassbar teure Risiken einzugehen. Und gleichzeitig versuchen alle noch, die Lagerbestände alter Karten wegzubekommen
 
Zuletzt bearbeitet:
Ein Wort rausgegriffen und dann eine Antwort drumrum gebastelt? Besser nochmal den von dir zitierten Beitrag lesen. Wo find ich eigentlich die 2,17 Mrd im zitierten Artikel?

Ansonsten ist es aber natürlich richtig, das Hersteller und Händler immer versuchen, Durchsatz im Lager zu haben, weil Lagerung an sich erstmal nur Geld kostet und keins verdient (was wir ja vor kurzem auch wieder anders erlebt haben :D). In Relation zum Wert der Ware (und des potentiellen Gewinns) in seinem Beispiel bleibt es trotzdem ein Fliegenschiss.
Die 2,17Mrd USD kommen tatsächlich aus einem Artikel von Heise: https://www.heise.de/news/Nvidia-Volle-Grafikkartenlager-kosteten-Milliarden-US-Dollar-7525448.html
Das ist nicht grade wenig, auch für Nvidia nicht. Daher reicht es auch die Kernaussage von Schinken zu verwenden um darauf zu antworten. Oder warum sollte ich auf sein hypothetische Rechnung eingehen?
 
@Birdy84 Weil er von Lagerkosten in Relation zum gelagerten Warenwert/möglichem Gewinn spricht (und das die Lagerkosten dabei quasi nicht ins Gewicht fallen) und du über was ganz anderes (nur den Warenwert) EDIT: Dachte ich, bis zum neuen Link).

Jetzt macht zumindest der Kontext Sinn, mit dem anderen Link. Jedoch hab ich kein Heise plus, daher seh ich nur die Überschrift. Aber nochmal, wer 2,7 Mrd Lagerkosten hat, der hätte ja auch einen dort gelagerten Warenwert von hunderten Milliarden....
Irgendwas stimmt da nicht. Ich vermute, da könnten eher Abschreibungen auf den Warenwert mit drin sein.
 
@Birdy84 Weil er von Lagerkosten in Relation zum gelagerten Warenwert/möglichem Gewinn spricht (und das die Lagerkosten dabei quasi nicht ins Gewicht fallen) und du über was ganz anderes (nur den Warenwert) EDIT: Dachte ich, bis zum neuen Link).

Jetzt macht zumindest der Kontext Sinn, mit dem anderen Link. Jedoch hab ich kein Heise plus, daher seh ich nur die Überschrift. Aber nochmal, wer 2,7 Mrd Lagerkosten hat, der hätte ja auch einen dort gelagerten Warenwert von hunderten Milliarden....
Irgendwas stimmt da nicht. Ich vermute, da könnten eher Abschreibungen auf den Warenwert mit drin sein.
Seltsam, das ist keine Heise+ Artikel.
Hier ein Auszug:
In den Tiefen des Geschäftsberichts versteckt findet sich der Grund: Die vollen Grafikkartenlager haben Nvidia über das Kalenderjahr 2022 hinweg viel Geld gekostet – genau genommen 2,17 Milliarden Dollar. Nvidia schreibt dazu:

"Die […] Bruttomarge für das [gesamte] Geschäftsjahr ging zurück, was auf 2,17 Milliarden Dollar an Lagerhaltungskosten zurückzuführen ist, die größtenteils auf ein Überangebot an Nvidia-Ampere-Architektur-Produkten fürs Gaming und für Rechenzentren im Vergleich zu den Nachfrage-Erwartungen beruhen, insbesondere für die erwartete Nachfrage in China."
 
Sollen die dann den ganzen KI kram für die Businesskunden teuer machen. Jetzt können die ja für Gamer bzw. uns Privatanwender die Karten zum vernünftigen Preis verkaufen...
 
@Birdy84 Ok, thx für das Zitat. Da würden dann ja wirklich zig Millionen an Karten drin liegen müssen (die Lagerhaltung kann never teurer als das Produkt selbst sein). Das macht so - finde ich - keinen Sinn. Das sind doch eher die Kosten für die nicht verkauften Karten, also die Abschreibung. Und selbst dann wären es Millionen abgeschriebene Karten. Denn der abzuschreibende Wert ist ja nicht der Verkaufswert. Jedenfalls verwirrt mich das so mehr.

Da kann ich inhaltlich aber nicht weiter aufklären. :) Hab ja jetzt verstanden was du meinst, und was er gemeint hat, das hatte ich schon vorher verstanden.
 
Wo liest du da, dass die Lagerkosten 2,1 Mrd. betragen?

Verwechselst du das mit dem Inventar?

Edit: Ah ja, hab jetzt auch den neuen Link gefunden. Nun ja, über die Hälfte sind Verpflichtungen zum Kauf von Vorräten und der Rest teilt sich auf alle Vorratskosten auf. Nicht nur Grafikkarten.

@SIR_Thomas_TMC

Du siehst das schon richtig. Es müssten Millionen an abgeschriebenen Karten sein, das ist es nicht. Ich nehme einfach an, NV hat weit mehr im Lager als wir glauben, abgesehen von Grafikkarten. Denn nur für die stimmt meine Aussage.

Allein bei den Verpackungen könnte es anders aussehen, so doof es klingt. Einfach weil der Warenwert so niedrig ist.

PS: Kein Heise+, ich kann's einfach lesen.
 
Zuletzt bearbeitet:
Es gibt aktuell auch wenig Konkurrenz. Lass mal 2-4 Jahre vergehen, da wird es spezielle KI-Lösungen für ein Bruchteil des Geldes geben. Da muss Nvidia nachziehen und Preise senken. Nvidia ist aktuell einfach der Branchenprimus in der KI-Szene. Aber andere unternehmen sind auch daran interessiert und wollen ein Stück vom Kuchen abhaben. Ist nur eine Frage der Zeit und solch unternehmerische Weitsicht wird Nvidia haben.

Dedizierte Grafikkarten bleiben ein sicherer Hafen für Nvidia. Berechenbar und lukrativ. Dies wird man nicht fallen lassen auch wenn der Gesamtumsatz untern 10% fällt.
Naja, Microsoft bringt einen eigenen KI-Chip u. a. zum Trainieren (seit 2019 in Entwicklung, TSMC 5nm). Die setzen noch(!) auf Nvidia, aber klagen seit geraumer Zeit über hohe Kosten und zu wenig Performance. Die und ein paar der anderen ganz großen Player haben halt auch noch ein bisschen mehr Spielgeld zum Investieren. Nvidia ist da weit abgeschlagen und taucht da erst weit, weit unterhalb auf (7,3 Milliarden Dollar R&D-Investment für 2023 - und 2022 war's kaum mehr als AMD mit knapp über 5 Milliarden. Intel hat 2022 17,5 Milliarden für Forschung und Entwicklung ausgegeben. 2020 hat Nvidia sogar weniger als sowohl AMD als auch Intel in R&D investiert).

https://www.reuters.com/technology/microsoft-developing-its-own-ai-chip-information-2023-04-18/

Ich denke, da wird es in nicht allzu ferner Zukunft sogar sehr viel Konkurrenz geben – ist ein sehr vielversprechendes Marktsegment und da gibt es eine ganze Reihe Firmen, die da ganz vorn mitspielen wollen.

Gruß,
Phil
 
Also laut AMD ist HPC auch der Serverbereich und Supercomputer und da sind sowohl AMD als auch intel gut dabei.
Ich hab mich ungeschickt ausgedrückt: Also ich bezog mich in dem Fall auf die GPUs.
Dort ist Intel quasi inexistent. AMD hat hier gute Produkte, aber noch nicht das Ökosystem dahinter.
Ich hab AMDs Zahlen zu wenig studiert, geht aus diesen hervor ob bei HPC die CPUs oder GPUs getrennt sind?
Denn, dass sie hohe Umsätze mit CPUs haben ist richtig, auch unser aktueller Supercomputer wird mit AMD ausgestattet.
 
Ich hab mich ungeschickt ausgedrückt: Also ich bezog mich in dem Fall auf die GPUs.
Dort ist Intel quasi inexistent. AMD hat hier gute Produkte, aber noch nicht das Ökosystem dahinter.

Das macht wiederum mehr Sinn so. Ja bei intel wundere ich mich ehrlich gesagt, wieso man mit dem Kauf von Altera nicht schon eher in den Markt eingestiegen ist. (Siehe meine links vom ersten Posting auf Seite 2)
FPGAs sind in der Hinsicht durchaus sehr attraktiv, man muss nur ins Tooling investieren, damit das Programmieren einfacher wird. Xilinx hat dies jahrelang getan, wie es da bei intel ausschaut weiß ich nicht. Aber ich fürchte sie haben das schlicht und ergreifend verpennt.
Bei AMD dürfte sich aufgrund der Expertise und auch der Mi300, die ein Alleinstellungsmerkmal bietet, sich in Zukunft einiges ändern. Je nachdem wie intel in die Pöte kommt, wird Nvidia an seine Konkurrenten aufjedenfall was vom Kuchen abgeben müssen.


Ich hab AMDs Zahlen zu wenig studiert, geht aus diesen hervor ob bei HPC die CPUs oder GPUs getrennt sind?
Denn, dass sie hohe Umsätze mit CPUs haben ist richtig, auch unser aktueller Supercomputer wird mit AMD ausgestattet.

Ich schätze mal du meinst die unterschiedlichen Sparten hinsichtlich der Umsätze? Soweit ich weiß kann man da leider die unterschiedlichen Anteile nicht auf den ersten Blick sehen, da die Instinct GPUs auch unter Data Center laufen wie auch die Epycs und einige Xilinx und Pensando Produkte.
Daher kann man eigentlich nicht sagen wie gut die einzelnen Produkte laufen. Man kann nur mutmaßen aufgrund der steigenden Anteile am Servermarkt, dass der Großteil hier wohl von Epyc kommt. Persönlich würde ich schätzen, dass min 75% der Umsätze von der Sparte Datacenter Epyc ausmacht.
Die Instinct Karten hatten ja nie so den riesen Absatzmarkt in der Vergangenheit gehabt. Und ich denke hier wird auch Nvidia erstmal der Platzhirsch bleiben.
 
Wo liest du da, dass die Lagerkosten 2,1 Mrd. betragen?

Verwechselst du das mit dem Inventar?

Edit: Ah ja, hab jetzt auch den neuen Link gefunden. Nun ja, über die Hälfte sind Verpflichtungen zum Kauf von Vorräten und der Rest teilt sich auf alle Vorratskosten auf. Nicht nur Grafikkarten.

Kannst du das mal zitieren oder den Link posten?

Denn in dem von Heise verlinkten Geschäftsbericht steht dazu gar nichts drin. Also woher hat Heise die Zahl? Ist das im Earnings Call erwähnt worden?
EDIT:

Im Earnings Call steht auch nichts. Also woher kommt diese Zahl?

Das macht so - finde ich - keinen Sinn.
Eben, das macht in Relation zum Inventory-Bestand keinen Sinn.
 
Zuletzt bearbeitet:
Kannst du das mal zitieren oder den Link posten?

Denn in dem von Heise verlinkten Geschäftsbericht steht dazu gar nichts drin. Also woher hat Heise die Zahl? Ist das im Earnings Call erwähnt worden?
EDIT:

Im Earnings Call steht auch nichts. Also woher kommt diese Zahl?

(...)
Birdy hat beide Links oben gepostet; #59 von PCGH und #64 ist der Bericht von Heise aus dem die 2,x Mrd. sind.
Soweit es mich angeht kommt die Zahl also von Heise.

Das es sich dabei aber auch nur zum Großteil um direkte Lagerkosten für Grafikkarten handelt ist wohl auszuschließen. Dafür ist die Zahl einfach viel zu groß.
 
Zuletzt bearbeitet:
Birdy hat beide Links oben gepostet; #59 von PCGH und #64 ist der Bericht von Heise aus dem die 2,x Mrd. sind.
Soweit es mich angeht kommt die Zahl also von Heise.

Wie gesagt, Heise nennt und verlinkt als Quelle die Pressemitteilung zur Veröffentlichung der Quartalszahlen. Und dort steht zu dem Thema rein gar nichts. Auch im Earnings Call ist dazu nichts zu finden.

P.S.
Btw, hab es gefunden.

Our supply, which includes inventory on hand, purchase obligations and prepaid supply agreements, has grown significantly due to current supply chain conditions, complexity of our products, and recent reductions in demand. At the end of fiscal year 2023, purchase obligations and prepaid supply agreements represented more than half of our total supply. Inventory provisions for excess inventory and purchase obligations totaled $2.17 billion in fiscal year 2023. We may incur inventory provisions if our inventory or supply commitments are misaligned with demand for our products.

Gross margin for fiscal year 2023 declined from a year ago, driven by $2.17 billion of inventory charges largely relating to excess supply of NVIDIA Ampere architecture Gaming and Data Center products as compared to the demand expectations for these products, particularly for the expected demand in China. The inventory charges were comprised of $1.04 billion for inventory on hand and $1.13 billion for inventory purchase obligations in excess of our demand expectations.

Interessanter Vergleich 2022 vs 2021

In fiscal years 2023 and 2022, we recorded an expense of approximately $1.13 billion and $181 million, respectively, in cost of revenue for inventory purchase obligations in excess of our current demand projections, and cancellation and underutilization penalties.
 
Warte mal ab, was die Chinesen tun... Die sind dermaßen scharf auf TSMC.
Auch wenn das in ein politische Diskussion abdriften könnte: Wenn die sich gewaltsam TSMC, also Taiwan, einverleiben, haben wir ganz andere Probleme.
Dann können die Chinesen alleine den Preis diktieren.
Aber ich hoffe das es nicht so weit kommt.

Nicht Genisis ist Skynet, sondern Nvidia ist Skynet!
Das dachte ich auch zuerst dabei. :D
 
Das macht wiederum mehr Sinn so. Ja bei intel wundere ich mich ehrlich gesagt, wieso man mit dem Kauf von Altera nicht schon eher in den Markt eingestiegen ist. (Siehe meine links vom ersten Posting auf Seite 2)
FPGAs sind in der Hinsicht durchaus sehr attraktiv, man muss nur ins Tooling investieren, damit das Programmieren einfacher wird. Xilinx hat dies jahrelang getan, wie es da bei intel ausschaut weiß ich nicht. Aber ich fürchte sie haben das schlicht und ergreifend verpennt.
Bei AMD dürfte sich aufgrund der Expertise und auch der Mi300, die ein Alleinstellungsmerkmal bietet, sich in Zukunft einiges ändern. Je nachdem wie intel in die Pöte kommt, wird Nvidia an seine Konkurrenten aufjedenfall was vom Kuchen abgeben müssen.




Ich schätze mal du meinst die unterschiedlichen Sparten hinsichtlich der Umsätze? Soweit ich weiß kann man da leider die unterschiedlichen Anteile nicht auf den ersten Blick sehen, da die Instinct GPUs auch unter Data Center laufen wie auch die Epycs und einige Xilinx und Pensando Produkte.
Daher kann man eigentlich nicht sagen wie gut die einzelnen Produkte laufen. Man kann nur mutmaßen aufgrund der steigenden Anteile am Servermarkt, dass der Großteil hier wohl von Epyc kommt. Persönlich würde ich schätzen, dass min 75% der Umsätze von der Sparte Datacenter Epyc ausmacht.
Die Instinct Karten hatten ja nie so den riesen Absatzmarkt in der Vergangenheit gehabt. Und ich denke hier wird auch Nvidia erstmal der Platzhirsch bleiben.
ja, dahingehend habe ich meinen Post gemeint. Letztlich kann Nvidia derzeit auch im Consumermatkt verlangen was sie wollen. Kaufen die Spieler ihre Chips nicht, (vereinfacht gesagt: )verhökern sie gebuchte die Waferfläche halt für Profis, HPCs usw, um einen deutlich höheren Preis. Nvidia ist hier in einer luxuriösen Situation.
Weil Intel diesen Stand nicht hat, und auch kurzfristig noch keine Gewinne erwirtschaften muss, können die im Preis deutlich runter. Die profitieren ohnedies grad von den Preisüberhöhungen und langsamen Releases der RTX4xxx und Radeon 7xxx (immerhin ist die 4090 ein halbes Jahr draußen, aber die Chips für die Masse noch nicht)
 
Zurück