War net die Produktion für Apple schon etwas zu spät um in den Produktzyklus zu passen?
(logischerweise kommen die Anderen immer erst nach A dran)
Und was bedeutet der neue AI-Hype für den Rest?
Blockieren dann die Aufträge für die AI-Farmen die Waferkontingente, quasi Mining reloaded.
Wg. der höheren Marge ist AI dann interessanter und die normalen Produkte bleiben auf der Strecke bzw.
es gibt kaum Hoffnung auf normale Preise.(vllt. sollte man sich dann doch mit den reduzierten Abverkaufsmodellen
eindecken und das Ganze aussitzen, ... geht natürlich nur, wenn man ein Modell mit genügend Vram wählt, z.Bsp.
wäre vllt. aktuell ne 6700xt sinnvoller als ne 4060, weil deren Nachfolger noch ewig braucht)
nVidia's NextGen wäre gem. regulärem Zyklus per se frühestens für 3Q24 vorgesehen gewesen, d. h. die Massenfertigung wäre erst in 2Q24 angelaufen.
Zudem könnte man aus Kostengründen auch hier grundlegend die Anvisierung des günstigeren N3E vermuten. Beispielsweise den erklärte TSMC im April 2022 für in die Massenfertigung überführt in 2Q23 (also typischerweise zum Quartalsende
, also um die Jahresmitte herum). Gemäß aktueller Aussage von TSMC (April 2023 auf ihrem Symposium) wird der N3E nun im 2HJ23 in die Massenfertigung überführt, ist man hier also konservativ, dann in 4Q23.
Btw, der N3(B) wurde von TSMC noch in 4Q22, voraussichtlich zum Jahresende hin in die Massenfertigung überführt.
Apple, wie schon erklärt, ist hier natürlich ein großer Faktor. Wenn/da die ihre Fertigung geschoben haben, dürften die als privilegierter TSMC-Kunde hier mit einem gewissen Vorrecht und Rabatten rechnen, d. h. das könnte einer Firma vie nVidia, die bei voller Umstellung auf 3 nm auch recht viele Kapazitäten benötigt, zu Problemen führen, zumal man sich hier zweifellos nicht auf einen Preiskampf einlassen will, weil der aufgrund von Apples Sonderstellung sehr teuer werden würde. Entsprechend würde ich vermuten, dass Kapazitäten zu einem wirtschaftlichen Preis ein wesentlicher Faktor für nVidia's Verschiebung sind (
natürlich immer vorausgesetzt, dass diese nun auch so tatsächlich stattfinden wird). **)
Zu deiner unteren Frage, schwierig, da es hier zwar viele lose Informationsschnipsel zu gibt, aber von niemandem was wirklich belastbares. Was man aber bspw. direkt aus nVidia's Aussagen ableiten kann: Ja, der AI-Boom in Verbindung mit AMDs mangelnder Konkurrenzfähigkeit belastet Gamer auf jeden Fall, denn nVidia selbst erklärte, dass sie Kontingente ihrer großen Chips (AD102, AD103, ...) in Teilen verstärkt zu den professionellen Produkten umleiten, da sie den Bedarf dort nicht gedeckt bekommen. Das bedeutet auch, dass sie auf der anderen Seite wenig Grund haben, hier dem Consumer-Markt mit attraktiveren Preisen entgegen zu kommen (
oder bspw. mit mehr Speicher, ist am Ende aber alles das gleiche, weil mehr Speicher = mehr Wafer-Flache & mehr GDDR = mehr Kosten = weniger Marge).
Man darf wirklich hoffen, dass AMD nun mit RDNA4 mal wirklich den lange erwarteten Hammer rausholt *), denn solange nVidia den PC-GPU-Markt uneingeschränkt dominiert, haben die da relativ freie Hand.
*) Und vielleicht auch, dass Xe/ARC Battlemage auch ein ordentlicher Schritt Vorwärts wird ggü. Alchemist. Letzten Endes dampft es sich hier auf das abgedroschene Sprichwort "Konkurrenz belebt das Geschäft" ein und nVidia kann sich dann überlegen ob sie a) entweder der von MLiD kolportieren Aussage folgen werden und ihr Geschäftsfeld eher in das AI-Segment verlagern oder b) dann tatsächlich mit konkurrenzfähigen, P/L-technisch gut platzierten Produkten um die Gunst der Gamer werben ...
**) Dagegen bei Hopper sind sie in Zugzwag und müssen in 2024 aktualisieren, da der AI-Boom nicht auf sie warten wird und irgendwann (nächstes Jahr, in zwei oder drei Jahren?) auch absehbar abflauen wird, d. h. man wird versuchen von diesem großen Kuchen so viel wie nur möglich mitzunehmen und sich entsprechend zu etablieren.
Btw, AMD spielt hier in diesem Jahr noch keine nennenswerte Rolle, da die neuen 300er-Instinct's faktisch erst im nächsten Jahr ausgeliefert werden, d. h. hier wird man sich dann schon absehbar mit nVidia's Hopper-Next messen müssen, aber AMD ist ja nicht die einzige Firma, die hier was vom Kuchen abhaben will. Hier gibt es auch diverse Hersteller, die teilweise mit speziellen, hochoptimierten ML-Beschleunigern um die Gunst der Kunden buhlen.
Abschließende Anmerkung: Die Begründung hier erschließt sich mir nicht:
"Bsp. wäre vllt. aktuell ne 6700xt sinnvoller als ne 4060, weil deren Nachfolger noch ewig braucht"
Die AMD-Karte erscheint grundsätzlich sinnvoller, sofern man nicht zwingend nVidia-spezifisches Feature-Set im Auge hat oder auf Raytracing fokussiert ist (
wobei selbst im regulären Raytracing ist der Vorsprung eher klein, weil nVidia die 4060er ordentlich zurechtgeschrumpft hat, absehbar weil AMD dem ebenso nichts Besseres entgegenstellt, da die RX 7600 ein ebensolcher "Krüppel" ist ).
Die alte AMD-Karte hat 12 GB VRAM und kostet nur wenig mehr und bietet typischerweise etwas mehr Rasterizerleistung, also sind die wenigen paar Euro, die man draufzahlt, gut investiert. Da hat es bei der Bewertung nichts damit zu tun, wann ein etwaiger Nachfolger kommen mag, zumal es ja keine rabattierte Upgrademöglichkeit gibt, weder bei dem einen noch dem anderen Hersteller.