Leistungskrone aufgeben ist, sofern das im Raum steht, ganz sicher kein Kalkül von Nvidia. Das widerspricht Jensen und der Firmenpolitik. NV will immer das schnellste Produkt haben, koste es, was es wolle.
AMD hat Intel mit Chiplets bei CPUs kalt erwischt und auch NV wird sich zeitnah womöglich noch umgucken. Für CDNA3 z.B. wird ein Verbund aus 4 (!) GPUs vermutet. Das wäre auch schon Ende dieses Jahr der Fall. Damit kannst du einfach unglaublich stark in die Breite gehen, was vor allem der Effizienz und absoluten Performance massiv zugute kommt. Dagegen kommt kein monolithischer Die an, von noch mal deutlich besseren Yields bei kleineren Chips ganz zu schweigen.
Daran forschen ist das eine, die Umsetzung das andere. Da scheint AMD Nvidia einiges Voraus zu sein, was auf absehbare Zeit einen großen Vorteil bedeuten kann. Auch Nvidia wird mittelfristig nicht um diesen Schritt herumkommen.
Ich weiß, dass so mancher bei AMD-Konkurrenten immer und unter allen Umständen absolutes Versagen und totale Inkompetenz sehen möchte, nur mit der wirtschaftlichen Realität scheinen derartige Erklärungsversuche zumeist wenig bis gar nichts zu tun zu haben.
Und AMD mit Chiplets bei GPUs hat mit Sicherheit überhaupt niemanden "kalt erwischt". Dass das kommen würde war klar absehbar, insbesondere für den GPU-Martkführer und falls du es noch nicht wusstest, es hat nicht viel gefehlt, dann hätte Intel (in deinem Jargon) AMD "kalt erwischt", denn Xe war schon grundlegend auf ein MCM-Design ausgelegt, auch für HPG, nur hat man sich hier entschlossen dieses nun doch erst mit Battlemage in 2023 einzuführen und wenn du noch mehr Pech hast, waren nicht einmal technische Gründe dafür der maßgeblichste Grund, sondern vielmehr schlicht marktstrategisch/wirtschaftliche.
Es ist leider immer das gleiche Problem mit dem MCM/Chiplet-Thema, das so viele aus wirtschaftlicher Sicht anscheinend so ganz und gar nicht zu verstehen scheinen, aber wenn du dich ein bisschen einliest ...
Abseits dessen vielleicht mal als Denkanstoß, dass nVidia als großem TSMC-Kunden dort die gleichen Möglichkeiten zur Verfügung stehen wie auch AMD und ganz offensichtlich scheint nVidia dort derzeit bspw. die modereren Nodes gebucht zu haben. Aber es ist durchaus immer wieder faszinierend, wie vermeintlich simpel doch offensichtlich alles ist und dass wenn ein AMD-Konkurrent nicht alles exakt so macht wie AMD, er doch offensichtlich komplett am Marktgeschehen vorbeizuentwickeln scheint ...
Wie sind denn die Yields bei N4? Tell us more pls.
Schreib dich nicht ab, lern' lesen und Zusammenhänge erkennen. Ich weiß, dass dir das mit deinem Bias in Verbindung mit meiner Person und generell Postings, die AMD nicht pauschal in den Himmel loben (oder deren Konkurrenz schlecht aussehen lässt) schwer fällt, aber deshalb muss es nicht zu meinem Problem werden.
Oder sie haben es schlicht und ergreifend erst später geplant und waren überrascht, dass die Konkurrenz es früher bringt. Und da man Pläne nicht einfach so über Bord wirft, müssen sie jetzt halt mit nem Monolithen antreten.
Ist schlicht nicht plausibel, weil AMD mit seinen beschränkteren Ressourcen und deutlich kleineren Marktanteilen ein Chiplet-Design weitaus dringender benötigt. Und falls es dir entgangen sein sollte, AMD schlug diesen Weg schon vor vielen Jahren ein und konkrete Produkte sind schon lange im Markt.
Aber ja, natürlich wird man da bei nVidia schlicht beide Augen zugedrückt und sich gedacht haben, dass die ja nichts hinbekommen und wahrscheinlich auch in 2022 noch einmal ein Vega10 neu in 5nm auflegen werden. - Himmel, dir kann man echt nicht helfen ...
Das stimmt doch einfach schlicht und ergreifend nicht. Ein so großer Monolith geht immer zu Lasten der Marge, da man aus einem Wafer wesentlich mehr kleine Chips herausbekommt... Daher sehen ja auch alle drei MCM Designs als die Zukunft an.
Für Nvidia geht das quasi nur auf, wenn es keine Konkurrenz in dem Sektor gibt, welche die Preise drückt.
Lol, ja, ich weiß, dass (markt)wirtschaftliche Sachverhalte bei dir irgendwie auf grundsätzliches Unverständnis zu treffen scheinen und bei dir anscheinend immer nur alles aus einer schwarz-weißen AMD-Brille gesehen werden kann, aber das heißt nun mal nicht, dass AMDs Weg der für alle gangbare und sinnvolle Weg ist, erst recht nicht zu einem spezifischen Zeitpunkt.
Vielleicht mal als kleiner Denkanstoß: AMD, Intel, nVidia operieren alle unter gänzlich anderen Bedingungen im Markt mit abweichenden Ausgangspositionen vielfältigster Art, Zielsetzungen, Möglichkeiten und allgemein Ressourcen und KnowHow. Entsprechend wird man zu gegebener Zeit bei denen auch jeweils andere Vorgeehensweisen sowie Markt- und Produktstrategien beobachten können. Langfristig sind sich zweifellos alle bzgl. einer aufgeteilten Fertigung einig, dass das die Zukunft ist und das wird wohl niemand besser als Intel wissen, die hier packagingtechnisch derzeit führend zu sein scheinen, nur entscheidet jede Firma für sich selbst gemäß ihrer konkreten Marktsituation wann welches Vorgehen für sie am besten ist und wann bei ihnen "diese Zukunft beginnt" und nur weil bspw. AMD mit einem Chiplet-Design ums Eck kommt, heißt das noch lange nicht, dass nun umgehend alle andere unmittelbar folgen müssen. Derartige Aussagen waren schon vor einigen Jahren zu Intel unzutreffend und scheinen es nun ganz offensichtlich auch mit Blick auf nVidia zu sein.
Seit wann ist die Mi300 in 6nm geplant? Darüber habe ich noch nie etwas gelesen, also generell welches Fertigungsverfahren AMD hier vorsieht. Wobei man jedoch davon ausgehen kann, dass es sich eher um 5nm handeln wird. Wieso sollten sich auch nochmal auf 6nm gehen?
Kommt jetzt etwa noch ein löchriges Gedächnis hinzu oder schlicht die Unfähigkeit sich auch mal selbstständig zusätzliches Wissen anzueignen bevor man wiederholt auf dem falschen Fuß erwischt wird?
Aber ja, ich weiß, ich bin ja ein rotes Tuch für dich und da fällt es dir schwer deine Empotionen im Griff zu behalten und Recherche ist ja nicht unbedingt deine Stärke.
Befrag doch mal einfach AMD selbst zu dem Thema ... du wärst überrascht ...
Vergiss es einfach, er kann/will es nicht verstehen, dass so große Monolithen einfach nicht günstiger sind [...]
Mir scheint eher ich verstehe weitaus mehr als du, denn deine Auffassungsgabe scheint bereits bei der reinen Betrachtung eines Wafers ihr Limit zu erreichen, nur die Produktentwicklungs-, Fertigungs- und Vertriebskette hat weitaus mehr für ein wirtschaftlich erfolgreiches Handeln zu berücksichtigen.
Bezüglich deinem technischen Spekulatius: Na du bist ja knuddelig. Oben willst du noch, dass ich dir alles vorkaue, obwohl man sich da leicht selbst 2 und 2 zusammenrechnen kann, zumal TSMC selbst auch in den vergangenene Monaten immer wieder explizite Aussage zu dem Thema von sich gegeben hat.
Und hier streust du bzgl. der vermeintlich günstigen Packaging-Technologie deinen eigenen Spekulatius und nimmst pauschal an, dass das doch eine günstige Technologie sein muss. Das scheint mir bei dir doch schon wieder eher (marken)psychologische Hintergründe zu haben.
Aber um dich dann doch nicht komplett alleine im Dunkeln stehen zu lassen ... bereits schon AMDs reguläres Packaging der Ryzen's ist weitaus komplexer und teurer als das von bspw. Intel mit seinen einfachen monolithischen Chips, weil hier ein wesentlich aufwändigeres Substrat mit weitaus mehr Lagen für das interne Routing genutzt werden muss, hier werden grundsätzlich zwei oder gar drei Chips aufgebracht, mal ganz abgesehen davon, dass die Wafer-Kosten bei kleineren CPUs unverändert hoch bleiben und das Ganze durchlief schon bei/seit Zen2 nur für das "einfache" Packaging bereits drei unterschiedliche Firmen (exklusive TSMC).
Beispielsweise beim V-Cache wird die Validierung nun noch einmal aufwändiger und es müssen nun noch zusätzlich hochpräzise Chips gestapelt werden, was die Kosten erneut erhöht. Nicht umsonst fasst Semiconductor Engineering in einem noch recht aktuellen Artikel das verwendete Hybrid Bonding zuammen als vielversprechende Technologie, die jedoch Abwägungen mit Blick auf höhere Kosten, gestiegene Komplexität und neue fertigungstechnische Herausforderungen mit sich bringt.
Aber hey, natürlich wird TSMC als AG das alles quasi zum Selbstkostenpreis anbieten, denn die haben ja kein Interesse daran Geld zu verdienen und müssen es wahrscheinlich auch nicht einmal, weil die vielen Milliarden an kürzlich getätigten und ebenso bevorstehenden, zukünftigen Investitionen vermutlich alle durch Spendengelder abgedeckt werden.
Und zu deiner vermeintlich "interessanten" Beobachtung: Da gibt es aktuell eigenlicht keine neuen Erkenntnisse. nVidia ist schon lange primär auf dem Pfad AI/ML unterwegs. Wem das noch nicht aufgefallen ist ...
HPC wird von denen ebenso vorangetrieben, jedoch liegt deren entwickungstechnisch größerer Aufwand klar im boomenden AI/ML-Bereich was aber auch andererseits trivial erklärbar ist, denn bei HPC und FP64 gibt es nicht viel mehr beizusteuern als noch mehr Kerne (eine Integration in die Tensor Cors für MMA-Ops hat man hier schon mit Ampere in 2020 vorgenommen), währen man bei AI/ML mit neuer Funktionalität weiterhin beträchtliche Leistungssprünge vollziehen kann.
Umgekehrt kann man nun aber nicht sagen, dass AMD überaus HPC-fokussiert ist. Der Eindruck entsteht wahrscheinlich eher, weil AMD im boomenden ML-Markt noch nicht mit ganz so großen Schritte mithalten kann, sodass die FP64-Zugewinne bei denen ggf. priorisiert erscheinen. Ob sie dieses Segment jedoch tatsächlich als eine Nische für sich entdeckt haben und nun aktiv bearbeiten, kann man zum gegebenen Zeitpunkt noch nicht wikrlich bewerten, denn die sind erst seit relativ kurzer Zeit wieder mit entsprechender Hardware hier unterwegs.
Und bei Intel ist ebenso schon bekannt, dass die einen Mittelweg zu gehen versuchen, mit vergleichsweise hoher HPC- aber auch hoher ML-Leistung, wobei bzgl. ML jedoch vermutlich auch die vorerst nicht vom Funktionsumfang her nVidia das Wasser reichen können, erst recht nicht bei dem, was nVidia gerade mit Hopper vorgestellt hat. Und mit Blick auf AMD scheint es bei HPC grob auf ein Patt hinauszulaufen, während bei AI/ML AMD auch hier den Kürzeren zu ziehen scheint, hier anscheinend ebenso gar deutlich.
Einzig was man zusätzlich noch weiß ist, dass Ponte Vecchio offensichtlich über einen vollständigen Satz an Raytracing-Einheiten zu verfügen scheint, was derzeit ein Alleinstellungsmerkmal ist, d. h. die können neben unmittelbarem Raytracing allerlei raytracingähnliche Berechnungen direkt in Hardware auf ihrem HPC-Design zusätzlich beschleunigen.
Wie sich das in den nächsten ein, zwei Jahren darstellen wird, bleibt abzuwarten. nVidia wird absehbar mit Hopper weiterhin unangefochtener Marktführer mit deutlichem Abstand bleiben. Mit Intel's 7nm/Ponte Vecchio-Verzug dachte man eigentlich, dass AMD mit dem Frontier als dem vermeintlich leistungsfähigeren Supercomputer mit wehenden Fahnen an Intel vorbeiziehen würde, jedoch scheint das nun keineswegs mehr sicher zu sein. Der Aurora kommt nun mit deutlich mehr Gesamtleistung und würde den Frontier, wenn man dort nicht nachgebessert hat, gar deutlich übertreffen und auch bzgl. dem zeitlichen Plan hängt man auch beim Frontier offensichtlich deutlich zurück, denn der hätte ebenso schon längst online sein sollen.
Ergänzend zu deinem Wafer-Diskurs mit TT: Dein Erklärungsversuch wirkt unbeholfen. Das Cache-Die (zum V-Cache) wird im N7 gefertigt und es spielt keine Rolle ob AMD die dafür nötigen Kapazitäten von seinen bereits gebuchten Kapazitäten zur Verfügung stellen muss oder ob es ihnen gelang noch ein wenig hinzuzubuchen. Am Ende haben sie X Kapazität in TSMCs N7 und müssen sich entscheiden wie sie diese verwenden wollen. Und sieht man sich bspw. deren geänderten Ryzen-Launch an, dann sind sie offensichtlich der Meinung, dass sie bspw. diese aufwändige Technologie anderswo sinnvoller verwenden können als auf Consumer-Chips, insbesondere noch wohlmöglich Chips mit zwei CCDs wie einem gepimpten 5900X oder 5950X.
TTs Rechnung ist grundsätzlich grob korrekt, auch wenn ich seiner dahinterstehenden Argumentation nicht folge, denn AMD wird Milan-X sehrwohl zur Überbrückung brauchen (bis Genoa verfügbar ist), denn Sapphire Rapids SP wird schon seit längerem ausgeliefert und dürfte bald auch in den freien Martk entlassen werden und wird in diversen Workloads bereits auch ohne HBM performanter sein. Infolge dessen ist der für das was AMD derzeit im Markt verüfgbar hat ein ernstzunehemnder Konkurrent.
Darüber hinaus könnte man TT aber durchaus noch eine weiterführende Überlegung unterstellen, denn eine möglicherweise geringere Wirtschaftlichkeit könnte unter bestimmten Bedingungen dennoch von AMD bewusst in Kauf genommen werden, wenn es bspw. darum geht Kunden von einem Wechsel zurück zu Intel abzuhalten, denn solche Kunden sind dann für voraussichtlich mehrere Jahre verloren. Darüber hinaus gehe ich aber auch nicht davon aus, dass AMD mit Milan-X gar ein Minusgeschäft macht, denn bei derartigen Produkten kann man die Mehrkosten deutlich einfacher einpreisen.
Abschließend schön, dass du einen Post von mir zu Milan-X anführst, der angeblich etwas wie "
so unfassbar teuer in der Herstellung" erklärt (insbesondere das "unfassbar" gefällt mir besonders
), jedoch zeigt das letzten Endes nur wie bei dir alles aussetzt, wenn du einen Post von mir liest, denn das in dem Sinne, wie du es hier zitiert hast und offensichtlich verstanden wissen willst, stand da garantiert nicht, also schließt sich hier der Kreis und wir kommen zu meinem anfänglichen Rat an dich zurück: Lesen lernen.