Hopper: Nvidia präsentiert H100-GPU mit 80 Milliarden Transistoren

Gibt es denn irgendeine Indikation, dass die Architektur von Hopper und Lovelace in irgendeiner Art und Weise derart start korrelieren,
Die Tensor Cores v4 werden sich sicherlich auch in Lovelace wiederfinden lassen, aber das ist sicherlich nicht das was dich interessiert.
Darüber hinaus macht deine Fragestellung aber auch eher weniger Sinn, da du keine Leistungsdaten zu Hopper hast, die mit grafischen Operationen zu tun hat. Hopper ist ein reiner Datacenter-Rechenbeschleuniger und TFlops oder TOPS korrelieren nur sehr eingeschränkt mit einer 3D-Rasterizer- oder Raytracing-Leistung, insbesondere wenn man nichts über das sonstige Render-Backend weiß.

... dass man bei den Lovelace GPUs von ‚beschnittenen‘ Chips sprechen kann?
Was ist ein "beschnittener Chip"? Die A6000 sowie die 3090 Ti sind in beiden Fällen der Vollausbau des GA102, da ist nichts beschnitten und die sind auch nicht relativ zum A100 beschnitten, weil das auch in der aktuellen Gen schon GPU-Designs mit vollkommen unterschiedlicher Zielsetzung sind. Beispielsweise verfügt der A100 über keine RT Cores ... wer ist hier also relativ zu wem "beschnitten"? ;-)

Oder dass man damit (Hopper) ‚endlich alles in 4K zocken‘ kann?
Mit Hopper wird man niemals was wirklich "zocken" können, weil der nicht darauf ausgelegt ist. Die Grafikleistung wird extrem bescheiden sein *) und die regulär verfügbaren Karten werden auch erneut wieder über keinerlei Videoausgänge verfügen.

Dein Wunsch hier frühzeitig etwas über Lovelace in Erfahrung bringen zu wollen ist verständlich, wird aber nicht funktionieren, weil da viel zu viele Unebkannte im Spiel sind. Das einzige was man in diesem Jahr sagen kann ist, dass nVidia es offensichtlich für angebracht hielt den Architekturen für das Datacenter und den Consumer/ProfViz-Bereich sogar komplett unterschiedliche Namen zu geben, entsprechend kann man davon ausgehen, dass die Unterschiede in 2022 zwischen diesen Designs gar noch größer ausfallen werden als in 2020.

Für alles übrige, siehe meinen vorherigen Post mit den Punkte a) bis d).

*) Von Locuza gab es vorgestern einen Leak, der behauptet, dass lediglich ein einziger GPC überhaupt über 3D-Funktionalität verfügt, was bedeuten würde, dass die 3D-Leistung "grottig" wäre. Ob der Leak korrekt ist, ist unklar, da nVidia natürlich nicht darüber gesprochen hat, weil Render- und Raster-Endstufen etc. für ein Design wie Hopper vollkommen nebensächlich sind.

Vermutlich werden wir uns noch einige Monate gedulden müssen, insbesondere, wenn nVidia (wie auch AMD) schon, wie in 2020, dermaßen den Deckel draufhalten ...

Zuerst 2,5 Fache Leistung von Ampere ,vorgestern 2 fache Leistung ,heute dann reale 1,5 Fache Leistung ? weiter runter wird's wohl nicht gehen...Mal sehen wo die Gamer bzw. Miner Grafikkarten landen.
Meines Wissens nach wurde niemals wirklich ernsthaft eine 2,5-fache Leistung für Lovelace gehandelt sondern lediglich für RDNA3. Wenn du deine Erwartungshaltung in den Bereich von +60 % bis bestenfalls +100 % für die Rasterizer-Leistung verlegst, dürftest du voraussichtlich nicht enttäuscht werden.
 
Die größte Enttäuschung ist wohl das Hopper kein MCM Design haben wird. Die Leaker haben mal wieder nur Dünnpfiff erzählt.

Allein wg. den Fakt bin ich doch etwas enttäuscht, auch wenn der Chip sonst nicht so übel erscheint. Logische Fortentwicklung, aber keine 'Evolution'.
 
700 Watt die Spinnen die NVler :-)

Mehr kann man dazu wohl nicht sagen was sollen die kleineren den an Strom verbrauchen, obwohl so

ne kleine Elektroheizung kann man im Winter bestimmt gebrauchen :-)
 
Wenn man eine Weile mit Tensorflow rumgespielt hat, weiß man, wie super solche Chips sein können. Bei KI und dem Training von Neuronalen Netzwerken kommt es letztendlich auf die Anzahl der Trainingsdaten und der puren Leistung der Hardware an. Jede Iteration bisher hat es möglich gemacht, dass wir heute solche Spielerein wie DLSS, GAN, etc. haben.

Ich bin gespannt, was für futuristische Techniken damit nun wieder ein Stück realistischer werden.
 
Die größte Enttäuschung ist wohl das Hopper kein MCM Design haben wird. Die Leaker haben mal wieder nur Dünnpfiff erzählt.

Allein wg. den Fakt bin ich doch etwas enttäuscht, auch wenn der Chip sonst nicht so übel erscheint. Logische Fortentwicklung, aber keine 'Evolution'.
Und welchen Unterschied macht das für dich, ob da nun ein oder mehrere Module unter dem IHS ihre Arbeit verrichten? Wichtig ist, was am Ende dabei rauskommt.
 
700 Watt die Spinnen die NVler :-)

Mehr kann man dazu wohl nicht sagen was sollen die kleineren den an Strom verbrauchen, obwohl so

ne kleine Elektroheizung kann man im Winter bestimmt gebrauchen :-)

Im Gegenteil, stelle dir vor mit 20 * 700 Watt wird das gesamte Internet administriert. Es kommt nicht auf die absoluten Werte an, schaue lieber auf Output je Input.
 
Die größte Enttäuschung ist wohl das Hopper kein MCM Design haben wird. Die Leaker haben mal wieder nur Dünnpfiff erzählt.

Allein wg. den Fakt bin ich doch etwas enttäuscht, auch wenn der Chip sonst nicht so übel erscheint. Logische Fortentwicklung, aber keine 'Evolution'.
Bei (G)H100 war eigentlich schon immer von monolithisch die Rede und MCM für (G)H202. Aber letzteres sehe ich bei bis zu 700W und dem riesigen Die nicht. Und ich glaube nicht, dass NV deswegen extra einen weiteren, größeren Chip aufgelegt hat.

Da wird man dann wohl leider erst 2024 entsprechende Produkte und damit deutlich nach Intel und vor allem AMD sehen.
 
In Anlehnung an die vorherige Fragestellung und mit Blick auf Lovelace kann man von dieser Vorstellung hier jedoch vielleicht folgendes Mitnehmen:

a) TSMCs N4 scheint über einen sehr guten Yield zu verfügen, denn Hopper aktiviert relativ gesehen weitaus mehr SMs als es noch bei Ampere (A100) in 2020 der Fall war.
b) Trotz der erneut deutlich gestiegenen Komplexität des Chips wurde auch der Takt ggü. dem A100 zusätzlich um rund +25 % erhöht. Die Verlustleistung wurde zwar ebenso signifikant angehoben, die Effizienz ist dennoch um etwa +70 % gestiegen ggü. dem Vorgänger (in nur 2 Jahren).
c) nVidia hat es mit einem weiterhin monolithischen Design geschaft ein überaus konkurrenzfähiges Design abzuliefern, d. h. man darf spekulieren, dass die sich durchaus was dabei gedacht haben, wenn sie in dieser Gen auf ein MCM-Design verzichten.

Die Punkte a) und b) sind relevant, wenn Lovelace (zumindest für die größeren Chips?) tatsächlich bei TSMC gefertigt werden sollte (egal ob im N5(P) oder gar ebenso im N4).

Zum Punkt c) und einem weiterhin monolithischen Ansatz in Anlehnung an etwas weiter oben: Enttäuschend ist daran überhaupt nichts; das ist am Ende schlicht effizient und der Marge zuträglich. Die Chipkomplexität hat sich erneut beträchtlich gesteigert und offensichtlich sah man keinen Grund die Komplexität durch ein MCM-Design nochmals zusätzlich zu erhöhen. Die hier vorgestellten Leistungsdaten scheinen ihre Planung letzten Endes zu bestätigen.
Zudem ist nVidia auch bzgl. dem Interconnect und Networking sehr stark aufgestellt, sodass es für sie in dieser Gen offensichtlich noch einmal weniger einen Grund gab zwei (oder mehr) Chips direkt zusamenzuführen (mit den dafür notwendigen zusätzlichen Aufwendungen und Kosten). Mit ihrem NVLink-Switch- und Ethernet-Switch-Chips haben die extrem leistungsfähige Komponenten im Portfolio, die es ihnen dennoch ermöglichen einen ganzen Block an GPUs performant zusammenarbeiten zu lassen.
Am Ende also keinesfalls Enttäuschend sondern bestenfalls überraschend, denn es gingen tatsächlich sehr viele Leaks bei Hopper von einem MCM-Design aus. Und zudem weiß man ebenso, dass nVidia schon längst an der Entwicklung von MCM-Designs dran ist, denn bereits in 2019 stellte man in Tokyo ein entsprechendes Datacenter-Design auf einer Tech-Konferenz vor. Offensichtlich machte eine Umsetzung zum jetzigen Zeitpunkt jedoch noch keinen Sinn und es verhält sich ähnlich zu Intel: Derartige architektonische Anpassungen werden kommen, wenn es für die jeweilige Firma von Vorteil ist, nicht vorher. (Bei bspw. AMD drückt hier an ganz anderer Stelle der Schuh, was für sie ein MCM-Design naheliegender bzw. dringlicher macht.)
Letzten Endes aber auch nicht weiter relevant, denn am Ende zählt für nVidia, wie für jede andere AG schlicht der Umsatz und Gewinn. Man darf gespannt sein, was Intel mit Ponte Vecchio (sobald allgemein verfügbar) und AMD deutlich später im Jahr mit der MI300 im N6 abliefern können wird.

Entsprechend zu Punkt c) "monolithisch" würde ich mit Blick auf Lovelace weiterhin davon ausgehen, dass nVidia hier vermutlich eine durchaus valide Planung bzgl. des gesamten Portfolios hat. Möglicherweise wird man gezielt die Leistungskrone beim HighEnd-Produkt aufgeben, da AMD hier potentiell mehr erreichen/skalieren kann, jedoch wird ein derartiges Kalkül bei nVidia, wenn dann zugunsten einer besseren Bilanz erfolgen und das wiederum bedeutet, dass man über den Großteil des Portfolios dennoch konkurrenzfähige Produkte anbieten können wird.
Man darf weiterhin gespannt sein und abwarten, ob ihre Planung im Consumer-Segment für die kommende Gen aufgehen bzw. (insgesamt gesehen) erfolgreich sein wird.
 
Zuletzt bearbeitet:
Möglicherweise wird man gezielt die Leistungskrone beim HighEnd-Produkt aufgeben, da AMD hier potentiell mehr erreichen/skalieren kann, jedoch wird ein derartiges Kalkül bei nVidia, wenn dann zugunsten einer besseren Bilanz erfolgen und das wiederum bedeutet, dass man über den Großteil des Portfolios dennoch konkurrenzfähige Produkte anbieten können wird.
Leistungskrone aufgeben ist, sofern das im Raum steht, ganz sicher kein Kalkül von Nvidia. Das widerspricht Jensen und der Firmenpolitik. NV will immer das schnellste Produkt haben, koste es, was es wolle.

AMD hat Intel mit Chiplets bei CPUs kalt erwischt und auch NV wird sich zeitnah womöglich noch umgucken. Für CDNA3 z.B. wird ein Verbund aus 4 (!) GPUs vermutet. Das wäre auch schon Ende dieses Jahr der Fall. Damit kannst du einfach unglaublich stark in die Breite gehen, was vor allem der Effizienz und absoluten Performance massiv zugute kommt. Dagegen kommt kein monolithischer Die an, von noch mal deutlich besseren Yields bei kleineren Chips ganz zu schweigen.

Daran forschen ist das eine, die Umsetzung das andere. Da scheint AMD Nvidia einiges Voraus zu sein, was auf absehbare Zeit einen großen Vorteil bedeuten kann. Auch Nvidia wird mittelfristig nicht um diesen Schritt herumkommen.
 
a) TSMCs N4 scheint über einen sehr guten Yield zu verfügen, denn Hopper aktiviert relativ gesehen weitaus mehr SMs als es noch bei Ampere (A100) in 2020 der Fall war.

Wie sind denn die Yields bei N4? Tell us more pls.


c) nVidia hat es mit einem weiterhin monolithischen Design geschaft ein überaus konkurrenzfähiges Design abzuliefern, d. h. man darf spekulieren, dass die sich durchaus was dabei gedacht haben, wenn sie in dieser Gen auf ein MCM-Design verzichten.

Oder sie haben es schlicht und ergreifend erst später geplant und waren überrascht, dass die Konkurrenz es früher bringt. Und da man Pläne nicht einfach so über Bord wirft, müssen sie jetzt halt mit nem Monolithen antreten.


Zum Punkt c) und einem weiterhin monolithischen Ansatz in Anlehnung an etwas weiter oben: Enttäuschend ist daran überhaupt nichts; das ist am Ende schlicht effizient und der Marge zuträglich.

Das stimmt doch einfach schlicht und ergreifend nicht. Ein so großer Monolith geht immer zu Lasten der Marge, da man aus einem Wafer wesentlich mehr kleine Chips herausbekommt... Daher sehen ja auch alle drei MCM Designs als die Zukunft an.
Für Nvidia geht das quasi nur auf, wenn es keine Konkurrenz in dem Sektor gibt, welche die Preise drückt.

Man darf gespannt sein, was Intel mit Ponte Vecchio (sobald allgemein verfügbar) und AMD deutlich später im Jahr mit der MI300 im N6 abliefern können wird.

Seit wann ist die Mi300 in 6nm geplant? Darüber habe ich noch nie etwas gelesen, also generell welches Fertigungsverfahren AMD hier vorsieht. Wobei man jedoch davon ausgehen kann, dass es sich eher um 5nm handeln wird. Wieso sollten sich auch nochmal auf 6nm gehen?


AMD hat Intel mit Chiplets bei CPUs kalt erwischt und auch NV wird sich zeitnah womöglich noch umgucken. Für CDNA3 z.B. wird ein Verbund aus 4 (!) GPUs vermutet. Das wäre auch schon Ende dieses Jahr der Fall. Damit kannst du einfach unglaublich stark in die Breite gehen, was vor allem der Effizienz und absoluten Performance massiv zugute kommt. Dagegen kommt kein monolithischer Die an, von noch mal deutlich besseren Yields bei kleineren Chips ganz zu schweigen.

Vergiss es einfach, er kann/will es nicht verstehen, dass so große Monolithen einfach nicht günstiger sind...
Er liest und kommentiert auch einen Artikel hier, wo Milan-X mit einem Preisaufschlag von 11% ausgewiesen wird und kommentiert dann zwei Tage später wieder, dass Milan-X ja so unfassbar teuer in der Herstellung wäre...
Dass bei den 11% höheren Kosten das meiste ein deutliches Plus an Marge sein wird, brauch ich dir ja nicht erklären. Aber das wird sich leider nie ändern solange so Offensichtlichkeiten geduldet werden.

Und hier kommt ja auch wieder das Prinzip der Chiplets zum tragen, weil Cache im CPU Design ist ja nur teuer, weil er viel Platz einnimmt. Wenn ich hingegen den Speicher extra fertige in großer Menge und auf der Selben Fläche dann 64MB anstelle von 32MB unterbringe, wird dies deutlich günstiger sein, wie wenn ich die CPU direkt mit 96MB L3 Cache produziere.
Von daher bin ich gespannt, ob dieses Prinzip auch bei GPUs Anwendung finden wird. Im Prinzip auch wieder nur bei AMD, da sie so den Infinity Cache auf der GPU kleiner designen können, dadurch mehr DIEs aus dem Wafer bekommen und durch das Stacking den Cache wieder aufstocken können.
Daher wäre es mal interessant, was dieses Verfahren denn so kostet? Bei den hohen Waferpreisen die man mittleweile hat, kann ich mir jedeoch schwer vorstellen, dass es so wirklich teurer ist.

Interessant ist eigentlich, dass man sieht, dass Nvidia und AMD hier einen deutlich getrennten Weg einschlagen. AMD mit Fokus auf HPC und Nvidia mit Fokus auf AI. Bleibt dann abzuwarten wie sich intel hier positionieren wird.
 
Er liest und kommentiert auch einen Artikel hier, wo Milan-X mit einem Preisaufschlag von 11% ausgewiesen wird und kommentiert dann zwei Tage später wieder, dass Milan-X ja so unfassbar teuer in der Herstellung wäre...
Dass bei den 11% höheren Kosten das meiste ein deutliches Plus an Marge sein wird, brauch ich dir ja nicht erklären. Aber das wird sich leider nie ändern solange so Offensichtlichkeiten geduldet werden.
Statt 2 Stück Milan-X könnte AMD halt 3 Stück Milan fertigen lassen, weil die 7nm Wafer ja immer noch limitiert sind.
Von daher macht Milan-X zumindest aktuell wirtschaftlich keinen Sinn!
 
Statt 2 Stück Milan-X könnte AMD halt 3 Stück Milan fertigen lassen, weil die 7nm Wafer ja immer noch limitiert sind.
Von daher macht Milan-X zumindest aktuell wirtschaftlich keinen Sinn!

Das ist schlicht und ergreifend eine Behauptung von dir, die du nicht belegen kannst.
Wieso sollte AMD etwas anbieten, dass für sie wirtschaftlich keinen Sinn ergibt? Meinst du dort sitzen nur Idioten?

Des Weiteren hat AMD bei der Präsentation gesagt, dass für den Speicher ein dafür angepasstest Verfahren bei TSMC zur Verwendung kommt. Inwiefern man sich damit irgendwie Wafer wegnimmt oder nicht kannst weder du noch ich bewerten. Abgeleitet von der Aussage die AMD getätigt hat, ist dies allerdings eher zu verneinen.
Aber auch hier greift wieder der Punkt niemand weiß wirklich wer wie viel Wafer überhaupt geordert hat und zu welchem Preis...
Aber wenn du Zahlen dazu hast, immer her damit, würden bestimmt viele interessieren.
 
Leistungskrone aufgeben ist, sofern das im Raum steht, ganz sicher kein Kalkül von Nvidia. Das widerspricht Jensen und der Firmenpolitik. NV will immer das schnellste Produkt haben, koste es, was es wolle.

AMD hat Intel mit Chiplets bei CPUs kalt erwischt und auch NV wird sich zeitnah womöglich noch umgucken. Für CDNA3 z.B. wird ein Verbund aus 4 (!) GPUs vermutet. Das wäre auch schon Ende dieses Jahr der Fall. Damit kannst du einfach unglaublich stark in die Breite gehen, was vor allem der Effizienz und absoluten Performance massiv zugute kommt. Dagegen kommt kein monolithischer Die an, von noch mal deutlich besseren Yields bei kleineren Chips ganz zu schweigen.

Daran forschen ist das eine, die Umsetzung das andere. Da scheint AMD Nvidia einiges Voraus zu sein, was auf absehbare Zeit einen großen Vorteil bedeuten kann. Auch Nvidia wird mittelfristig nicht um diesen Schritt herumkommen.
Ich weiß, dass so mancher bei AMD-Konkurrenten immer und unter allen Umständen absolutes Versagen und totale Inkompetenz sehen möchte, nur mit der wirtschaftlichen Realität scheinen derartige Erklärungsversuche zumeist wenig bis gar nichts zu tun zu haben.
Und AMD mit Chiplets bei GPUs hat mit Sicherheit überhaupt niemanden "kalt erwischt". Dass das kommen würde war klar absehbar, insbesondere für den GPU-Martkführer und falls du es noch nicht wusstest, es hat nicht viel gefehlt, dann hätte Intel (in deinem Jargon) AMD "kalt erwischt", denn Xe war schon grundlegend auf ein MCM-Design ausgelegt, auch für HPG, nur hat man sich hier entschlossen dieses nun doch erst mit Battlemage in 2023 einzuführen und wenn du noch mehr Pech hast, waren nicht einmal technische Gründe dafür der maßgeblichste Grund, sondern vielmehr schlicht marktstrategisch/wirtschaftliche.
Es ist leider immer das gleiche Problem mit dem MCM/Chiplet-Thema, das so viele aus wirtschaftlicher Sicht anscheinend so ganz und gar nicht zu verstehen scheinen, aber wenn du dich ein bisschen einliest ...
Abseits dessen vielleicht mal als Denkanstoß, dass nVidia als großem TSMC-Kunden dort die gleichen Möglichkeiten zur Verfügung stehen wie auch AMD und ganz offensichtlich scheint nVidia dort derzeit bspw. die modereren Nodes gebucht zu haben. Aber es ist durchaus immer wieder faszinierend, wie vermeintlich simpel doch offensichtlich alles ist und dass wenn ein AMD-Konkurrent nicht alles exakt so macht wie AMD, er doch offensichtlich komplett am Marktgeschehen vorbeizuentwickeln scheint ... ;-)

Wie sind denn die Yields bei N4? Tell us more pls.
Schreib dich nicht ab, lern' lesen und Zusammenhänge erkennen. Ich weiß, dass dir das mit deinem Bias in Verbindung mit meiner Person und generell Postings, die AMD nicht pauschal in den Himmel loben (oder deren Konkurrenz schlecht aussehen lässt) schwer fällt, aber deshalb muss es nicht zu meinem Problem werden. ;-)

Oder sie haben es schlicht und ergreifend erst später geplant und waren überrascht, dass die Konkurrenz es früher bringt. Und da man Pläne nicht einfach so über Bord wirft, müssen sie jetzt halt mit nem Monolithen antreten.
Ist schlicht nicht plausibel, weil AMD mit seinen beschränkteren Ressourcen und deutlich kleineren Marktanteilen ein Chiplet-Design weitaus dringender benötigt. Und falls es dir entgangen sein sollte, AMD schlug diesen Weg schon vor vielen Jahren ein und konkrete Produkte sind schon lange im Markt.
Aber ja, natürlich wird man da bei nVidia schlicht beide Augen zugedrückt und sich gedacht haben, dass die ja nichts hinbekommen und wahrscheinlich auch in 2022 noch einmal ein Vega10 neu in 5nm auflegen werden. - Himmel, dir kann man echt nicht helfen ...

Das stimmt doch einfach schlicht und ergreifend nicht. Ein so großer Monolith geht immer zu Lasten der Marge, da man aus einem Wafer wesentlich mehr kleine Chips herausbekommt... Daher sehen ja auch alle drei MCM Designs als die Zukunft an.
Für Nvidia geht das quasi nur auf, wenn es keine Konkurrenz in dem Sektor gibt, welche die Preise drückt.
Lol, ja, ich weiß, dass (markt)wirtschaftliche Sachverhalte bei dir irgendwie auf grundsätzliches Unverständnis zu treffen scheinen und bei dir anscheinend immer nur alles aus einer schwarz-weißen AMD-Brille gesehen werden kann, aber das heißt nun mal nicht, dass AMDs Weg der für alle gangbare und sinnvolle Weg ist, erst recht nicht zu einem spezifischen Zeitpunkt.
Vielleicht mal als kleiner Denkanstoß: AMD, Intel, nVidia operieren alle unter gänzlich anderen Bedingungen im Markt mit abweichenden Ausgangspositionen vielfältigster Art, Zielsetzungen, Möglichkeiten und allgemein Ressourcen und KnowHow. Entsprechend wird man zu gegebener Zeit bei denen auch jeweils andere Vorgeehensweisen sowie Markt- und Produktstrategien beobachten können. Langfristig sind sich zweifellos alle bzgl. einer aufgeteilten Fertigung einig, dass das die Zukunft ist und das wird wohl niemand besser als Intel wissen, die hier packagingtechnisch derzeit führend zu sein scheinen, nur entscheidet jede Firma für sich selbst gemäß ihrer konkreten Marktsituation wann welches Vorgehen für sie am besten ist und wann bei ihnen "diese Zukunft beginnt" und nur weil bspw. AMD mit einem Chiplet-Design ums Eck kommt, heißt das noch lange nicht, dass nun umgehend alle andere unmittelbar folgen müssen. Derartige Aussagen waren schon vor einigen Jahren zu Intel unzutreffend und scheinen es nun ganz offensichtlich auch mit Blick auf nVidia zu sein.

Seit wann ist die Mi300 in 6nm geplant? Darüber habe ich noch nie etwas gelesen, also generell welches Fertigungsverfahren AMD hier vorsieht. Wobei man jedoch davon ausgehen kann, dass es sich eher um 5nm handeln wird. Wieso sollten sich auch nochmal auf 6nm gehen?
Kommt jetzt etwa noch ein löchriges Gedächnis hinzu oder schlicht die Unfähigkeit sich auch mal selbstständig zusätzliches Wissen anzueignen bevor man wiederholt auf dem falschen Fuß erwischt wird?
Aber ja, ich weiß, ich bin ja ein rotes Tuch für dich und da fällt es dir schwer deine Empotionen im Griff zu behalten und Recherche ist ja nicht unbedingt deine Stärke.
Befrag doch mal einfach AMD selbst zu dem Thema ... du wärst überrascht ... :-D

Vergiss es einfach, er kann/will es nicht verstehen, dass so große Monolithen einfach nicht günstiger sind [...]
Mir scheint eher ich verstehe weitaus mehr als du, denn deine Auffassungsgabe scheint bereits bei der reinen Betrachtung eines Wafers ihr Limit zu erreichen, nur die Produktentwicklungs-, Fertigungs- und Vertriebskette hat weitaus mehr für ein wirtschaftlich erfolgreiches Handeln zu berücksichtigen.

Bezüglich deinem technischen Spekulatius: Na du bist ja knuddelig. Oben willst du noch, dass ich dir alles vorkaue, obwohl man sich da leicht selbst 2 und 2 zusammenrechnen kann, zumal TSMC selbst auch in den vergangenene Monaten immer wieder explizite Aussage zu dem Thema von sich gegeben hat.
Und hier streust du bzgl. der vermeintlich günstigen Packaging-Technologie deinen eigenen Spekulatius und nimmst pauschal an, dass das doch eine günstige Technologie sein muss. Das scheint mir bei dir doch schon wieder eher (marken)psychologische Hintergründe zu haben. ;-)
Aber um dich dann doch nicht komplett alleine im Dunkeln stehen zu lassen ... bereits schon AMDs reguläres Packaging der Ryzen's ist weitaus komplexer und teurer als das von bspw. Intel mit seinen einfachen monolithischen Chips, weil hier ein wesentlich aufwändigeres Substrat mit weitaus mehr Lagen für das interne Routing genutzt werden muss, hier werden grundsätzlich zwei oder gar drei Chips aufgebracht, mal ganz abgesehen davon, dass die Wafer-Kosten bei kleineren CPUs unverändert hoch bleiben und das Ganze durchlief schon bei/seit Zen2 nur für das "einfache" Packaging bereits drei unterschiedliche Firmen (exklusive TSMC).
Beispielsweise beim V-Cache wird die Validierung nun noch einmal aufwändiger und es müssen nun noch zusätzlich hochpräzise Chips gestapelt werden, was die Kosten erneut erhöht. Nicht umsonst fasst Semiconductor Engineering in einem noch recht aktuellen Artikel das verwendete Hybrid Bonding zuammen als vielversprechende Technologie, die jedoch Abwägungen mit Blick auf höhere Kosten, gestiegene Komplexität und neue fertigungstechnische Herausforderungen mit sich bringt.
Aber hey, natürlich wird TSMC als AG das alles quasi zum Selbstkostenpreis anbieten, denn die haben ja kein Interesse daran Geld zu verdienen und müssen es wahrscheinlich auch nicht einmal, weil die vielen Milliarden an kürzlich getätigten und ebenso bevorstehenden, zukünftigen Investitionen vermutlich alle durch Spendengelder abgedeckt werden. ;-)

Und zu deiner vermeintlich "interessanten" Beobachtung: Da gibt es aktuell eigenlicht keine neuen Erkenntnisse. nVidia ist schon lange primär auf dem Pfad AI/ML unterwegs. Wem das noch nicht aufgefallen ist ... :confused:
HPC wird von denen ebenso vorangetrieben, jedoch liegt deren entwickungstechnisch größerer Aufwand klar im boomenden AI/ML-Bereich was aber auch andererseits trivial erklärbar ist, denn bei HPC und FP64 gibt es nicht viel mehr beizusteuern als noch mehr Kerne (eine Integration in die Tensor Cors für MMA-Ops hat man hier schon mit Ampere in 2020 vorgenommen), währen man bei AI/ML mit neuer Funktionalität weiterhin beträchtliche Leistungssprünge vollziehen kann.
Umgekehrt kann man nun aber nicht sagen, dass AMD überaus HPC-fokussiert ist. Der Eindruck entsteht wahrscheinlich eher, weil AMD im boomenden ML-Markt noch nicht mit ganz so großen Schritte mithalten kann, sodass die FP64-Zugewinne bei denen ggf. priorisiert erscheinen. Ob sie dieses Segment jedoch tatsächlich als eine Nische für sich entdeckt haben und nun aktiv bearbeiten, kann man zum gegebenen Zeitpunkt noch nicht wikrlich bewerten, denn die sind erst seit relativ kurzer Zeit wieder mit entsprechender Hardware hier unterwegs.
Und bei Intel ist ebenso schon bekannt, dass die einen Mittelweg zu gehen versuchen, mit vergleichsweise hoher HPC- aber auch hoher ML-Leistung, wobei bzgl. ML jedoch vermutlich auch die vorerst nicht vom Funktionsumfang her nVidia das Wasser reichen können, erst recht nicht bei dem, was nVidia gerade mit Hopper vorgestellt hat. Und mit Blick auf AMD scheint es bei HPC grob auf ein Patt hinauszulaufen, während bei AI/ML AMD auch hier den Kürzeren zu ziehen scheint, hier anscheinend ebenso gar deutlich.
Einzig was man zusätzlich noch weiß ist, dass Ponte Vecchio offensichtlich über einen vollständigen Satz an Raytracing-Einheiten zu verfügen scheint, was derzeit ein Alleinstellungsmerkmal ist, d. h. die können neben unmittelbarem Raytracing allerlei raytracingähnliche Berechnungen direkt in Hardware auf ihrem HPC-Design zusätzlich beschleunigen.
Wie sich das in den nächsten ein, zwei Jahren darstellen wird, bleibt abzuwarten. nVidia wird absehbar mit Hopper weiterhin unangefochtener Marktführer mit deutlichem Abstand bleiben. Mit Intel's 7nm/Ponte Vecchio-Verzug dachte man eigentlich, dass AMD mit dem Frontier als dem vermeintlich leistungsfähigeren Supercomputer mit wehenden Fahnen an Intel vorbeiziehen würde, jedoch scheint das nun keineswegs mehr sicher zu sein. Der Aurora kommt nun mit deutlich mehr Gesamtleistung und würde den Frontier, wenn man dort nicht nachgebessert hat, gar deutlich übertreffen und auch bzgl. dem zeitlichen Plan hängt man auch beim Frontier offensichtlich deutlich zurück, denn der hätte ebenso schon längst online sein sollen.


Ergänzend zu deinem Wafer-Diskurs mit TT: Dein Erklärungsversuch wirkt unbeholfen. Das Cache-Die (zum V-Cache) wird im N7 gefertigt und es spielt keine Rolle ob AMD die dafür nötigen Kapazitäten von seinen bereits gebuchten Kapazitäten zur Verfügung stellen muss oder ob es ihnen gelang noch ein wenig hinzuzubuchen. Am Ende haben sie X Kapazität in TSMCs N7 und müssen sich entscheiden wie sie diese verwenden wollen. Und sieht man sich bspw. deren geänderten Ryzen-Launch an, dann sind sie offensichtlich der Meinung, dass sie bspw. diese aufwändige Technologie anderswo sinnvoller verwenden können als auf Consumer-Chips, insbesondere noch wohlmöglich Chips mit zwei CCDs wie einem gepimpten 5900X oder 5950X.
TTs Rechnung ist grundsätzlich grob korrekt, auch wenn ich seiner dahinterstehenden Argumentation nicht folge, denn AMD wird Milan-X sehrwohl zur Überbrückung brauchen (bis Genoa verfügbar ist), denn Sapphire Rapids SP wird schon seit längerem ausgeliefert und dürfte bald auch in den freien Martk entlassen werden und wird in diversen Workloads bereits auch ohne HBM performanter sein. Infolge dessen ist der für das was AMD derzeit im Markt verüfgbar hat ein ernstzunehemnder Konkurrent.
Darüber hinaus könnte man TT aber durchaus noch eine weiterführende Überlegung unterstellen, denn eine möglicherweise geringere Wirtschaftlichkeit könnte unter bestimmten Bedingungen dennoch von AMD bewusst in Kauf genommen werden, wenn es bspw. darum geht Kunden von einem Wechsel zurück zu Intel abzuhalten, denn solche Kunden sind dann für voraussichtlich mehrere Jahre verloren. Darüber hinaus gehe ich aber auch nicht davon aus, dass AMD mit Milan-X gar ein Minusgeschäft macht, denn bei derartigen Produkten kann man die Mehrkosten deutlich einfacher einpreisen.

Abschließend schön, dass du einen Post von mir zu Milan-X anführst, der angeblich etwas wie "so unfassbar teuer in der Herstellung" erklärt (insbesondere das "unfassbar" gefällt mir besonders ;-)), jedoch zeigt das letzten Endes nur wie bei dir alles aussetzt, wenn du einen Post von mir liest, denn das in dem Sinne, wie du es hier zitiert hast und offensichtlich verstanden wissen willst, stand da garantiert nicht, also schließt sich hier der Kreis und wir kommen zu meinem anfänglichen Rat an dich zurück: Lesen lernen.
 
Zuletzt bearbeitet:
Das ist schlicht und ergreifend eine Behauptung von dir, die du nicht belegen kannst.
Wieso sollte AMD etwas anbieten, dass für sie wirtschaftlich keinen Sinn ergibt? Meinst du dort sitzen nur Idioten?
Was soll ich da bitte noch belegen?
Ausserdem hab ich doch eh eine Quelle gepostet, nicht mein Problem, wenn das hinter einer Paywall liegt;)
Es ist bekannt wie groß die 7nm Cachedie ist!
Statt der 16 Caches könnte man 8 CCDs fertigen lassen!

Des Weiteren hat AMD bei der Präsentation gesagt, dass für den Speicher ein dafür angepasstest Verfahren bei TSMC zur Verwendung kommt. Inwiefern man sich damit irgendwie Wafer wegnimmt oder nicht kannst weder du noch ich bewerten.
Und weiter?
Angepasstes Verfahren, aber ganz normale Wafer...
 
Die Tensor Cores v4 werden sich sicherlich auch in Lovelace wiederfinden lassen, aber das ist sicherlich nicht das was dich interessiert.
Das wird ziemlich interessant sein.
Hopper besitzt die Cuda Compatibility 9.0, während Ada bei 8.9 liegt.
Gaming Ampere wurde als 8.6 definiert und Tensor Ampere als 8.0.
Gaming Ampere hat kleinere Tensor-Cores verwendet, als der GA100-Chip, ebenso lag der Matrix-Durchsatz bei FP16 Operationen mit FP32 Accumulation nur bei der Hälfte.
Es wäre möglich das Ada im Prinzip nur FP8 nachgerüstet bekommt, ansonsten der Durchsatz aber gleich bleibt und auch der Tensor Memory Accelerator könnte fehlen.
Mal sehen, ob Nvidia sich da spartanisch zeigt oder doch stärker nachrüstet.

*) Von Locuza gab es vorgestern einen Leak, der behauptet, dass lediglich ein einziger GPC überhaupt über 3D-Funktionalität verfügt, was bedeuten würde, dass die 3D-Leistung "grottig" wäre. Ob der Leak korrekt ist, ist unklar, da nVidia natürlich nicht darüber gesprochen hat, weil Render- und Raster-Endstufen etc. für ein Design wie Hopper vollkommen nebensächlich sind.
Vom Leak wurde ausgewiesen das nur ein GPC 3D-Funktionen unterstützt, diese Einschränkung wäre im Prinzip unnötig, wenn tatsächlich alle GPCs über eine 3D-Pipeline verfügen würden.
Mehr noch, ein 3D-Block soll nur an 3 TPCs angeschlossen sein.
Nvidias Whitepaper geht nicht auf ein 3D-Only-GPC ein, sie erwähnen aber das nur 2 TPCs für Grafik funktionieren, Seite 18/70:
"Only two TPCs in both the SXM5 and PCIe H100 GPUs are graphics-capable (that
is, they can run vertex, geometry, and pixel shaders)."

Vermutlich um eine bessere Ausbeute zu erreichen werden von 3 nur 2 verwendet.
Der 3D-Durchsatz ist minimalistisch.



@ Bärenmarke

Ein AMD-Mitarbeiter hat 6nm für MI300 in seinem Berufsprofil auf LinkedIn angegeben:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mittlerweile hat er sein Profil gelöscht.
Immer wieder geben Mitarbeiter zuviele Informationen preis, ich weiß gar nicht wieso das so häufig passiert.
 
Zurück