Intel Arc: Patent spricht für Zukunft mit Multi-Chip-Ansatz

Bei dem was ich schrieb geht es nicht um Leistung sondern um die Technologie direkt im Bezug auf multi GPU-Chip.
Den Versuch kann man dir durchaus zugestehen, mehr als das war es dann aber auch nicht, denn das was damals techologisch abgeliefert wurde hat mal fast schon überhaupt nichts mehr mit der Technologie von Heute zu tun und erst recht nicht, wenn es um Multi-GPU-Designs geht.
Wenn du da einen frühzeitgen Blick irgendwohin werfen möchtest, dann vielleicht auf die B- oder C-Series von Imagination Technologies, aber diese kurze Episode von 3dfx ist hier vollkommen fehl am Platz bzw. gänzlich irrelevant in oder für die heutige Marktsituation.

Das wiederrum ist ein anderes Thema und hat auch einen völlig anderen Grund gehabt.
Nein, schlicht mangelnde Konkurrenzfähigkeit; man hatte die technologische Weiterentwicklung verkannt und wurde binnen kürzester Zeit von der Konkurrenz überrant. Eigentlich ein recht einfaches Szenario.

Die Schwierigkeit bei multi GPUs liegt in der Effizienz der Leistungsverdoppelung genau das hat Nivdia und ATI damals nicht richtig geschafft so das SLI und Crossfire nicht wirklich gut waren, egal ob mit 2 Grafikkarten (stabilitäts- und Leistungsprobleme) oder 2 Chips auf einem Board (instabilitäten und verberbrauch).
Also was damals war, ist heute, rd. 20 Jahre später mal vollkommen egal, u. a. deshalb, weil die Technologien und Probleme schon gar nichts mehr miteinander zu tun haben (siehe Torsten).
Darüber hinaus wirfst du aber auch schon in deinem historisch verklärten Blick einiges durcheinander, denn auch Crossfire und SLI haben mit 3dfx nichts am Hut, weil die zeitlich erst wesentlich später erschienen.
Das was die Hersteller heute mit ihren MCM-Designs anpeilen ist dagegen etwas vollkommen anderes (auch i. V. z. Crossfire/SLI), nämlich einen großen, zusammengesetzten nach außen für das Grafik-API transparenten GPU-Chip anzubieten, der entsprechend deutlich mehr Durchsatz bietet. Imagination Technologies hat das Problem schon auf seine eigene Art für seine aktuelle Produkte gelöst, selbst inkl. Raytracing, man darf gespannt sein womit AMD und Intel ums Eck kommen werden und wenn die Gerüchteküche korrekt ist, scheint man bei nVidia der Meinung zu sein, dass man die zusätzliche (MCM-)Komplexität noch nicht nötig hat um sich die Konkurrenz noch eine weitere GPU-Iteration lang vom Hals zu halten, so dass man es hier noch mal bei einem monolithischen Design belassen wird. (Hopper ist dagegen ein reines Datacenter-Design.)
 
Zuletzt bearbeitet:
AMD brauchte diesen Entwicklungsansatz dagegen weitaus früher und viel mehr um überhaupt wieder in den Markt zurückzufinden, denn alle Segmente mit dedizierten Designs zu versorgen, hätte beträchtlich deren Kosten erhöht und ihr Wachstum drastisch ausgebremst.

Eben nicht, aber das willst du offensicht halt einfach nicht verstehen. Zen 1 war bei Glofo mit Sicherheit auch nicht teuer zu fertigen, man hätte also auch Monolithen anbieten können, nur ist das MCM Design eben der langfristige Schritt bei AMD (im übrigen auch bei intel, die haben halt später angefangen) und da geht man nicht direkt von 0 auf 100, sondern fangt klein an und verbessert es Schritt für Schritt, was ihnen gelungen ist.

Denn das Problem ist schlicht und ergreifend, dass die Wafer in kleineren Fertigungsschritten immer teurer werden und man die Leistung nur über ein MCM Design effizient und kostengünstig skalieren kann. Deswegen ist da ja auch intel genaus dahinter wie AMD. Und auch Nvidia wird nachziehen müssen. Nur benötigt man für MCM halt auch entsprechende Technologien und die gabs in dem Umfang vor 10 Jahren einfach noch nicht und bei GPUs ist das Ganze auch noch etwas komplexer wie bei CPUs.


Ob sich das rechnet, hängt vom jeweiligen Marktteilnehmer und der konkreten Situation ab. Beispielsweise Firmen wie Intel und nVidia können weitaus eher mit ihren großen Marktanteilen die Entwicklungs- sowie Fertigungskosten großer Chips verteilen als eine Firma wie AMD, die noch mit vergleichweise kleinen Mengen hantiert.

Das ist absoluter Nonsens, auch AMD kann dies. Es hängt hier in erster Linie davon ab, was der Markt bereit ist zu bezahlen, wenn entsprechende Summen bezahlt werden, dann lohnt es sich für alle Marktteilnehmer. Jedoch sind wir an einem Bereich angekommen, wo man schlicht und ergreifend auf MCM-Designs angewiesen

Hier gehen die Kosten viel mehr zulasten des Gewinns, sodass AMD hier nur langsam und schrittweise ausbauen kann. Beispielsweise erst mit CDNA bedient AMD erstmals das Datacenter, mit RDNA2 kehrte man erstmals seit langer Zeit wieder in das Cosnumer-HighEnde zurück und mit Bergamo kommt nun erstmals in 2023 ein spezifisch angepasstes CPU-Design für das Datacenter. So eine Produktdiversifikation muss man sich aufgrund der immensen Kosten und dafür benötigten Ressourcen schrittweise erarbeiten ... und das dauert halt.

Zum einen kann man nicht auf zu vielen Hochzeiten gleichzeitig tanzen und zum anderen bekommst du durch MCM-Designs eine höhere Flexibilität. Wobei das auch strikt auf den Markt ankommt. Bei GPUs ist die Notwendigkeit nicht ganz so hoch wie bei CPUs, da Consumer von HPC stärker getrennt ist. Und MCM-Designs bei High End GPUs nur Sinn ergeben, da man dort die Leistung besser hochskalieren kann. Für den Einstiegsmarkt macht es keinen Sinnen, da die DIEs gar nicht die Größe haben, damit es wirtschaftlich für AMD, Nvidia und intel keinen Sinn ergibt, diese herzustellen. Ich würde mal grob sagen bis 200-250Watt sind Monolithen bei GPUs einfach sinnvoller, aber vielleicht sehen wir hier auch in Zukunft Änderungen, sodass die Hersteller so kleine Einheiten herstellen und dann halt 10,20 oder noch mehr auf ihren Karten verbauen... Aber dies wird noch länger dauern.

**) Warum sollte das Intel nicht versuchen? Die Expertise haben sie und offensichtlich auch das technologische Know How. Xe HPC ist aktuell der Benchmark an dem sich designtechnisch alles Derartige derzeit messen lassen muss und Xe-HPG 2nd Gen wird dagegen weitaus weniger komplex ausfallen.

Ach ist es dass? Wo kann man denn von diesem Benchmark Karten in Aktion sehen? Das ist mal wieder die blaue Brille die aus dir spricht, intel muss da erstmal liefern und zeigen was sie können und dann sieht man wie gut oder schlecht AMD und Nvidia dagegen dastehen.
Stand jetzt haben sie nichts und man muss sich erstmal im HPC Bereich an der Mi200 messen, die mittlerweile auch schon fast ein dreiviertel Jahr auf dem Buckel hat...
Es ist aufjedenfall ein Bereich in dem sich leistungsmäßig die letzten Jahre mit am meisten tut.

Dass die damit gleich in 2023 die Benchmark-Krone an sich reißen, darf man wohl eher für unwahrscheinlich halten (denn ich glaube nicht, dass sie bereit sind, das dafür nötige Geld in die Hand zu nehmen; stattdessen werden sie lieber eine gesunde Mischung aus Marktanteilgewinnung und Umsatz und Gewinn anstreben).

Genau, als ob sich da Nvidia die Butter vom Brot nehmen lässt... Ich sehe hier keinerlei Anzeichen dafür, dass intel aus dem Stehgreif direkt die Benchmarkkrone holt. Allein schon der Vorsprung hinsichtlich der Treiber, AMD und Nvidia arbeiten hierfür seit Jahren eng mit den Spielestudios zusammen, das holt man nicht einfach mal so schnell auf. Zumal AMD und Nvidia ja auch nicht schlafen.

Aber ein MCM-Design wird es ihnen ermöglichen bereits mit ihrer 2. Generation auch im HighEnd mitzuspielen, etwas wofür AMD bspw. mangels Ressourcen (zumal hier die Konsolenentwicklung priorisiert wurde) viele Jahre lang gebraucht hat.

Das ist schlicht und ergreifend Unsinn. Zum einen ist ein MCM-Design bei GPUs nicht ganz so trivial siehe SLI und Crossfire, da hat man es ja auch schon ansatzweise versucht und zum anderen kommt man eben erst jetzt in den Bereich, wo es sich aufgrund der hohen Waferkosten lohnt.

Es ist schlicht und ergreifend für alle Hersteller erstmal eine reine Kostenfrage. Man kommt da mit Monolithen einfach an seine Grenzen.
 
Zurück