Intel Arc: Patent spricht für Zukunft mit Multi-Chip-Ansatz

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Arc: Patent spricht für Zukunft mit Multi-Chip-Ansatz

Ein von Intel eingereichtes Patent beschreibt einen Ansatz für Multi-GPU-Rendering, der sich für eine Grafikkarte mit mehreren Rechenchips eignen würde. Womöglich plant Intel also bereits erste Grafikkarten mit einer MCM-GPU.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Arc: Patent spricht für Zukunft mit Multi-Chip-Ansatz
 
Wird wohl auch Zeit. Ich denke auch das irgendwann die Fertigungstechnik an einem Limit ist vielleicht noch nicht in den nächsten 10 Jahren, aber irgendwann. Da macht es doch nur Sinn auf Multichips Design zu setzen, sieht man ja auch heute schon bei den CPU's das es was bringt auf mehrere Chips/Die's zu setzen. Ist auf jeden Fall spannend das Thema vorallem bei AMD.
 
2017 wechselte Raja Koduri von AMD zu Intel, 2018 wird das Patent für das Multichip-Design eingereicht von Intel.

Zu dieser Zeit war das Multichip-Design bei AMD schon fest eingeplant und bereits in tiefer Entwicklung.
 
2017 wechselte Raja Koduri von AMD zu Intel, 2018 wird das Patent für das Multichip-Design eingereicht von Intel.

Zu dieser Zeit war das Multichip-Design bei AMD schon fest eingeplant und bereits in tiefer Entwicklung.
Dann hoffen wir mal, das AMD mit ihrem Patent sicher ist, denn soviel ich gehört habe, hat der Herr Koduri persönliche Anteile daran.
Wenn sich da in irgend einer Weise etwas im negativen Sinne überschneidet, gibts Zoff über die Anwälte.
 
Schon das AMD-Patent ist möglichst diffus und weit gefasst. So weit, dass große Teile in Konflikt mit z.B. von 3dfx genutzter, aber vermutlich schon lange vorher (SGI?) erfundener Technik stehen würden beziehungsweise nur ein winziger Teil der Patentschrift tatsächlich etwas neues beschreibt. Intel scheint ebenfalls bei Adam und Eva anzufangen; Abbildung 1 zeigt immer ein System-Schema mit Southbridge, Northbridge und FSB. Von daher werden die Anwälte definitiv ab Minute 1 darüber brüten, ob sich zu irgend einem Halbsatz eine Klage lohnt. So groß wie möglich, und wo es das US-Patentamt durchgehen lässt auch noch weiter, gefasste Ansprüche zwecks Blockade der Konkurrenz sind in der IT-Branche leider üblich. Ich erinnere an Aseteks unsägliche Schutzschrift auf Kompaktwasserkühlungen.

Hatte Intel nicht schon einmal einen 80er-Chip-Ansatz bei Larabee?

Larrabee war Single-Chip, genau wie alle anderen Intel-Produkte in dem Zeitraum. Aber es gab ein Experiment mit 80 Kernen auf einem Stück Silizium. (Wenn ich mich richtig erinnere "Polaris". Oder war das der Nachfolger mit deutlich weniger, dafür aber x86-Kernen?)
Die maximale Zahl von Compute Chips auf einem Package müsste bei Intel weiterhin "2" betragen (von Presler über Skylake A bis zu einigen FPGAs mehrfach umgesetzt), solange Ponte Vecchio und Sapphire Rapids auf sich warten lassen.
 
Zuletzt bearbeitet:
Das werden sicher alle machen, egal ob CPU, GPU oder sonst was, gar keine frage, es muss einfach sein weil die Fertigungen in absehbarer Zeit an ihre grenzen kommen werden.
Ich hoffe nur dies wirkt sich nicht auf ältere Spiele aus, die diese Technik nicht kennen, was zu Problemen kommen kann wenn die einzelnen Chips schwach sind.
Wo nicht dasselbe passiert wie bei CPU wo immer nur die Anzahl an Kernen genutzt werden wofür sie programmiert wurden, wo man bei GPUs es für die Spiele so aussehen lässt als ob das ganze ein einziger Chip wäre.
 
Ich hoffe nur dies wirkt sich nicht auf ältere Spiele aus, die diese Technik nicht kennen, was zu Problemen kommen kann wenn die einzelnen Chips schwach sind.
Genau darum geht es ja mittlerweile bei dem MCM-Ansatz bei GPUs, diese sollen komplett von Anwendungen "einfach" als eine GPU erkannt werden.
 
Ich vermisse irgendwie die guten alten Steckplätze, wo man dann nachträglich was draufpappen konnte.
Es fehlt ein Co-Prozessor auf dem Mainboard? Kein Problem! <zack> :-)
Einfach mal ne Grafikkarte rausbringen, wo ein Chip draufgesteckt ist, und daneben sind dann noch 7 frei Plätze für entsprechende Leistungsupgrades. :-)
Dann könnte man sich jetzt z.B. nur das Basismodell kaufen, und je nach Lust und Laune später günstig weitere 3 oder gleich 7.
Vorbei wäre diese olle Preisspirale und Kartenlotterie.
Das Stecksystem würde natürlich auch beim Speicher Anwendung finden, vorbei wären hitzige Diskussionen rund um 3070/80.
Einmal kurz lächeln, Bestellbutton klicken, am nächsten Tag wuppt die Karte auch Cyberpunk mit Raytracing ^^ ;-P
Zu schade, dass das nie so kommen wird.
Genau darum geht es ja mittlerweile bei dem MCM-Ansatz bei GPUs, diese sollen komplett von Anwendungen "einfach" als eine GPU erkannt werden.
Das Problem der Arbeitsverteilung bleibt trotzdem.
 
Das Stecksystem würde natürlich auch beim Speicher Anwendung finden, vorbei wären hitzige Diskussionen rund um 3070/80.
Einmal kurz lächeln, Bestellbutton klicken, am nächsten Tag wuppt die Karte auch Cyberpunk mit Raytracing ^^ ;-P
Zu schade, dass das nie so kommen wird.
Gab es doch für PhysX mit den Karten von Ageia. Eine reine Beschleunigerkarte für Physikberechnungen. Als die Firma von Nvidia aufgekauft wurde, wanderten die Funktionen in die Nvidia-Grafikkarten und die seperaten Beschleungerkarten wurden nicht mehr weiterverfolgt. Ohne Nvidiakarten gab es dann nur noch die CPU-basierte Software-PhysX.

Cunhell
 
Ich vermisse irgendwie die guten alten Steckplätze, wo man dann nachträglich was draufpappen konnte.
Es fehlt ein Co-Prozessor auf dem Mainboard? Kein Problem! <zack> :-)
Einfach mal ne Grafikkarte rausbringen, wo ein Chip draufgesteckt ist, und daneben sind dann noch 7 frei Plätze für entsprechende Leistungsupgrades. :-)
Dann könnte man sich jetzt z.B. nur das Basismodell kaufen, und je nach Lust und Laune später günstig weitere 3 oder gleich 7.
Vorbei wäre diese olle Preisspirale und Kartenlotterie.
Das Stecksystem würde natürlich auch beim Speicher Anwendung finden, vorbei wären hitzige Diskussionen rund um 3070/80.
Einmal kurz lächeln, Bestellbutton klicken, am nächsten Tag wuppt die Karte auch Cyberpunk mit Raytracing ^^ ;-P
Zu schade, dass das nie so kommen wird.

Das Problem der Arbeitsverteilung bleibt trotzdem.
Ich glaube so wie du es dir wünschst, ist es leider nicht. Da die Karten heute viel zu komplex sind. Das beste Beispiel sind doch die damaligen 3dfx Karten, da dachte man auch, man kloppt einfach mehr Chips auf die Karte und löst alle Probleme und man hat sich damit nur riesige Probleme geschaffen gehabt. Auch wenn am Ende die Rechnung aufgegangen wäre, aber es fehlte die Zeit alle Probleme zu lösen.

Wenn du jetzt so viele Module haben möchtest, wie willst du das als Stecksystem realisieren. Die Chips sind heute so fein und haben, zig 100te Kontakte, über die sie angebunden werden. Dann müsste das vorhandene Speichersystem das ganze ja auch unterstützen und damit klar kommen, dass du variabel Chips einstetzt ggf. pro Chip dann auch noch Speicher hinzukommt. Dann käme man an HBM Speicher eigentlich in der Praxis nicht vorbei, weil das andere in einer Flut aus Stecksystemen enden würde.

Im nächsten Schritt müsste man dann wieder die Latenzen betrachten. Ist das überhaupt bei den Frequenzen möglich solche Stecksysteme auf einer Karte selber. Mit anderen Worten, wenn man das Design, Treiber, BIOS-technisch alles berücksichtigen muss, wird das soviel kosten, dass das nie und nimmer bezahlbar wird für den Endkunden und vor allem wo man ja auch will, dass es reibungslos läuft.

Da redet man noch nicht mal von der Kühlung. Wie willst du das realisieren, da ja der eigentliche Kühlblock auch dafür vorgesehen sein muss und auch die Stromversorgung schon für ein solches Konzept geeignet sein muss. Das funktioniert nicht, weil du vom Hundertsten ins Tausendste kommst. Ist viel zu kompliziert.
 
Damit sollte spätestens jetzt klar sein,
dass die "zusammengeklebten Chips" im CPU und GPU Bereich die Zukunft sind.

Das Gegenteil - immer größere Dies - rechnet sich wirtschaftlich wohl schlicht nicht, wegen des Verfügbaren Platzes pro Wafer und der Ausschüsse aufgrund von Fehlern.
 
Bis jetzt hats noch keiner geschaft an 3DFXs Technologie Level heranzukommen. Nicht mal Nvidia war dazu fähig obwohl die 3DFX aufkauften, AMD hatte es dann damals auch aufgegeben und XGI hatte es ja nicht einmal zur bis Serienproduktion geschaft!

Nun will es Intel versuchen? Mh okay ^^ good Luck Intel! :kaffee:
 
Damit sollte spätestens jetzt klar sein,
dass die "zusammengeklebten Chips" im CPU und GPU Bereich die Zukunft sind.

Das Gegenteil - immer größere Dies - rechnet sich wirtschaftlich wohl schlicht nicht, wegen des Verfügbaren Platzes pro Wafer und der Ausschüsse aufgrund von Fehlern.
Mir scheint eher, dass das spätestens jetzt bei dir angekommen ist. ;-) Die großen Halbleiterhersteller wissen das schon seit vielen Jahren und entwickeln schon lange daran. Dass die damit zu unterschiedlichen Zeiten in den Markt kommen liegt dagegen eher an Fragen der Wirtschaftlichkeit und konkreten Produkten die vielleicht noch ohne ein aufgeteiltes und damit komplexeres Design wirtschaftlicher sind. Beispielsweise begann Intels EMIB-Entwicklung bereits in 2008, wenn ich mich recht erinnere. Bisher war es für sie jedoch noch wirtschaftlich vorteilhafter monolithische Chips zu fertigen. Für Intel macht eine Anwendung jedoch erst jetzt mit der nachgezogenen Fertigungstechnik Sinn. AMD brauchte diesen Entwicklungsansatz dagegen weitaus früher und viel mehr um überhaupt wieder in den Markt zurückzufinden, denn alle Segmente mit dedizierten Designs zu versorgen, hätte beträchtlich deren Kosten erhöht und ihr Wachstum drastisch ausgebremst.

Ob sich das rechnet, hängt vom jeweiligen Marktteilnehmer und der konkreten Situation ab. Beispielsweise Firmen wie Intel und nVidia können weitaus eher mit ihren großen Marktanteilen die Entwicklungs- sowie Fertigungskosten großer Chips verteilen als eine Firma wie AMD, die noch mit vergleichweise kleinen Mengen hantiert. Hier gehen die Kosten viel mehr zulasten des Gewinns, sodass AMD hier nur langsam und schrittweise ausbauen kann. Beispielsweise erst mit CDNA bedient AMD erstmals das Datacenter, mit RDNA2 kehrte man erstmals seit langer Zeit wieder in das Cosnumer-HighEnde zurück und mit Bergamo kommt nun erstmals in 2023 ein spezifisch angepasstes CPU-Design für das Datacenter. So eine Produktdiversifikation muss man sich aufgrund der immensen Kosten und dafür benötigten Ressourcen schrittweise erarbeiten ... und das dauert halt.

Ergänzend noch: Mit fortschreitender Fertigungstechnik kommt noch ein weiterer Faktor hinzu, denn die maximal und regulär belichtbare Chipgrgöße wird sich mit den High-NA-Scannern unterhalb von 3nm noch einmal halbieren. (Erste Geräte der neuen TwinScan-Generation sollen bereits Ende 2024 den Betrieb aufnehmen.)

Bis jetzt hats noch keiner geschaft an 3DFXs Technologie Level heranzukommen. Nicht mal Nvidia war dazu fähig obwohl die 3DFX aufkauften, AMD hatte es dann damals auch aufgegeben und XGI hatte es ja nicht einmal zur bis Serienproduktion geschaft!

Nun will es Intel versuchen? Mh okay ^^ good Luck Intel! :kaffee:
Was hat 3dfx mit heutiger GPU-Technologie zu tun? Die gibt es schon lange nicht mehr und selbst jede iGPU übertrifft deren damaligen Leistungsstand. Darüber hinaus waren die offensichtlich auch nicht übermäßig erfolgreich, wenn man bedenkt wie leicht die nach einem kurzen Höhenflug aufgrund mangelnder Konkurrenzfähigkeit zum Übernahmekandidat wurden. Abseits dessen hat das, was die damals technologisch mit bspw. zwei oder vier Chips in den Markt brachten bzw. versuchten in den Markt zu bringen (das meiste erschien ja nicht einmal mehr) nichts mehr mit dem zu tun, was heute die großen Halbleiterhersteller entwickeln.

*) Insgesamt reden wir hier bei 3dfx von gerade mal etwa 4 Jahren Marktrelevanz, genauer genommen sogar eher nur 3 Jahre, also eine vergleichsweise kurze Zeitspanne. Firmen wie ATI und Matrox und selbst S3 Graphics waren da weitaus erfolgreicher. ;-)

**) Warum sollte das Intel nicht versuchen? Die Expertise haben sie und offensichtlich auch das technologische Know How. Xe HPC ist aktuell der Benchmark an dem sich designtechnisch alles Derartige derzeit messen lassen muss und Xe-HPG 2nd Gen wird dagegen weitaus weniger komplex ausfallen. Dass die damit gleich in 2023 die Benchmark-Krone an sich reißen, darf man wohl eher für unwahrscheinlich halten (denn ich glaube nicht, dass sie bereit sind, das dafür nötige Geld in die Hand zu nehmen; stattdessen werden sie lieber eine gesunde Mischung aus Marktanteilgewinnung und Umsatz und Gewinn anstreben). Aber ein MCM-Design wird es ihnen ermöglichen bereits mit ihrer 2. Generation auch im HighEnd mitzuspielen, etwas wofür AMD bspw. mangels Ressourcen (zumal hier die Konsolenentwicklung priorisiert wurde) viele Jahre lang gebraucht hat.
 
Zuletzt bearbeitet:
Bei dem was ich schrieb geht es nicht um Leistung sondern um die Technologie direkt im Bezug auf multi GPU-Chip.

Darüber hinaus waren die offensichtlich auch nicht übermäßig erfolgreich, wenn man bedenkt wie leicht die nach einem kurzen Höhenflug aufgrund mangelnder Konkurrenzfähigkeit zum Übernahmekandidat wurden.
Das wiederrum ist ein anderes Thema und hat auch einen völlig anderen Grund gehabt.

Die Schwierigkeit bei multi GPUs liegt in der Effizienz der Leistungsverdoppelung genau das hat Nivdia und ATI damals nicht richtig geschafft so das SLI und Crossfire nicht wirklich gut waren, egal ob mit 2 Grafikkarten (stabilitäts- und Leistungsprobleme) oder 2 Chips auf einem Board (instabilitäten und verberbrauch).
 
Zuletzt bearbeitet:
Hoffentlich Made in EU -Die EU will künftig eine gewichtigere Rolle bei Mikrochips spielen: Regeln soll das der „Chips Act“, der am Dienstag vorgestellt worden ist. Insgesamt will die EU rund 43 Milliarden Euro mobilisieren, um weniger abhängig von anderen globalen Playern zu sein. Damit reagiert Brüssel auf die anhaltende Chipkrise – trotz ambitionierter Ziele ist aber unklar, wie selbstständig die EU überhaupt werden kann.
 
Bei dem was ich schrieb geht es nicht um Leistung sondern um die Technologie direkt im Bezug auf multi GPU-Chip.

3dfx hat kein einziges Multi-"GPU"-Design gefertigt (oder auch nur eine Single-Chip-GPU gemäß der Definition des Begriffs veröffentlicht) und ihre Mehrfachkarten auf Basis simpler Grafikchips nutzten nahezu durchgängig PCI-Derivate für die interne Kommunikation. Einzige Ausnahme könnten die Voodoo 5 5000 und 5500 sein – da konnte ich auf die schnelle nur Mutmaßungen zum verwendeten Interconnect finden. Aber das selbst die AAlchemy lieber zwei PCI-Bridges zu je vier VSA-100 verbaut hat anstatt vier Chip-Paare an eine Bridge zu hängen legt nahe, dass die interne Verbindung der 5000er recht eingeschränkt war.
 
Das stimmt so nicht, Torsten.

Selbst schreibst du im eigentlich Post von der Voodoo 5500 aber abseits von der gab es auch noch eine Multi GPU Möglichkeit, diese nannte sich Voodoo 2 welche zwar nicht 2 Chips auf einer Platine hatte dafür aber die Option hatte 2 Karten zusammen zu koppeln aka SLI.
 
Die Voodoo 2 bestand sogar aus drei Grafikchips und ja, man konnte zwei davon zu einem Gesamtpaket mit dann insgesamt sechs aktiven Stücken Silizium-Einheiten zusammenschalten. Die professionellen Gegenstück müssten bis 8× 3 gegangen sein oder später, beim höher integrierten VSA100, bis auf vier Karten zu je zwei Clustern zu je vier Chips für ein 32er-SLI-Gespann.

Aber kein einziger dieser Chips war eine GPU. Es waren für ihre Zeit flotte, aber gemäß ihrer Zeit (respektiv der Generation davor...) simple Ansammlungen von Texturierungs- und Pixelpipelines, aber alle komplexen Prozesse wurden der CPU überlassen. Mit GPUs kann man 3dfx' SLI-Technik kaum einsetzen. Nvidias SLI und AMDs Crossfire nutzten auf physischer Ebene zwar ähnliche Ansätze und ließen sich optional in einer ähnlichen SFR-Logik zusammenschalten, aber die Leistungsgewinne, die der doppelte Aufwand in diesem Modus brachte, waren so gering, dass dafür niemand eine zweite GPU bezahlen wollte. Dafür braucht es VIEL bessere Interconnects und Intels EMIB könnte der erste davon sein, der es in den Desktop-Massenmarkt schafft.
 
Zurück