Intel: Gesockelte CPUs noch bis 2016? Broadwell teilweise als BGA

Ich stell mir das komplett anders vor als du dir ;)

"optisch-elektrischer BGA-Sockel" ist da schon ne komplett falsche Wortwahl.

Klar hat man nen BGA-Sockel, aber der dient halt nur noch zur Stromversorgung, und nicht mehr zur Datenübermittlung. Die erfolgt rein optisch vom DIE runter. Also praktisch so was wie IBM gezeigt hat mit ihrer Glasfaseranbindung direkt an der Kante des DIEs auf dem Solilzium selbst.

RICHITG geil/interessant, wird die Sache vorallem, wenn du das mit FibreOnChip kombinierst. Da könntest du dann wirklich richtig gut skalierende Systeme bauen. Also vor allem auch dem Problem des hohen Energieaufwands beim hin und her schieben von Daten auf dem Chip entgegenwirken. Im Endeffekt halt das "ClusterOnChip" Design, das man schon bei MIC angegriffen hat, deutlich ausgebaut.

Damit bist du dann eigentlich alle Probleme los, was die Datenübertragung anbelangt. Vor allem wird das Package wirklich RICHTIG einfach.

Problem ist halt, wie du die Fasern da anbringen willst, und dann noch nen Kühler drauf pappst. Das ist nicht unbedingt ganz einfach.

Ein weiteres Problem ist halt, wie man Peripherie wie Netwerkkarten/GPUs usw. dort anschließt. Am Besten wäre natürlich genauso, dann hat man aber wirklich gar keine Möglichkeit mehr irgendwas aus zu tauschen. Bei Steckkarten kann ich mir aber durchaus vorstellen, das man 1-4 große Sockel baut, die dann eben auch die nötigen Toleranzen einhält, um optisch-optische Kopplungen zu erstellen. Je nachdem, kann man für Geräte, die nicht ganz so viel brauchen, auch elektrische Stecker bauen, die dann halt nur sehr sehr sehr kurze Strecken überbrücken müssen.

Ein Vorteil hat der Verzicht auf einen LGA/PGA Sockel ist halt, dass man, da die Verbindung eh Dauerhaft ist, auch gleich so was wie die "Direktwasserkühlung" von IBM umsetzen kann ohne Probleme. Ob da jetzt nen Kühler fest drauf sitzt, den ich nicht austauschen kann juckt dann auch keinen mehr. Die CPU kann ich ja eh nicht tauschen, und ne Direktwasserkühlung ist dsefinitiv Leistungsstark genug für alle Ansprüche. Das wäre sogar für "normale" OCler ein Schritt nach vorne, da das Ding zu kleinem Preis auf dem Niveau einer ausgewachsenen WaKü ist, oder sogar besser. Je nachdem wie viel Geld man in Pumpe und Radi investiert.

Man könnte halt recht einfach die Kühlung komplett dicht machen, ohne Wartungsmöglichkeit, wo die Gefahr der Verschmutzung besteht, wass dann die Mikro-/Nanokanäle verstopfen würden. Kann man ja direkt im Reinraum verbauen.

Wenn man ganz lustig ist, kann man ja auch gleich noch das Konzept aufgreifen, die Stromversorgung auch noch gleich über die Kühlflüssigkeit her zu stellen. Dann würde sogar der BGA Anteil des Sockels entfallen. Bleibt also nur noch die Anbindung für den I/O übrig.

Oder wenn man es dann ganz auf die Spitze treibt, nimmt man wieder den BGA-Sockel her, und packt da den elektrischen I/O für Display und Eben USB oder so dazu, was nicht viel Bandbreite braucht, und packt komplett alles andere auf einen Multi-DIE SOC/COC, bei dem man dann praktisch nur noch einzelne COCs mittels Glasfaser miteinander verbindet. DAS ist im Prinzip das große Fernziel.

300-1000W Leistungsaufnahme
Multi-DIE mittels Interposer
RAM per Interposer
MRAM/Phasechange-Memory/FRAM includiert
Accelerator direkt mit dabei
und für Spezialsachen noch nen kleinen FPGA dabei, quasi für Spezialanwendungen, bei denen man früher auch nen extra FPU-Chip zu den Prozessoren als Co-Prozessor dazugesteckt hat.

Das ist dann die "Consumer" Version.

Die HPC/Server-Variante hat dann halt noch x Glasfaserinterfaces, für die direkte Anbindung weiterer COCs. Da kann man dann auch die Variabilität rein bringen, ob man jetzt nen "0815" COC nimmt, oder nen CoProzessor/Accelerator oder auch nen Speicher, quasi wie nen NAS/SAN.

DAS ist dann nen richtig richtig geil skalierendes System.

Je nachdem, wie schnell der PC mit großer Rechenleistung verschwindet und uns mehr oder weniger freiwillig die Cloud aufs Auge gedrückt wird, umso schneller wachsen auch die gigantischen Rechenzentren. Ist ja heute schon bei google und Facebook so, dass sich selbst gebaubte Server rentieren aus Kostensicht, weil man eben so unglaublich viele hat, und sich die Energieersparnis rechnet. Da kann man dann mit den Einschränkungen auch leben ohne Probleme.

Unsere Gesellschaft könnte das durchaus auch weiter bringen, wenn man nur noch thin Clients hat, und eben an jeder Stelle den dicken Cluster im Rücken hat.

Der Weg dahin ist aber noch lang, und auch aufgrund des Datenschutzes, und der Gewinngier von Firmen, bin ich mir auch nicht sicher, ob wir das wirklich realisiert bekommen. Potenzial ist aber in dem Bereich vorhanden.

PS:
Um jetzt ganz den Bogen zu bekommen. Wenn Quantencomputer sich in 20, 30 oder 50 Jahren dann marktreif entwickelt haben, und gescheit nutzbar sind, dann wird man um zentrale Strukturen eh nicht rum kommen, da die nächsten x Jahrzehnte/Jahrhundert man die nicht auf Desktop-Niveau runter bekommen wird.
 
Klar hat man nen BGA-Sockel, aber der dient halt nur noch zur Stromversorgung, und nicht mehr zur Datenübermittlung. Die erfolgt rein optisch vom DIE runter. Also praktisch so was wie IBM gezeigt hat mit ihrer Glasfaseranbindung direkt an der Kante des DIEs auf dem Solilzium selbst.

Wie auch immer du vom Chip runterkommst ist eine Sache aber das hat nichts mit dem Sockel zu tun, denn der Sockel ist ja eine Verbindung der CPU Trägerplatine mit dem Mainboard...

Ob mit LGA, PGA, BGA oder einer Abwandlung mit optischen Kontakten, der CPU sitzt nicht direkt auf dem Board und das hat auch seine Gründe.

RICHITG geil/interessant, wird die Sache vorallem, wenn du das mit FibreOnChip kombinierst. Da könntest du dann wirklich richtig gut skalierende Systeme bauen. Also vor allem auch dem Problem des hohen Energieaufwands beim hin und her schieben von Daten auf dem Chip entgegenwirken. Im Endeffekt halt das "ClusterOnChip" Design, das man schon bei MIC angegriffen hat, deutlich ausgebaut.

Schön, hat aber auch nicht viel damit zu tun ob du den CPU auf einem Stecksockel oder BGA Sockel verbaust...

Ein weiteres Problem ist halt, wie man Peripherie wie Netwerkkarten/GPUs usw. dort anschließt. Am Besten wäre natürlich genauso, dann hat man aber wirklich gar keine Möglichkeit mehr irgendwas aus zu tauschen. Bei Steckkarten kann ich mir aber durchaus vorstellen, das man 1-4 große Sockel baut, die dann eben auch die nötigen Toleranzen einhält, um optisch-optische Kopplungen zu erstellen. Je nachdem, kann man für Geräte, die nicht ganz so viel brauchen, auch elektrische Stecker bauen, die dann halt nur sehr sehr sehr kurze Strecken überbrücken müssen.

Ebenfalls mit einfachen Linsensteckern, entweder in einen Sockel/Slot integriert (der dann aber in seiner Bauform deutlich von gegenwärtigen PCIe Slots abweichen würde) oder du behältst den elektrischen PCIe in seiner aktuellen Bauform und wenn du mehr Bandbreite brauchst steckst du an der Karte zusätzlich noch ein paar Lichtwellenleiterkabel an.

Problem ist halt, wie du die Fasern da anbringen willst, und dann noch nen Kühler drauf pappst. Das ist nicht unbedingt ganz einfach.
...

Ein Vorteil hat der Verzicht auf einen LGA/PGA Sockel ist halt, dass man, da die Verbindung eh Dauerhaft ist, auch gleich so was wie die "Direktwasserkühlung" von IBM umsetzen kann ohne Probleme. Ob da jetzt nen Kühler fest drauf sitzt, den ich nicht austauschen kann juckt dann auch keinen mehr. Die CPU kann ich ja eh nicht tauschen, und ne Direktwasserkühlung ist dsefinitiv Leistungsstark genug für alle Ansprüche. Das wäre sogar für "normale" OCler ein Schritt nach vorne, da das Ding zu kleinem Preis auf dem Niveau einer ausgewachsenen WaKü ist, oder sogar besser. Je nachdem wie viel Geld man in Pumpe und Radi investiert.

Man könnte halt recht einfach die Kühlung komplett dicht machen, ohne Wartungsmöglichkeit, wo die Gefahr der Verschmutzung besteht, wass dann die Mikro-/Nanokanäle verstopfen würden. Kann man ja direkt im Reinraum verbauen.

Zunächst möchte ich festhalten das die Direktwasserkühlung immernoch nicht unbedingt die beste (bei Raumtemperatur) denkbare Kühlung ist: meiner Meinung nach ist der Ansatz der direkt-Flüssigmetallkühlung bei der das Flüssigmetall gleichzeitig als Kühlmittel und elektrische Masse in einem 3D-Chip dient noch interressanter, ein Flüssigmetall hat auch eine höhere Wärmeleitfähigkeit und kann mit einer völlig wartungs- und verschleißfreien Magnethydrodynamischen Pumpe gepumpt werden.

Beide Techniken haben aber eines gemeinsam (abgesehen davon das sie beide von IBM entwickelt wurden): sie müssen vollständig wartungsfrei gebaut werden, winzige Schmutzpartikel könnten die Mikrokanäle verstopfen und zu einem "Infakt" führen. Bei Flüssigmetall kommt eventuell noch hinzu das dieses giftig (Quecksilber) oder an der Luft hochentzündlich (Natrium-Kalium) ist.

Allerdings wird man mit einer derartigen integrierten Kühlung nicht praktikabel auf die benötigte Radiatorfläche kommen oder zumindest den Nutzer bei der Wahl seiner Radiatorfläche stark einschränken; ich denke daher das hier eine zweistufige Kühllösung genutzt wird: Die integrierte On-Chip Flüssigmetall oder Wasserkühlung gibt die Wärme über einen trennbaren Plattenwärmetauscher (auch andere Bauformen sind denkbar) entweder an einen klassichen (Heatpipe-)Luftkühler oder an einen sekundären Wasserkreislauf weiter.
Will man extreme OC kommt man mit der Wasserkühlung auf ~0°C (bei reinem Wasser), mit der Flüssigmetallkühlung auf -39°C (Hg), -10°C (NaK) oder -19,5°C (Galistan); bei tieferen Temperaturen kann man das Kühlmittel durchfrieren (bei Wasser könnte es zu Problemen mit der Ausdehnung kommen) muss dabei aber mit einer stark inhomogenen Temperaturverteilung im Chip leben.

Wie auch immer: all diese Kühllösungen setzen nicht voraus das der CPU am Mainboard integriert ist, man könnte die Kühlung auch ohne weiteres praktisch als besserer Heatspreader auf dem CPU integrieren.

Ich denke auch das wir solche Kühllösungen langfristig nur bei HPC und eventuell High-End Server/Workstation CPUs vom Sandy Bridge-E Kaliber aufwärts sehen werden; mobile CPUs und deren Desktop Ableger dürfen garnicht so viel verbrauchen das eine solche Kühlung nötig wäre.

Und auch solange man mit klassischer Kühlung auskommen kann man sehe ich auch kein Problem in Zusammenhang mit der Verwendung von Lichtwellenleitern; allenfalls muss (wenn überhaupt) die Form von Heatspreader und eventuell auch die des Kühlers etwas angepasst werden was aber keine allzu große Tragödie wäre (GraKas haben ja schon jetzt zueinander weitgehend inkompatible Kühler).

RAM per Interposer
MRAM/Phasechange-Memory/FRAM includiert

Davon bin ich nicht begeistert.

Ich würde zwar ebenfalls RAM integrieren allerdings würde ich weiterhin die Möglichkeit diesen extern zu erweitern offenlassen, man könnte den Speicherbereich "einfach" in schnellen internen und "langsamen" externen RAM teilen.

Der RAM Bedarf ist einfach von Nutzer zu Nutzer zu unterschiedlich- und für manche Anwendungen kann man praktisch nie genug haben. RAM Braucht auch prinzipiell viel Chipfläche, es wäre nicht wirtschaftlich einfach "genug für alle" einzubauen.

Um jetzt ganz den Bogen zu bekommen. Wenn Quantencomputer sich in 20, 30 oder 50 Jahren dann marktreif entwickelt haben, und gescheit nutzbar sind, dann wird man um zentrale Strukturen eh nicht rum kommen, da die nächsten x Jahrzehnte/Jahrhundert man die nicht auf Desktop-Niveau runter bekommen wird.

Alles eine Frage der Kühltechnik... ich sehe keinen prinzipiellen Grund warum man Quantencomputer nicht recht kompakt bauen können sollte- es stellt sich auch die grundsätzliche Frage ob überhaupt jeder einen Quantencomputer braucht...
 
Zuletzt bearbeitet:
Zurück