Skysnake
Lötkolbengott/-göttin
Ich stell mir das komplett anders vor als du dir
"optisch-elektrischer BGA-Sockel" ist da schon ne komplett falsche Wortwahl.
Klar hat man nen BGA-Sockel, aber der dient halt nur noch zur Stromversorgung, und nicht mehr zur Datenübermittlung. Die erfolgt rein optisch vom DIE runter. Also praktisch so was wie IBM gezeigt hat mit ihrer Glasfaseranbindung direkt an der Kante des DIEs auf dem Solilzium selbst.
RICHITG geil/interessant, wird die Sache vorallem, wenn du das mit FibreOnChip kombinierst. Da könntest du dann wirklich richtig gut skalierende Systeme bauen. Also vor allem auch dem Problem des hohen Energieaufwands beim hin und her schieben von Daten auf dem Chip entgegenwirken. Im Endeffekt halt das "ClusterOnChip" Design, das man schon bei MIC angegriffen hat, deutlich ausgebaut.
Damit bist du dann eigentlich alle Probleme los, was die Datenübertragung anbelangt. Vor allem wird das Package wirklich RICHTIG einfach.
Problem ist halt, wie du die Fasern da anbringen willst, und dann noch nen Kühler drauf pappst. Das ist nicht unbedingt ganz einfach.
Ein weiteres Problem ist halt, wie man Peripherie wie Netwerkkarten/GPUs usw. dort anschließt. Am Besten wäre natürlich genauso, dann hat man aber wirklich gar keine Möglichkeit mehr irgendwas aus zu tauschen. Bei Steckkarten kann ich mir aber durchaus vorstellen, das man 1-4 große Sockel baut, die dann eben auch die nötigen Toleranzen einhält, um optisch-optische Kopplungen zu erstellen. Je nachdem, kann man für Geräte, die nicht ganz so viel brauchen, auch elektrische Stecker bauen, die dann halt nur sehr sehr sehr kurze Strecken überbrücken müssen.
Ein Vorteil hat der Verzicht auf einen LGA/PGA Sockel ist halt, dass man, da die Verbindung eh Dauerhaft ist, auch gleich so was wie die "Direktwasserkühlung" von IBM umsetzen kann ohne Probleme. Ob da jetzt nen Kühler fest drauf sitzt, den ich nicht austauschen kann juckt dann auch keinen mehr. Die CPU kann ich ja eh nicht tauschen, und ne Direktwasserkühlung ist dsefinitiv Leistungsstark genug für alle Ansprüche. Das wäre sogar für "normale" OCler ein Schritt nach vorne, da das Ding zu kleinem Preis auf dem Niveau einer ausgewachsenen WaKü ist, oder sogar besser. Je nachdem wie viel Geld man in Pumpe und Radi investiert.
Man könnte halt recht einfach die Kühlung komplett dicht machen, ohne Wartungsmöglichkeit, wo die Gefahr der Verschmutzung besteht, wass dann die Mikro-/Nanokanäle verstopfen würden. Kann man ja direkt im Reinraum verbauen.
Wenn man ganz lustig ist, kann man ja auch gleich noch das Konzept aufgreifen, die Stromversorgung auch noch gleich über die Kühlflüssigkeit her zu stellen. Dann würde sogar der BGA Anteil des Sockels entfallen. Bleibt also nur noch die Anbindung für den I/O übrig.
Oder wenn man es dann ganz auf die Spitze treibt, nimmt man wieder den BGA-Sockel her, und packt da den elektrischen I/O für Display und Eben USB oder so dazu, was nicht viel Bandbreite braucht, und packt komplett alles andere auf einen Multi-DIE SOC/COC, bei dem man dann praktisch nur noch einzelne COCs mittels Glasfaser miteinander verbindet. DAS ist im Prinzip das große Fernziel.
300-1000W Leistungsaufnahme
Multi-DIE mittels Interposer
RAM per Interposer
MRAM/Phasechange-Memory/FRAM includiert
Accelerator direkt mit dabei
und für Spezialsachen noch nen kleinen FPGA dabei, quasi für Spezialanwendungen, bei denen man früher auch nen extra FPU-Chip zu den Prozessoren als Co-Prozessor dazugesteckt hat.
Das ist dann die "Consumer" Version.
Die HPC/Server-Variante hat dann halt noch x Glasfaserinterfaces, für die direkte Anbindung weiterer COCs. Da kann man dann auch die Variabilität rein bringen, ob man jetzt nen "0815" COC nimmt, oder nen CoProzessor/Accelerator oder auch nen Speicher, quasi wie nen NAS/SAN.
DAS ist dann nen richtig richtig geil skalierendes System.
Je nachdem, wie schnell der PC mit großer Rechenleistung verschwindet und uns mehr oder weniger freiwillig die Cloud aufs Auge gedrückt wird, umso schneller wachsen auch die gigantischen Rechenzentren. Ist ja heute schon bei google und Facebook so, dass sich selbst gebaubte Server rentieren aus Kostensicht, weil man eben so unglaublich viele hat, und sich die Energieersparnis rechnet. Da kann man dann mit den Einschränkungen auch leben ohne Probleme.
Unsere Gesellschaft könnte das durchaus auch weiter bringen, wenn man nur noch thin Clients hat, und eben an jeder Stelle den dicken Cluster im Rücken hat.
Der Weg dahin ist aber noch lang, und auch aufgrund des Datenschutzes, und der Gewinngier von Firmen, bin ich mir auch nicht sicher, ob wir das wirklich realisiert bekommen. Potenzial ist aber in dem Bereich vorhanden.
PS:
Um jetzt ganz den Bogen zu bekommen. Wenn Quantencomputer sich in 20, 30 oder 50 Jahren dann marktreif entwickelt haben, und gescheit nutzbar sind, dann wird man um zentrale Strukturen eh nicht rum kommen, da die nächsten x Jahrzehnte/Jahrhundert man die nicht auf Desktop-Niveau runter bekommen wird.
"optisch-elektrischer BGA-Sockel" ist da schon ne komplett falsche Wortwahl.
Klar hat man nen BGA-Sockel, aber der dient halt nur noch zur Stromversorgung, und nicht mehr zur Datenübermittlung. Die erfolgt rein optisch vom DIE runter. Also praktisch so was wie IBM gezeigt hat mit ihrer Glasfaseranbindung direkt an der Kante des DIEs auf dem Solilzium selbst.
RICHITG geil/interessant, wird die Sache vorallem, wenn du das mit FibreOnChip kombinierst. Da könntest du dann wirklich richtig gut skalierende Systeme bauen. Also vor allem auch dem Problem des hohen Energieaufwands beim hin und her schieben von Daten auf dem Chip entgegenwirken. Im Endeffekt halt das "ClusterOnChip" Design, das man schon bei MIC angegriffen hat, deutlich ausgebaut.
Damit bist du dann eigentlich alle Probleme los, was die Datenübertragung anbelangt. Vor allem wird das Package wirklich RICHTIG einfach.
Problem ist halt, wie du die Fasern da anbringen willst, und dann noch nen Kühler drauf pappst. Das ist nicht unbedingt ganz einfach.
Ein weiteres Problem ist halt, wie man Peripherie wie Netwerkkarten/GPUs usw. dort anschließt. Am Besten wäre natürlich genauso, dann hat man aber wirklich gar keine Möglichkeit mehr irgendwas aus zu tauschen. Bei Steckkarten kann ich mir aber durchaus vorstellen, das man 1-4 große Sockel baut, die dann eben auch die nötigen Toleranzen einhält, um optisch-optische Kopplungen zu erstellen. Je nachdem, kann man für Geräte, die nicht ganz so viel brauchen, auch elektrische Stecker bauen, die dann halt nur sehr sehr sehr kurze Strecken überbrücken müssen.
Ein Vorteil hat der Verzicht auf einen LGA/PGA Sockel ist halt, dass man, da die Verbindung eh Dauerhaft ist, auch gleich so was wie die "Direktwasserkühlung" von IBM umsetzen kann ohne Probleme. Ob da jetzt nen Kühler fest drauf sitzt, den ich nicht austauschen kann juckt dann auch keinen mehr. Die CPU kann ich ja eh nicht tauschen, und ne Direktwasserkühlung ist dsefinitiv Leistungsstark genug für alle Ansprüche. Das wäre sogar für "normale" OCler ein Schritt nach vorne, da das Ding zu kleinem Preis auf dem Niveau einer ausgewachsenen WaKü ist, oder sogar besser. Je nachdem wie viel Geld man in Pumpe und Radi investiert.
Man könnte halt recht einfach die Kühlung komplett dicht machen, ohne Wartungsmöglichkeit, wo die Gefahr der Verschmutzung besteht, wass dann die Mikro-/Nanokanäle verstopfen würden. Kann man ja direkt im Reinraum verbauen.
Wenn man ganz lustig ist, kann man ja auch gleich noch das Konzept aufgreifen, die Stromversorgung auch noch gleich über die Kühlflüssigkeit her zu stellen. Dann würde sogar der BGA Anteil des Sockels entfallen. Bleibt also nur noch die Anbindung für den I/O übrig.
Oder wenn man es dann ganz auf die Spitze treibt, nimmt man wieder den BGA-Sockel her, und packt da den elektrischen I/O für Display und Eben USB oder so dazu, was nicht viel Bandbreite braucht, und packt komplett alles andere auf einen Multi-DIE SOC/COC, bei dem man dann praktisch nur noch einzelne COCs mittels Glasfaser miteinander verbindet. DAS ist im Prinzip das große Fernziel.
300-1000W Leistungsaufnahme
Multi-DIE mittels Interposer
RAM per Interposer
MRAM/Phasechange-Memory/FRAM includiert
Accelerator direkt mit dabei
und für Spezialsachen noch nen kleinen FPGA dabei, quasi für Spezialanwendungen, bei denen man früher auch nen extra FPU-Chip zu den Prozessoren als Co-Prozessor dazugesteckt hat.
Das ist dann die "Consumer" Version.
Die HPC/Server-Variante hat dann halt noch x Glasfaserinterfaces, für die direkte Anbindung weiterer COCs. Da kann man dann auch die Variabilität rein bringen, ob man jetzt nen "0815" COC nimmt, oder nen CoProzessor/Accelerator oder auch nen Speicher, quasi wie nen NAS/SAN.
DAS ist dann nen richtig richtig geil skalierendes System.
Je nachdem, wie schnell der PC mit großer Rechenleistung verschwindet und uns mehr oder weniger freiwillig die Cloud aufs Auge gedrückt wird, umso schneller wachsen auch die gigantischen Rechenzentren. Ist ja heute schon bei google und Facebook so, dass sich selbst gebaubte Server rentieren aus Kostensicht, weil man eben so unglaublich viele hat, und sich die Energieersparnis rechnet. Da kann man dann mit den Einschränkungen auch leben ohne Probleme.
Unsere Gesellschaft könnte das durchaus auch weiter bringen, wenn man nur noch thin Clients hat, und eben an jeder Stelle den dicken Cluster im Rücken hat.
Der Weg dahin ist aber noch lang, und auch aufgrund des Datenschutzes, und der Gewinngier von Firmen, bin ich mir auch nicht sicher, ob wir das wirklich realisiert bekommen. Potenzial ist aber in dem Bereich vorhanden.
PS:
Um jetzt ganz den Bogen zu bekommen. Wenn Quantencomputer sich in 20, 30 oder 50 Jahren dann marktreif entwickelt haben, und gescheit nutzbar sind, dann wird man um zentrale Strukturen eh nicht rum kommen, da die nächsten x Jahrzehnte/Jahrhundert man die nicht auf Desktop-Niveau runter bekommen wird.