Technisch wäre das möglich, aber praktisch macht es für CPUs kaum Sinn. Etwaige Leistungsvorteile durch die kürzere Vernetzung stehen in keinem Verhältnis zum Leistungsverlust durch die schwerere Kühlung und der Platzverbrauch von CPU-DIEs ist, im Vergleich zum Substrat, ohnehin gering. Vielleicht werden wir in Zukunft GPU-DIEs mit aufgesetztem VRAM sehen, aber bei CPUs hat das noch Zeit. (Intel hatte schon mal einen Many-Core-Experimentalchip im Labor mit einer zweiten Ebene für Cache)
Flash und DRAM belegen dagegen, aufgrund der zahlreichen benötigten Chips für angemessen Kapazität, wesentlich mehr Fläche, haben aber jeweils recht wenige Kontakte und somit einfache, kleine Substrate. Da lohnt sich Stapeln schon heute und wird, insbesondere bei Flash, fleißig praktiziert.
Weil er von den meisten nicht gekauft wird, denen man somit genau 0 Cent aus der Nase zieht?
Und der Geschwindigkeitszuwachs war vor 5 Jahren auch kaum größer. Ich persönlich würde seit bereits ~Mitte des letzten Jahrzehnts eine deutliche Abschwächung des Geschwindigkeitszuwachses sehen:
1998 - 2000: Pentium II 450 -> Pentium III 1000. > x2 in 2 Jahren
1999 - 2001: Athlon 600 -> Athlon 1400. > x2 in 2 Jahren
2000 - 2002: Pentium 4 1,5 -> Pentium 4 3,06. > x2 in 2 Jahren
2001 - 2003: XP1800+ -> XP 3200+. (fast) x2 in 2 Jahren
2003 - 2005: Pentium 4 3,2 -> Pentium D 840 (3,2 GHz). (fast) x2 in 2 Jahren
2004 - 2006: Athlon FX-55 (1x 2,6) -> Athlon FX-62 (2x 2,6) > x2 in 2 Jahren
2006 - 2008: C2E 2x 2,93 GHz -> C2QE 4x 3,2 GHz. > x2 ind 2 Jahren
Und spätestens da war dann ein Punkt erreicht, an dem man nicht nur mindestens eine Generation über die Bedürfnisse selbst höherer Office-Anforderungen hinaus war, sondern wo sich auch Gamer und ambitionierte Heimnutzer auch Jahre später noch sagten: "Reicht mir noch". Ergebnis?
2008 - 2012: i7-965 (4x 3,2 GHz Bloomfield) -> i7 3970X (6x 3,5 GHz SB-E). Vielleicht x2. knapp. In
4 Jahren.
2010 - 2011: x6 1090BE -> FX 8150. Okay, nur 1,75 Jahre. Leistungsänderung: Faktor x0,95?
2011 - 2013: 2600K -> 4770K. Vielleicht x1,5. In 2,5 Jahren.
2011 - 2014: FX 8150 -> FX 9590. Faktor x1,2 bei der Rechenleistung (x2 bei der Heizleistung). vermutlich auch noch bis 2015..
In dieser Zeit ist aber die Effizienz (außer bei den FX) durchaus in gewohntem Maße weitergestiegen und Server-CPUs zeigen auch entsprechend Mehrleistung. Aber es gibt für die meisten Endverbraucher schlichtweg keinen Grund mehr, nach mehr Leistung zu fragen. Bei Neukäufen zählt allenfalls "nicht lahmer, als der letzte. Aber billig, kompakt, sparsam". Man gucke ich die Masse an hochkompakten PCs mit Bay-Trail Pentiums und Celerons an, die gerade den Markt überschwemmen. Das ist, trotz neuer Namen, die alte Atom-Leistungsklasse, die es vor 10 Jahren noch gar nicht gab und die vor 5 Jahren für Anwendungszwecke wie "eine Webseite darstellen. Aber nicht 2. Und auch nicht schnell" geschaffen wurde. Mitterlerweile ist selbst die für die gesamte Palette an Tätigkeiten ausreichend, bei der man vor 15 Jahren noch gute Gründe gefunden hätte, vom High-End-Modell eines Jahres auf das des folgenden aufzurüsten.
Kein Wunder, dass die Hersteller 3-4 Leistungsklassen darüber wenig Aufmerksamkeit investieren. Vor 15 Jahren gab es überhaupt nur zwei in der laufenden Produktion. Als der Celeron 300A als erster reiner Low-End-DIE eingeführt wurde, war die "Enthusiast-CPU" der Pentium II 450. Und nicht schneller, als ein ans Limit übertakteter 300A.
Heute wird ein Bay-Trail Mühe haben, einen Dual-Core-Haswell-Pentium zu schlagen, dessen AE wiederum schlägt geradeso die mittleren Core i3, deren Rohleistung liegt um den Faktor 2 hinter den i5 hinterher und So2011 überbietet die noch einmal locker um den Faktor2. Man kann also wirklich nicht behaupten, die Hersteller hätten ihr Angebot zusammengestrichen - im Gegenteil. Nur interessiert sich kaum ein Endnutzer für das obere Ende, entsprechend werden auch in der Entwicklung Prioritäten gesetzt.
Aber Gott sei dank gibts Wissenschaftler die an alternativen arbeiten.Es gibts ja dieses Projekt für Rechenzentren ich glaube es war für Krebsforschung das die Leute die ihren Rechner über Nacht oder am Tag je nach dem wann sie es nicht benötigen zu Verfügung stellen um mehr Rechenleistung bereit zustellen.Ich könnte mir gut vorstellen in Zukunft egal in welcher Form die CPU es sein wird,das man sich unter den Usern die Rechenleistung sich teilen tut über das Internet.Das wär für alle ein Quantensprung
Das nennt sich Cloud-Computing und ist ebenso alt wie unpopulär. In Anbetracht der massiv steigenden Rechenleistung im ARM-Segment, sowie der Verlagerung von Aktivitäten auf zugehörige Geräte, dürften in den nächsten Jahren wohl eher Tablets mit Dock den Markt übernehmen können, als Cloud-Endgeräte.
Auf keinen Fall eine große Rolle spielen werden: High-End-CPUs.