Ich würde schon vorher eine Verlangsamung erwarten. Nicht, weil es nicht mehr schneller geht, sondern weil es keinen Sinn mehr macht. Gerade CPU-Leistung ist ein gutes Beispiel, aber auch bei der Grafik wird ähnliches passieren:
- Vor 20 Jahren hat man eine neue CPU gekauft, damit Office-Anwendungen schneller laufen. Heute haben die Mühe, ein Handy auszulasten.
- Vor 15 Jahren hat man eine neue CPU gekauft, damit Multimedia-Anwendungen schneller laufen. Heute haben die Mühe ein (gutes) Netbook auszulasten.
- Vor 10 Jahren hat man eine neue CPU gekauft, damit Spiele schneller laufen. Heute läuft die Mehrheit der Titel recht mühelos auf einem fünf Jahre alten PowerPC-Derivat.
- Vor 5 Jahren hat man eine neue CPU gekauft, damit die Grafikkarte rund um die Uhr und noch ein bißchen häufiger zu 100% ausgelastet ist. Aber manchmal auch nur, weil mans gewöhnt war. Heute schafft das, siehe oben, eigentlich immer noch eben jene CPU - zumindest wenn es ein Core2Quad war, wie auch diverse Mitglieder dieses Forums beweisen. Aber selbst ein hochtaktender C2D ist für einige noch genug.
Folglich: "heute kauft man siche eine neue CPU, damit - ähhhh. hmm. ?."
Klar gibt es immer noch Weiterentwicklung des vorhandenen und die Anforderungen steigen dadurch. Aber langsam. Nur dann, wenn jemand zumindest der Meinung ist, dass die Überarbeitung den Programmieraufwand rechtfertigt. Obere Punkte dagegen waren nicht nur evolutionär, es kamen ganze Blöcke hinzu. Interaktive Oberflächen. Ton und erste bewegte Bilder. Hochauflösende Echtzeitgrafik. Optik, die tatsächlich an die Realität erinnert und sie nicht nur symbolisiert, gepaart mit Physik, die zumindest Newton gehorcht.
Und jetzt? Jetzt versucht man sich noch an 3D, aber das scheitert -wie so oft- daran, an einer angenehmen Übertragung zum Nutzer. Und diesmal zeichnet sich auch nichts am Horizont ab, das kommen könnte. Wenn die Entwicklung von Hard- und Software ihren derzeitigen Trends folgt, dann reicht in 10 Jahren ein Atom(-Nachfolger, den Intel dann immer noch in Handys präsentiert, die nie auf den Markt kommen) für ALLES aus, was der Heimanwender damit machen will. Es wäre zwar technisch möglich, eine enthusiast extreme edition mit ebenso stark gesteigerter Leistung zu bauen. Aber so einen Rechner würde man nur noch kaufen, um alle anderen Geräte des Hauses als Thin Clients über diesen mit Rechenleistung zu versorgen. Diese Nutzung wird ggf. auch der Fall sein, aber dann braucht man eigentlich nicht diesen einen großen Chip. Noch mal 10, 20, 30 Jahre in die Zukunft extrapoliert ergibt sich ein Szenario, in dem eine 4 cm² CPU nach heutigem Vorbild, würde man sie denn bauen, Rechenleistung für die Bevölkerung einer ganzen Stadt liefern könnte. Solche Aufgaben können aber auch ebensogut Multi-CPU-Systeme übernehmen, die einfacher zu entwickeln sind.
Deswegen meine Prognose: Den CPU-Herstellern wird schon in 5-10 Jahren die klassische Motivation für immer stärkere CPUs ausgehen. Die einzige Grund, die Leistung pro CPU weiter zu steigern, wird die Vermeidung von Verbindungsproblemen und Packagingkosten bei mehreren CPUs bleiben. Aber das ist ein schwacher Grund und es gibt auch Gründe, die dagegen sprechen, weswegen die CPUs zunehmend kleiner werden (die Chips selbst halten, durch die fortschreitende Integration von GPUs, I/O und irgendwann auch RAM erstmal ihre Größe). Dank weiter steigender Effizienz wird die Leistung aber gleichbleibend hoch (ganz leicht steigend) sein.