Irgendwann max Leistung der CPU und GPUs erreicht?

Wann word es keine schnelleren CPUs und GPUs geben?

  • In 15 Jahren

    Stimmen: 6 4,5%
  • In 25 Jahren

    Stimmen: 3 2,2%
  • In 40 Jahren

    Stimmen: 4 3,0%
  • Es wird immer schnellere CPUs und GPUs geben

    Stimmen: 121 90,3%

  • Anzahl der Umfrageteilnehmer
    134

Gamer090

PCGH-Community-Veteran(in)
Hi zusammen

Hinundwieder kommen neue CPUs und GPUs auf den Markt und immer schneller, Ausnahme natürlich die schwächeren Modelle einer Serie, doch wann wird es keine schnelleren CPUs und GPUs geben? Kommen die Materialien irgendwann an ihre Grenzen in der Herstellung?
Jedes Material hat seine Belastungsgrenze, wie wird es dann sein? Hahndy-CPUs im PC? Sollen ja sehr wenig Strom fressen und sehr LEistungsfähig sein für den Saft den die brauchen, der Hersteller soclher CPUs fälllt mir nicht gerade ein
 
Ich denke das es mit Silizium irgendwann nicht mehr weiter geht, aber die Wissenschaft sucht ja nach neuen Halbleitern, die irgendwann das Silizium ersetzen.
 
Lichtleitertechnick in einer CPU oder GPU? In einem GLasfasserkabel gibt es sowas schon aber was soll sowas in einem CPU oider GPU bringen? Die Wege sind ja sehr kurz dort drin

Naja nach bisherigen Stand - wir wissen ja nicht wirklich, was die Zukunft an technischen Entdeckungen mit sich bringen wird..;)
 
[x] Es wird immer schnellere CPUs und GPUs geben

Wenn nicht auf Silizium-Basis dann eben was anderes. Bis dahin werden wir die Leistung und Effektivität unserer Silizium-Chips auch so steigern können (Intels 3D Transistoren sind wieder so ein Beispiel). Als es nur mit der Taktrate nicht mehr weiterging kamen halt Mehrkernprozessoren.
 
Wie gesagt, wenn die Strukturbreite von Silizium nicht mehr weiter halbiert werden kann, muss vermutlich auf ein anderes Material zurückgegriffen werden.. Ich bin schon gespannt darauf wann, die ersten Quantencomputer für den Markt kommen und wie es dann weiter geht.. :wow:
 
Lichtleitertechnick in einer CPU oder GPU? In einem GLasfasserkabel gibt es sowas schon aber was soll sowas in einem CPU oider GPU bringen? Die Wege sind ja sehr kurz dort drin


Soweit ich weiß Forschen die Israelis schon an CPU`s die mit Licht arbeiten.

Soll dann glaub ich 10 mal schneller sein.

Habs nicht mehr richtig im Kopf.
 
Als erstes fallen mir da ein paar Zitate ein:

"Ich denke, dass es einen Weltmarkt für vielleicht fünf Computer gibt."
Thomas J. Watson, Vorstandsvorsitzender von IBM, 1943


oder

"Es gibt keinen Grund, warum sich irgendjemand einen Computer in sein Haus stellen sollte."
Ken Olson, Präsident, Vorsitzender und Gründer von Digital Equipment Corp., 1977


[FONT=Helvetica, Verdana, Arial, sans-serif][SIZE=-1][SIZE=-1]Aber der geilste von allen[/SIZE][/SIZE][/FONT][FONT=Helvetica, Verdana, Arial, sans-serif][SIZE=-1][SIZE=-1]...
"Es gibt nichts Neues mehr. Alles, was man erfinden kann, ist schon erfunden."
[/SIZE][/SIZE][/FONT][FONT=Helvetica, Verdana, Arial, sans-serif][SIZE=-1][SIZE=-1]
Charles H. Duell, der leitende Angestellte des US-Patentamtes machte 1899 einen ungewöhnlichen Vorschlag:
Man könne das Patentamt schließen, mit neuen Patentanmeldungen sei nicht mehr zu rechnen!
[/SIZE][/SIZE][/FONT][FONT=Helvetica, Verdana, Arial, sans-serif][SIZE=-1][SIZE=-1]
Ich bin kein Innovations-Pessimist, deshalb glaube ich, es gibt immer ein schneller, weiter, höher[/SIZE][/SIZE][/FONT]....
[FONT=Helvetica, Verdana, Arial, sans-serif][SIZE=-1][SIZE=-1]

[/SIZE][/SIZE][/FONT]
 
Zweifelsohne wird irgendwann, in vielleicht 20-40 Jahren, das exponentielle Wachstum nach dem Mooreschen Gesetz zu Ende gehen und das Wachstum wird sich verlangsamen; wirklich zu Ende gehen wird das Wachstum aber in Absehbarer Zukunft nicht, ich denke, dass es auch noch in 100 Jahren schnellere CPUs geben wird als in 95 Jahren; dass es dann noch dezidierte GPUs im klassischen Sinn geben wird bezweifle ich aber
 
Ich würde schon vorher eine Verlangsamung erwarten. Nicht, weil es nicht mehr schneller geht, sondern weil es keinen Sinn mehr macht. Gerade CPU-Leistung ist ein gutes Beispiel, aber auch bei der Grafik wird ähnliches passieren:

- Vor 20 Jahren hat man eine neue CPU gekauft, damit Office-Anwendungen schneller laufen. Heute haben die Mühe, ein Handy auszulasten.
- Vor 15 Jahren hat man eine neue CPU gekauft, damit Multimedia-Anwendungen schneller laufen. Heute haben die Mühe ein (gutes) Netbook auszulasten.
- Vor 10 Jahren hat man eine neue CPU gekauft, damit Spiele schneller laufen. Heute läuft die Mehrheit der Titel recht mühelos auf einem fünf Jahre alten PowerPC-Derivat.
- Vor 5 Jahren hat man eine neue CPU gekauft, damit die Grafikkarte rund um die Uhr und noch ein bißchen häufiger zu 100% ausgelastet ist. Aber manchmal auch nur, weil mans gewöhnt war. Heute schafft das, siehe oben, eigentlich immer noch eben jene CPU - zumindest wenn es ein Core2Quad war, wie auch diverse Mitglieder dieses Forums beweisen. Aber selbst ein hochtaktender C2D ist für einige noch genug.

Folglich: "heute kauft man siche eine neue CPU, damit - ähhhh. hmm. ?."
Klar gibt es immer noch Weiterentwicklung des vorhandenen und die Anforderungen steigen dadurch. Aber langsam. Nur dann, wenn jemand zumindest der Meinung ist, dass die Überarbeitung den Programmieraufwand rechtfertigt. Obere Punkte dagegen waren nicht nur evolutionär, es kamen ganze Blöcke hinzu. Interaktive Oberflächen. Ton und erste bewegte Bilder. Hochauflösende Echtzeitgrafik. Optik, die tatsächlich an die Realität erinnert und sie nicht nur symbolisiert, gepaart mit Physik, die zumindest Newton gehorcht.
Und jetzt? Jetzt versucht man sich noch an 3D, aber das scheitert -wie so oft- daran, an einer angenehmen Übertragung zum Nutzer. Und diesmal zeichnet sich auch nichts am Horizont ab, das kommen könnte. Wenn die Entwicklung von Hard- und Software ihren derzeitigen Trends folgt, dann reicht in 10 Jahren ein Atom(-Nachfolger, den Intel dann immer noch in Handys präsentiert, die nie auf den Markt kommen) für ALLES aus, was der Heimanwender damit machen will. Es wäre zwar technisch möglich, eine enthusiast extreme edition mit ebenso stark gesteigerter Leistung zu bauen. Aber so einen Rechner würde man nur noch kaufen, um alle anderen Geräte des Hauses als Thin Clients über diesen mit Rechenleistung zu versorgen. Diese Nutzung wird ggf. auch der Fall sein, aber dann braucht man eigentlich nicht diesen einen großen Chip. Noch mal 10, 20, 30 Jahre in die Zukunft extrapoliert ergibt sich ein Szenario, in dem eine 4 cm² CPU nach heutigem Vorbild, würde man sie denn bauen, Rechenleistung für die Bevölkerung einer ganzen Stadt liefern könnte. Solche Aufgaben können aber auch ebensogut Multi-CPU-Systeme übernehmen, die einfacher zu entwickeln sind.
Deswegen meine Prognose: Den CPU-Herstellern wird schon in 5-10 Jahren die klassische Motivation für immer stärkere CPUs ausgehen. Die einzige Grund, die Leistung pro CPU weiter zu steigern, wird die Vermeidung von Verbindungsproblemen und Packagingkosten bei mehreren CPUs bleiben. Aber das ist ein schwacher Grund und es gibt auch Gründe, die dagegen sprechen, weswegen die CPUs zunehmend kleiner werden (die Chips selbst halten, durch die fortschreitende Integration von GPUs, I/O und irgendwann auch RAM erstmal ihre Größe). Dank weiter steigender Effizienz wird die Leistung aber gleichbleibend hoch (ganz leicht steigend) sein.
 
Deswegen meine Prognose: Den CPU-Herstellern wird schon in 5-10 Jahren die klassische Motivation für immer stärkere CPUs ausgehen. Die einzige Grund, die Leistung pro CPU weiter zu steigern, wird die Vermeidung von Verbindungsproblemen und Packagingkosten bei mehreren CPUs bleiben.
Das gilt, sofern unser Alltag so bleibt wie er ist. Wenn das der Anspruch der Menschheit wäre, hätte man aber auch schon 1975 aufhören und PCs der Nasa und den Geheimdiensten überlassen können. Der nächste große Schritt wäre eine brauchbare künstliche Intelligenz, die uns im Alltag unterstützt - also nicht der Kinderkram, den Apple grade mit Siri macht :ugly:.

Dummerweise liegt zwischen der Rechenleistung und der Software, die dafür nötig sind und dem was heute möglich ist, eine so große Lücke, dass wir uns kaum vorstellen können, dass soetwas tatsächlich mal kommt.

Thema Grenzen der Herstellung:
Die physikalischen Grenzen sind frühestens dann erreicht, wenn wir einen Chip bauen können, der in seiner Struktur und Flexibilität dem menschlichen Gehirn entspricht und ich denke, das wird keiner von uns mehr erleben.
 
Es wird immer schneller geben ;D

Man sagt doch immer, "ok, jtz gehts aber nicht mehr schnelle", und zack, es ging doch noch schneller :D
 
Zurück