TSMC: So soll Moore's Law auch weiterhin eingehalten werden

Irgendwann, in absehbarer Zeit, ist jedenfalls damit Schluss, denn kleiner als ein Atom geht halt nicht... ;)
5 nm werden schon schwierig werden, darunter sind wir bei Silizium schon bei 8-10 Atom-Lagen...(Intel kann ein Lied davon singen... ;) )
Daher dürfte in Zukunft es wohl massiv auf Multi-CPU und wohl auch auf Multi-GPU Architekturen hinauslaufen (Chiplets).

mfg

Man beachte das die aktuellen Namen nicht mehr den Gategrößen entsprechen! auch 3nm und so werden durch angepasste Fertigungen noch gehen und die entsprechende Platzersparnis bringen. Aber ja wir müssen nicht mal auf 1 Atom warten. Bei wenigen Atomlagen werden die Leckströme schon massiv zu nehmen und nicht mehr aufzuhalten sein. Wir nähern uns nächstes Jahrzehnt (Schätzung) definitiv dem Ende hin mit aktuellen Techniken.
Entweder neue Technologien wie Quanten Computer (wo man schauen muss wo die Reise hingeht), ganz neue Sachen oder eben größere Chips sorgen dann auf Dauer für mehr Leistung.
 
Nun Quantencomputer schön und gut, aber letztlich sind die eben nur für ganz bestimmte Aufgaben zu gebrauchen. Alltagsrechner so wie wir sie heute als PCs kennen wirds davon vermutlich nie geben.

Eher wird das Thema Streamingwichtiger werden. Sprich man hat daheim nen Client, der klein, stromsparend und ggf gar nicht mehr als PC zu erkennen ist und für alles was der nicht selbst kann wird auf potente Server zurückgegriffen. Je nach Aufgabe könnte da dann auch ein Quantencomputer dabei sein...
 
Deswegen steht da auch meine Anmerkung in Klammern dabei. Aber was wirklich bei herum kommt weiß momentan effektiv keiner weil die Forschung in den Kinderschuhen steckt. Es wird noch daran geforscht welche Qubit aufbauten am besten sind, wie man sie am besten baut etc. Das ist in etwa Vergleichbar mit den ersten Recheneinheiten aus Transistoren. Und dabei dachte auch noch niemand das irgendwann jeder einen Computer daheim hat, geschweige denn mehrere sogar in Taschenformat.

Und es wird immer Weiterentwicklung gesucht werden in Form von wirklicher Leistungssteigerung. Für Heimanwender mag irgendwann der Punkt der Stagnation kommen aber für die Industrie und Forschung wird Streaming irrelevant bleiben.
 
In der Industrie und Forschung ist Streaming schon heute gelebter Alltag. Wie kommst du auf die steile These, daß dem nicht so sei? Da wird schon seit Urzeiten Rechenzeit auf Servern gebucht, externe Datenbanken genutzt und nicht zuletzt Storage ausgelagert. Die Rechenzentren boomen nicht zum Spaß...

Bei Quantenrechnern ist mir schon klar, dass die Entwicklung am Anfang steht, es ist aber auch klar, dass diese nur für bestimmte Aufgabenstellungen Vorteile bringen. Ich will und kann nicht ausschließen, dass es zukünftig neue, weitere Technologien geben könnte, die wiederum ganz anders arbeiten und dann auch im Alltag erhebliche Vorteile ggü allem was es heute gibt bringen werden, aber das muss man sehen.
 
Und du glaubst diese Rechenfarmen können beliebig groß skalieren? Es ist ein RIESEN Unterschied zwischen ich buche Rechenzeit um da Forschungsaufgaben laufen zu lassen oder ich streame mir Rechenleistung heim
Forschungszentren wie CERN können nicht mal nebenbei irgendwo Rechenleistung für nen Tag mieten. Die benötigen diese Nonstop. Große Unis versuchen nach Möglichkeit diese Superrechner bei sich zu haben um es im Idealfall übers Intranet anzusprechen. Es gibt auch dort genügend Live-Simulationen die massig Leistung benötigen.

Das Streaming daheim ist was völlig anderes.
 
Technisch ist es für die Clients kein großer Unterschied ob die Serverleistung intern oder extern zur Verfügung steht. Deren Rechenleistung muss deswegen nicht größer oder kleiner sein.

CERN usw. sind abgesehen davon absolute Ausnahmen. Institute und Firmen, die Rechenleistung dauerhaft in der Größenordnung brauchen sind sehr rar. Hier war die Rede von Forschung und Industrie. Da sind die gestellten Aufgaben im Normalfall wesentlich überschaubarer und oftmals schon seit langem ausgelagert.
Bitte nicht so tun, als ob Industrie und Forschung nur aus Grundlagenforschung a la CERN besteht! Daimler hat schon zu meiner Zeit in Stuttgart an der Uni ins Rechenzentrum Berechnungen ausgelagert, weil die eben keinen auch nur annähernd vergleichbaren Rechner hatten.

Unsere Berechnungsabteilung braucht keine Superrechner, das wäre dann doch überzogen, dennoch verwenden wir mehrere Numbercruncher um die (dennoch sehr potenten) Clients zu entlasten. Diese werden z.T. aus aller Welt mit Aufgaben bestückt und rechnen dann eben Tag und Nacht. Der könnte aber im Prinzip genauso extern sein, das wäre technisch und fürs Ergebnis egal. Es ist eine einfache Nutzen/Kosten Rechnung. Wenn es extern billiger ist, dann wirds extern gemacht, wenn es intern ist, dann eben intern.
Unser SAP System läuft schon lange in St. Leon-Rot und nicht mehr intern, andere Firmen haben das genauso gelöst, auch unsere Daten liegen schon seit geraumer Zeit dort - ist einfach billiger.

Es ging ja hier um die Fragestellung, ob sich Streaming bei Industrie und Forschung durchsetzen wird. Diese Frage ist eben obsolet, weil das hat es sich bereits seit langem.
 
Nein, deswegen wurde ja auch niemand bestraft, wenn er es nicht einhält;)

Moores Gesetz ist schon längst Geschichte, auch das was TSMC da behauptet ändert daran nichts!
 
Technisch ist es für die Clients kein großer Unterschied ob die Serverleistung intern oder extern zur Verfügung steht. Deren Rechenleistung muss deswegen nicht größer oder kleiner sein.

CERN usw. sind abgesehen davon absolute Ausnahmen. Institute und Firmen, die Rechenleistung dauerhaft in der Größenordnung brauchen sind sehr rar. Hier war die Rede von Forschung und Industrie. Da sind die gestellten Aufgaben im Normalfall wesentlich überschaubarer und oftmals schon seit langem ausgelagert.
Bitte nicht so tun, als ob Industrie und Forschung nur aus Grundlagenforschung a la CERN besteht! Daimler hat schon zu meiner Zeit in Stuttgart an der Uni ins Rechenzentrum Berechnungen ausgelagert, weil die eben keinen auch nur annähernd vergleichbaren Rechner hatten.

Unsere Berechnungsabteilung braucht keine Superrechner, das wäre dann doch überzogen, dennoch verwenden wir mehrere Numbercruncher um die (dennoch sehr potenten) Clients zu entlasten. Diese werden z.T. aus aller Welt mit Aufgaben bestückt und rechnen dann eben Tag und Nacht. Der könnte aber im Prinzip genauso extern sein, das wäre technisch und fürs Ergebnis egal. Es ist eine einfache Nutzen/Kosten Rechnung. Wenn es extern billiger ist, dann wirds extern gemacht, wenn es intern ist, dann eben intern.
Unser SAP System läuft schon lange in St. Leon-Rot und nicht mehr intern, andere Firmen haben das genauso gelöst, auch unsere Daten liegen schon seit geraumer Zeit dort - ist einfach billiger.

Es ging ja hier um die Fragestellung, ob sich Streaming bei Industrie und Forschung durchsetzen wird. Diese Frage ist eben obsolet, weil das hat es sich bereits seit langem.

Ja ich gebe dir Recht Industrie und Forschung so war zu allgemein gehalten. Aber meinen darauffolgenden Ausführungen nach sollte klar gewesen sein was gemeint ist.... Und diese großen Grundlagenforschungen sind eben jene welche das Hauptverlangen nach mehr Rechenleistung voran treiben.
 
Ja ich gebe dir Recht Industrie und Forschung so war zu allgemein gehalten. Aber meinen darauffolgenden Ausführungen nach sollte klar gewesen sein was gemeint ist.... Und diese großen Grundlagenforschungen sind eben jene welche das Hauptverlangen nach mehr Rechenleistung voran treiben.

Wo genau habe ich bestritten, dass es einen permanent wachsenden Bedarf an Rechenleistung gibt? Ich hab lediglich geschrieben, dass Quantenrechnern nur für bestimmte Aufgabenstellungen geeignet sind.
 
Zurück