Dreidimensionale Chips: TSMC schneller auf dem Markt als Intel?

Irgendwann wird man sich eingestehen müssen, dass es nicht mehr schneller geht, und man nicht kleiner bauen kann.
Bis dahin werden aber noch einige Sommer ins Land ziehen. und vielleicht gibts in der Zwischenzeit eine revolutionäre
Entwicklung die das ganze wieder ins Rollen bring.
Langzeitprognosen sind immer schwer zu machen.
Aber ich denke auch, dass die Grenze dann mit 2025 bis spätestens 2030 erreicht sein wird.
Dann wird man ja sehen obs noch Innovation auf dem Gebiet gibt.
 
Naja,...
Das sind Grenzen die so schnell kaum ausgelotet werden dürften, zumal eigentlich immer wieder Wege gefunden werden wie es eben doch geht.
Hieß es noch das Dank Siliziums bald Schluss sei mit den immer kleineren Strukturen kamen schnell die Berichte, dass Organische Substanzen noch kleinere Verfahren möglich sind, ein Fakt der eig. schon lange bekannt war, der Technisch vor einigen Jahren aber noch gar nicht in Betracht kam.

Wie soll etwas mit Molekülen schneller gehen als mit Atomen? :huh:
Ein Atom hat rund 0,1nm, also Wasserstoff, Silizium rund 0,3nm. Ein Molekül besteht auch mehreren Atomen, ist also größer.
Und was die Fähigkeiten organischer Substanzen angeht, was Verarbeitung angeht, kann man das mit sehr geringer Leistungsaufnahme kombinieren. Möglich ist vielleicht irgendwann man der organische Computer oder sowas ähnliches, aber das dauert noch. sie wären dann für autonome Bereiche geeignet, wo eben wenig Energie verbraucht werden soll.

Ich sehe übrigens keinen Nutzen einer überlichtschnellen Informationsübertragung im Heimanwender Bereich, selbst unser Hirn hat gewisse Grenzen, und ist dennoch immer noch weitaus leistungsfähiger als alle Supercomputer dieser Welt (auch wenn jene Matheaufgaben schneller lösen können ^^), einfach aufgrund eines ganz anderen Prinzips.

Du kannst das menschliche Gehirn nicht mit einem Supercomputer vergleichen.
Das Gehirn ist dafür da, einen Menschen zu kontrollen, dessen biologische Funktionen aufrechtzuerhalten. Dass dieses Gehirn inzwischen dazu fähig ist, Rechenaufgaben zu lösen, liegt an der Entwicklung des Menschen, aber speziell dafür gemacht ist es eben nicht.
Im Gegensatz zum Supercomputer hat das Gehirn nur ein paar Watt Leistungsaufnahmen, ich will man den Supercomputer sehen, der mit ein paar Watt derart leistungsfähig ist. Die Dinger brauchen auch heute noch immer mehrere Megawatt.

Es wird also auf jedenfall kein Problem geben so lange die Leistungsfähigkeit unseres Gehirns nicht überschritten wird, und auch darüber noch nicht, bloß bis man soweit ist dauert das noch eine ganze Weile, ich schätze mal auf einen Zeitraum von ca. 20-30 Jahren, früher ist sehr unwahrscheinlich, der Fortschritt in der Leistungsfähigkeit von Prozessoren kann auch nur noch geschätzte 5 Jahre das Moorsche Gesetz erfüllen, danach ist Sense mit dieser Geschwindigkeit, Fortschritte werden langsamer erfolgen, aber anders als du glaubst wird es noch für eine lange Zeit weiter gehen.

Die Fertigung kann nicht ewig verkleinert werden, irgendwann ist Schluss, eben spätestens bei 0,3nm. Also muss man in den Raum gehen, alle Dimensionen nutzen. Das macht Intel mit Trigate und das macht auch TSMC. Jeder auf seine Weise, aber früher oder später wird man die Technologien vereinen.

Und zu den Grenzen, die ich genannt habe, falls es dir entgangen ist, das sind wirkliche fixe physikalische Grenzen. Da kannst du nichts dran rütteln.

So sieht es aus, die Quantenphysik wird gewinnen, so oder so. :D
 
Ok, wenn es so einfach ist die beiden techniken zu kombinieren, so what?
Dann zeig mir doch mal jemanden der es gemacht hat.

Das man nicht von Anfang an sofort auf beides setzt, bevor man auch nur eine der Technologien wirklich beherrscht sollte klar sein...

PCGH wollte das mmn. Alleridngs interessiert mich dennoch welche mehr bringt, da es nunmal die beiden Techniken sind die gleichzeitig auf dem Markt sein werden.

Langfristig haben dreidimensionale Chips sicherlich ein größeres Potential.

Wie das in der ersten Entwicklungsstufe aussieht lässt sich frühestens sagen, wenn beides auf dem Markt ist- mit vergleichbaren Chips; irgendeinen Mikrocontroller, einen Netzwerkchip oder dergleichen mit Ivy Bridge zu vergleichen ist so oder so sinnlos; für welche Chips TSMC die neue Technik anfangs einsetzen wird ist noch unbekannt, jedenfalls kaum für die nächste (AMD/nVidia) GPU/CPU Generation, da die mittlerweile wahrscheinlich jeweils schon recht finale Architektur darauf ausgelege sein muss

Aber selbst mit diesen Innovationen wird wohl 2040-2060 Schluss sein.

Das sehe ich auch so aber... das dauert noch so lange, meiner Meinung nach lohnt es sich nicht darüber nachzudenken, die Entwicklung ist nicht wirklich absehbar

Und wenn schon; mit der Rechenleistung, die dann zur Verfügung steht sollte man wohl auskommen...
 
Das sehe ich auch so aber... das dauert noch so lange, meiner Meinung nach lohnt es sich nicht darüber nachzudenken, die Entwicklung ist nicht wirklich absehbar
Das ist aber eine der großen Sachen, über die sich die Fachleute JETZT, bzw. schon seit Jahren die Köpfe zerbrechen. Es sollte ja eigentlich jetzt schon Schluss sein, man hat aber einige tolle neue Sachen entdeckt. Die ganzen Sachen die jetzt kommen, gehen aber wie gesagt halt inzwischen recht nahe an die finalen Grenzen.

In der Wissenschaft/Halbleiterindustrie sind die Leute daher auch voll dabei Lösungen zu finden, um die Grenze eben wieder weiter nach hinten zu schieben, auf nach 2030 halt. Solche Sachen sind halt auf den aktuellen Konferenzen schon wirklich heise Themen. Man will ja irgendwie die Exaskale Supercomputer hin bekommen. Mit allem was im Moment aber auf dem Markt ist, schaffst du das nicht. Denn mehrere hundert MW Leistungsaufnahme sind nicht akzeptabel.

Und wenn schon; mit der Rechenleistung, die dann zur Verfügung steht sollte man wohl auskommen...
Nimm selbst nen Faktor 10.000 mehr als heute, und du wirst noch immer von genug Leuten die Anforderung haben, nochmals 10+ mal mehr Rechenleistung gern zu haben.

Gerade die Biologen wollen da in die vollen hauen. Bei uns gibt es z.B. eine Gruppe, die spezielle Chips baut, um neuronale Netze simulieren zu können. Trotz Spezialchips sind die nur in der Lage recht wenige Zellen zu simulieren.

Am Ende willst du aber am Besten gern komplette Gehirne bzw. das gesamte Nervensystem simulieren.

Wie gesagt, egal wie viel Rechenleistung du zur Verfügung stellst, so Witzbolde aus der Physik, Chemie oder Biologie etc. kommen immer daher und sagen dir, dass das noch nicht ausreicht, und Sie gern nen Faktor x mehr brauchen.

Und kein Witz, würdest du 100.000 Millionen mal mehr Rechenleistung als alle jemals auf der Welt verfügbare Rechenleistung einem Physiker zur Verfügung stellst, dann fängt der halt an ganze Sterne etc. auf Quantenphysikalischer Ebene zu betrachten, und meint: "Also son Faktor 10 mal schneller wäre schon toll....":ugly:

Ja wir sind Freaks :lol:
 
das sind doch 2 verschiedene Technologien, das einzige was dabei gleich ist steht glaub ich im Namen.

"Through Silicon Via"
"Trigate Transistor"
- also ich finde da auch im Namen keine Gemeinsamkeit.


Vorteile der TSMC Technologie: kompaktere (und damit potentiell effektiv größere bzw. mit größerer Transistordichte ausgestattete) Chips; neue Architekturen (die es aber noch zu entwickeln gilt) könnten auch grundsätzliche Vorteile aus dem dreidiminsionalen Aufbau ziehen

Abwarten. Die Technik von TSMC ist auch nur für TSMC neu. Bei Speicherchips und im mobilen Bereich afaik auch für andere, wird die schon länger eingesetzt. Dummerweise ist es bei heutigen Desktoparchitekturen schon eine Herausforderung, eine Lage ausreichend zu kühlen, mit Strom zu versorgen und anzubinden. Eine zweite für Cache & Co könnte ich mir noch gut vorstellen (allerdings fertigt TSMC afaik derzeit gar nichts, wo große Caches ein attraktives P/L-Verhältniss bieten), aber eine Verdoppelung der Logik könnte problematisch werden. Und ab drei oder vier Lagen ist TSV ohnehin fast nur noch für Chips mit wenigen oder in Reihe schaltbaren Pins in Verhältniss zur Fläche nutzbar (z.B. Flash), denn sonst besteht der unterste DIE quasi nur noch aus Löchern.


Entweder wir kommen den Grenzen nicht verdammt schnell näher, oder wir doch. Entweder oder, aber nicht beides :ugly:

"schnell vorrankommen" ist nicht das gleiche, wie "schnell ankommen". Die postulierte Grenze von ~2 nm sollten wir, bei der aktuellen -hohen- Geschwindigkeit (Halbierung alle ~4 Jahre) nicht vor 2025 erreichen und die letzten Schritte dürften sogar kleiner ausfallen - sowohl weil es immer schwierig wird, aber auch weil die Auswirkungen auf die Leistungsfähigkeit mit der Annäherung an 2D Strukturen enorm ansteigen.


Und was die Fähigkeiten organischer Substanzen angeht, was Verarbeitung angeht, kann man das mit sehr geringer Leistungsaufnahme kombinieren. Möglich ist vielleicht irgendwann man der organische Computer oder sowas ähnliches, aber das dauert noch. sie wären dann für autonome Bereiche geeignet, wo eben wenig Energie verbraucht werden soll.

"wenig Energie verbrauchen" ist mitlerweile in vielen Bereichen das A&O. CPUs haben ihr praktisches TDP-Limit vor ~7 Jahren getroffen, bei GPUs müssen wir hoffentlich nicht mehr sehr lange drauf warten. Und organische Halbleiter haben neben der hohen Effizient noch einen weiteren Vorteil: Das lächerlich billige Ausgangsmaterial.
Noch sind die Fertigungsmethoden absolut unzureichend und kostspielig, aber zumindest im Siliziumbereich haben sich bekanntermaßen rasant weiter entwickelt, während man am Substrat kaum was ändern konnte - Fertigungssysteme sind eben eher optimierbar, als Chemie und Physik. Wenn das gleiche mit organischen Halbleitern gelinkt, dann steht man in 20 Jahren vielleicht immer noch vor dem Problem, dass man die Dinger selbst dann nicht wirklich weit über *rat* 1 GHz kriegt. Aber wen interessiert das, wenn man nicht mehr winzige DIEs auf mittlere Substrate auf große PCBs setzt, sondern stattdessen ganze Mainboards und Erweiterungskarten aus Halbleitermaterial zu bezahlbaren Preisen fertigen kann und somit mehrere Billiarden dieser langsamen Transistoren zur Verfügung hat?
Ich kann auf (effektiv) 40 GHz RAM @ 512 Bit verzichten, wenn ich stattdessen die doppelte Menge 1 GHz Cache @512kBit haben kann ;)
 
Also bzgl. den 2nm, aktuell geht man eher von 6-7nm als praktische Grenze aus für die Serienfertigung. Und zudem war natürlich die Einhaltung von Moores Law gemeint. Dachte das wäre offensichtlich gewesen aus der bisherigen Diskussion.

Was du aber im letzten Abschnitt vergisst ruyven ist Amdahls law auf der einen Seite, die deinen Leistungsgewinn durch Parallelisierbarkeit beschränkt, und auf der anderen Seite vergisst du, dass wir noch immer die Beschränkung der Lichtgeschwindigkeit haben. Ergo kannst du gar nicht effektiv beliebig große Chips bauen. Ab einer gewissen Größe kommst du einfach kaum weiter.

Naja, und dann der letzte Punkt ist noch, dass diese "biologischen Substanzen" eben auch in Zukunft wohl nicht mit MHz zu betreiben sind. Das sind wenn ich mich jetzt wirklich nicht GANZ vertuh im Moment eben noch Grenzen von Minuten-Stunden pro "Operation". Wenn die mal später 1k Operationen/s ausführen können ist das schon nicht schlecht. Was halt genial ist, ist dass sie extrem Energieeffizient sind. Skalierbarkeit wird aber wohl ein ziemliches Problem darstellen.
 
Nimm selbst nen Faktor 10.000 mehr als heute, und du wirst noch immer von genug Leuten die Anforderung haben, nochmals 10+ mal mehr Rechenleistung gern zu haben.

Ich rechne eher damit, dass wir uns "am Ende" eher bei "1.000.000 mal mehr als heute" befinden werden...

Gerade die Biologen wollen da in die vollen hauen. Bei uns gibt es z.B. eine Gruppe, die spezielle Chips baut, um neuronale Netze simulieren zu können. Trotz Spezialchips sind die nur in der Lage recht wenige Zellen zu simulieren.

Am Ende willst du aber am Besten gern komplette Gehirne bzw. das gesamte Nervensystem simulieren.

Was dann locker selbst für die ausreichend präzise Simulation eines kompletten Nervensystems in Echtzeit ausreichen sollte... vermutlich sogar mit einem besseren PC

Das Gehirn unterliegt auch den Naturgesetzen und ist Technisch alles andere als perfekt; ich bin davon überzeugt, dass wir es mittelfristig nicht nur ein sondern sogar weit überholen werden, dafür sollte es noch locker reichen

Das Gehirn ist aber auch ein sehr gutes Beispiel für eine gute "dreidimensionale" Architektur...

Und kein Witz, würdest du 100.000 Millionen mal mehr Rechenleistung als alle jemals auf der Welt verfügbare Rechenleistung einem Physiker zur Verfügung stellst, dann fängt der halt an ganze Sterne etc. auf Quantenphysikalischer Ebene zu betrachten, und meint: "Also son Faktor 10 mal schneller wäre schon toll....":ugly:

Irgendeinen Blödsinn, für den noch mehr Rechenleistung sinnvoll ist wird es sicher geben aber das werden wohl zunehmend immer exotischere Dinge

Aber auch am Ende der Chipentwicklung (in der Geschwindigkeit wie wir sie heute kennen) wird es kein Ende der Computer bzw. HPC Entwicklung geben; und wenn am Ende nur bleibt, die Dinger noch größer zu bauen ist das auch eine Option; wer weiß, vielleicht schwebt in 500 Jahren ein HPC Zentrum in der Größenordnung eines kleinen Mondes irgendwo beim Merkur-L1/L3/L4/L5 herum und frisst Petawatt an Sonnenenergie
 
Ich hoffe du hast gemerkt, das es einfach aus der Luft gegriffene Zahlen waren, um zu zeigen, worum es geht.

Und so ein "Blödsinn" wie du es bezeichnest ist das nicht mal. Es wäre schon verdammt interessant, die wirklich realen Prozesse auf Quantenebene in einer Sonne oder einem Neutronenstern zu berechnen. Das wäre ziemlich aufschlussreich sogar.

Oder denk an ein Schwarzes Loch. Was geht IN ihm denn genau vor? Das sind alles Fragen, die brauchen so viel exorbitante Rechenleistung, dass man Sie heutzutage schlicht nicht zu stellen brauch, und so gibt es Unmengen an Fragen. Wie funktioniert z.B. Erinnerung? Also wie funktioniert das auf Molekularer Ebene. DAS brauch wohl auch abartige Rechenleistung. Man überlege sich ja mal, aus wie vielen Molekülen ein Gehirn besteht.

Btw. das ist gar nicht so unspannend. Vielleicht schaffen wir es ja mal, das Bewusstsein einer Person in einen Rechner zu packen, und Sie so unsterblich zu machen :ugly:

Ich wäre da auf jeden Fall sofort dabei :D

Btw. um auf deinen letzten Absatz ein zu gehen, das ist absoluter Schwachsinn. So große Systeme machen keinen Sinn, da die Kommunikationslatenzen einfach zu groß werden. Das kann man nur noch schwerlich als wirklich ein System sehen. Wenn ist das halt ein Grid/Cloud, aber das wars dann auch.
 
Und so ein "Blödsinn" wie du es bezeichnest ist das nicht mal. Es wäre schon verdammt interessant, die wirklich realen Prozesse auf Quantenebene in einer Sonne oder einem Neutronenstern zu berechnen. Das wäre ziemlich aufschlussreich sogar.

Ein Stern ist sehr homogen aufgebaut, der Rechenaufwand sollte sich in abwegbaren Grenzen halten, wenn man vernünftige Software verwendet

Oder denk an ein Schwarzes Loch. Was geht IN ihm denn genau vor? Das sind alles Fragen, die brauchen so viel exorbitante Rechenleistung

Ich denke da fehlt es weniger an Rechenleistung und mehr an grundsätzlicher Physikalischer Kenntniss...

Wie funktioniert z.B. Erinnerung? Also wie funktioniert das auf Molekularer Ebene. DAS brauch wohl auch abartige Rechenleistung. Man überlege sich ja mal, aus wie vielen Molekülen ein Gehirn besteht.

Ich denke, wenn man erstmal weiß, wie genau im Detail eine Nervenzelle wirklich funktioniert kann man sie sehr stark vereinfachen und so massiv Leistung sparen; jedes Molekül der Zellwand zu simulieren kann freilich nicht wirklich sinnvoll sein...

Btw. das ist gar nicht so unspannend. Vielleicht schaffen wir es ja mal, das Bewusstsein einer Person in einen Rechner zu packen, und Sie so unsterblich zu machen :ugly:

Ich bin eigentlich überzeugt davon; die Frage ist wohl weniger ob sondern eher wann; die Rechenleistung ist da aber bei weitem nicht das einzige Problem

Btw. um auf deinen letzten Absatz ein zu gehen, das ist absoluter Schwachsinn. So große Systeme machen keinen Sinn, da die Kommunikationslatenzen einfach zu groß werden. Das kann man nur noch schwerlich als wirklich ein System sehen. Wenn ist das halt ein Grid/Cloud, aber das wars dann auch.

Kommt immer darauf an, was man wie berechnen will...

Jedenfalls werden Energieverbrauch, Kühlung und Platz eines Tages kaum mehr eine Rolle spielen; und die möglichen Chipgrößen werden, wenn man erstmal "festhängt" und die Fertigungsverfahren immer weiter verbessern kann auch stark wachsen
 
Ein Stern ist sehr homogen aufgebaut, der Rechenaufwand sollte sich in abwegbaren Grenzen halten, wenn man vernünftige Software verwendet

Ein Stern ist sehr komplex aufgebaut.
Alleine das Zusammenspiel zwischen Fusionsdruck und Gravitation zu berechnen ist heute ein Ding der Unmöglichkeit.
Aber wir müssen nicht mal so weit weg gehen. Schau dir mal die Erdbebenforschung an, da braucht es Unmengen an Rechenleistung, bis man mal in der Lage ist, ein Erdbeben vorher zu sagen.
 
Ein Stern ist sehr komplex aufgebaut.

Na ja... jedenfalls nicht so komplex, dass es wirklich sinnvoll wäre ihn auf Basis einzelner Quanten zu simulieren...

Natürlich gibt es Dinge, die man nie in annehmbarer Zeit berechnen können wird, damit muss man eben leben
 
Was du aber im letzten Abschnitt vergisst ruyven ist Amdahls law auf der einen Seite, die deinen Leistungsgewinn durch Parallelisierbarkeit beschränkt,

Wenn ich extrem große Transistorzahlen zu niedrigen Kosten zur Verfügung habe, arbeite ich nicht mehr mit universellen Einheiten. Die meisten Aufgaben lassen sich sehr gut und ohne weitere Parallelisierung beschleunigen, wenn man spezialisierte Einheiten (im Extremfall für jeden Befehl) hat, umgekehrt wird Pseudo-Parallelisierung dramatisch vereinfacht, wenn die Latenzen einzelner Befehle aufgrund der spezialisierten Einheiten deutlich sinken.

und auf der anderen Seite vergisst du, dass wir noch immer die Beschränkung der Lichtgeschwindigkeit haben. Ergo kannst du gar nicht effektiv beliebig große Chips bauen. Ab einer gewissen Größe kommst du einfach kaum weiter.

Unendlich groß sicherlich nicht. Aber ehe die Lichtgeschwindigkeit muss auch erstmal ein relevantes Thema werden, bei einem GHz sollten das bis Daumen*PI 15 cm Kantenlänge für eine (!) Recheneinheit (von der eine CPU sehr viele enthalten könnte, da sie nicht unmittelbar zusammenarbeiten) verschmerzbar sein.
Wieviele Transistoren passen wohl in einen Würfel von 15 cm Kantenlänge im Vergleich zu heutigen DIEs von vielleicht 1,5 x 1,5 cm x eine einzige Lage...?

Naja, und dann der letzte Punkt ist noch, dass diese "biologischen Substanzen" eben auch in Zukunft wohl nicht mit MHz zu betreiben sind. Das sind wenn ich mich jetzt wirklich nicht GANZ vertuh im Moment eben noch Grenzen von Minuten-Stunden pro "Operation". Wenn die mal später 1k Operationen/s ausführen können ist das schon nicht schlecht.

Ich gebe zu, dass passende Quellen schwer zu finden sind, aber hier werden 0,5 kHz kommerziell angeboten und hier ist von 100 kHz für einfache und mehreren kHz für sequentielle, experimentelle Schaltungen die Rede. Und das war 2006. Weiß nicht, wie sich die Forschung weiterentwickelt hat, aber es würde mich nicht wundern, wenn etwas auf dem Niveau eine 8008 schon heute machbar ist. Bzw.: Eben einen ganzen Cluster davon auf einem kleinen Stück Folie.


Was dann locker selbst für die ausreichend präzise Simulation eines kompletten Nervensystems in Echtzeit ausreichen sollte... vermutlich sogar mit einem besseren PC

Und sobald wir das können, werden wir einige Dutzend derartiger Nervensysteme simulieren wollen, damit man endlich ein paar brauchbare Bots hat ;)
Nö, so schnell geht der Menschheit die Idee für Rechenoperationen garantiert nicht aus. Zumal ich auch den Eindruck habe, das zumindest Endnutzeranwendungen um so ineffizienter werden, je mehr Rechenleistung man verschwenden kann.

Das Gehirn unterliegt auch den Naturgesetzen und ist Technisch alles andere als perfekt; ich bin davon überzeugt, dass wir es mittelfristig nicht nur ein sondern sogar weit überholen werden, dafür sollte es noch locker reichen

In Effizienz (sowohl Energie als auch Leistung pro Rechenelement) wirst du das Hirn so schnell nicht überboten bekommen. In Sachen Präzision sicherlich - das schafft jeder Taschenrechner, denn das Gehirn will und muss gar nicht präzise sein, sondern schnell einen ausreichend genauen Wert für eine Entscheidung liefern. Ihm in dieser Hinsicht Konkurrenz zu machen und z.B. Roboter im Zick-Zack quer durch einen Wald rennen zu lassen, das wird noch eine ganze Weile dauern. Bislang sind schon für einen rudimentären Ersatz des Sehzentrums eine Vielzahl an Servern nötig und da kann man dann froh sein, wenn sie in der Lage sind, bei Schrittgeschwindigkeit die Grenzen eines Kießweges zuverlässig zu erfassen.


Ich denke, wenn man erstmal weiß, wie genau im Detail eine Nervenzelle wirklich funktioniert kann man sie sehr stark vereinfachen und so massiv Leistung sparen; jedes Molekül der Zellwand zu simulieren kann freilich nicht wirklich sinnvoll sein...

Wie eine Nervenzelle arbeitet, ist seit längerem bekannt.
 
Wenn ich extrem große Transistorzahlen zu niedrigen Kosten zur Verfügung habe, arbeite ich nicht mehr mit universellen Einheiten. Die meisten Aufgaben lassen sich sehr gut und ohne weitere Parallelisierung beschleunigen, wenn man spezialisierte Einheiten (im Extremfall für jeden Befehl) hat, umgekehrt wird Pseudo-Parallelisierung dramatisch vereinfacht, wenn die Latenzen einzelner Befehle aufgrund der spezialisierten Einheiten deutlich sinken.

Da sprichst du auch etwas ABSOLUT richtiges an :daumen: Genau dahin wird in den nächsten Jahren auch die Entwicklung gehen, spätestens mit den stacked Chips. Man hat einfach mehr Transistoren dann zur Verfügung, als man überhaupt mit Strom versorgen kann. Die iGPU direkt in die CPU zu packen ist daher auch gar keine schlechte Idee für die Zukunft. Man hat dann ja eh mal Transistoren in Massen über, und ne GPU-Architektur ist halt bei Pseudo-Vektor-Operationen halt deutlich Energieeffizienter als ne CPU.

Unendlich groß sicherlich nicht. Aber ehe die Lichtgeschwindigkeit muss auch erstmal ein relevantes Thema werden, bei einem GHz sollten das bis Daumen*PI 15 cm Kantenlänge für eine (!) Recheneinheit (von der eine CPU sehr viele enthalten könnte, da sie nicht unmittelbar zusammenarbeiten) verschmerzbar sein.
Wieviele Transistoren passen wohl in einen Würfel von 15 cm Kantenlänge im Vergleich zu heutigen DIEs von vielleicht 1,5 x 1,5 cm x eine einzige Lage...?
Mir gings eher um die gewaltigen Ausmaße, die da angesprochen wurden. Die sind einfach unrealistisch. Nehmen wir doch mal ne Matixmultiplikation. Die kann man bei einer nxn Matrix maximal auf n³ Threads aufspalten. Mehr ist einfach nicht möglich. Das Problem dabei ist nur, dass man die Daten erst mal an jede Recheneinheit verteilen muss :ugly: und das ist wirklich alles andere als Trivial.

Das ist halt auch die Sache, die die Größe limitiert. Du solltest ja am Besten innerhalb der Speicherzugriffszeit jeden anderen Knoten erreichen, oder maximal halt in der gleichen Größenordnung, ansonsten geht die Leistung halt runter. Klar gibts genug Sachen, wo man perfekt unabhängige Teilprobleme hat, wie bei der Matrixmultiplikation, bei ner n-Body Simulation passt das aber schon wieder nicht, und das trifft eben auch in erster Näherung für viele Simulationen/Probleme zu.

Bei 1 GHz sind es btw. sogar knapp 30cm. Heute sind wir aber auch eher bei 2-4 GHz. Ergo nur noch bei einer Strecke von ~3-7 cm. Wenn also eine Spezialeinheit weiter weg ist, als diese 3-7 cm, dann muss Sie schon mehr als einen Takt schneller sein, damit man noch etwas gewinnt für die einzelne Instruktion. Klar ist da im Vergleich zu heute schon MASSIG Luft nach oben, wie du richtig festgestellt hast, aber größer als nen Fußballfeld bis 10 Fußballfelder wird man wohl nie sehen (längste Distanz eines Punktes in 3D). Die Laufzeiten werden da einfach schon recht lange, womit sich fein-mittelgranulare Probleme einfach nicht mehr beschleunigen lassen. Für Grobgranulare kann man das dann dennoch nutzen. Grids funktionieren ja auch, und die sind teils über die ganze Welt verstreut :ugly:. Da muss man aber auch bedenken, dass die Links dann vergleichsweise minimal sind zwischen diesen einzelnen Clustern, und genau das ist auch das Problem, auf das man bei solchen Super-Clustern dann stößt. Man bekommt einfach die Dinger nicht mehr miteinander verbunden. Wenn ich da nur allein schon an heute denke, wie das gewaltig dicke Glasfaserstränge durch die Cluster gelegt werden. Das wird bei nem 3D Aufbau des Clusters nicht weniger, und bei noch viel mehr Rechenleistung der Kerne, braucht man auch deutlich mehr Interconnect Bandbreite, und die ist ja heute schon bei "vielen" Anwendungen zu klein.

Es kommt halt wie so immer auf das konkrete Problem drauf an.

Ich gebe zu, dass passende Quellen schwer zu finden sind, aber hier werden 0,5 kHz kommerziell angeboten und hier ist von 100 kHz für einfache und mehreren kHz für sequentielle, experimentelle Schaltungen die Rede. Und das war 2006. Weiß nicht, wie sich die Forschung weiterentwickelt hat, aber es würde mich nicht wundern, wenn etwas auf dem Niveau eine 8008 schon heute machbar ist. Bzw.: Eben einen ganzen Cluster davon auf einem kleinen Stück Folie.
Gut, dass sind aber nur so komische Folien für die Bildwidergabe. Da ist man denke ich noch recht weit davon weg, wirklich richtige Rechner mit bauen zu können. Wobei mir gerade eh nicht so ganz klar ist, was die mir "organic" meinen. Ich glaub nur, dass die halt Elemente/Verbindungen aus der Organischen-Chemie meinen, und nicht echte Moleküle. Berichtige mich da bitte, wenn du was näheres dazu weißt.
 
Da sprichst du auch etwas ABSOLUT richtiges an :daumen: Genau dahin wird in den nächsten Jahren auch die Entwicklung gehen, spätestens mit den stacked Chips. Man hat einfach mehr Transistoren dann zur Verfügung, als man überhaupt mit Strom versorgen kann. Die iGPU direkt in die CPU zu packen ist daher auch gar keine schlechte Idee für die Zukunft. Man hat dann ja eh mal Transistoren in Massen über, und ne GPU-Architektur ist halt bei Pseudo-Vektor-Operationen halt deutlich Energieeffizienter als ne CPU.

Bei Silizium bleibt aber das Problem der hohen Kosten. Immer mehr Transistoren sind aber der Mittelklasse abwärts nur finanzierbar, weil sie auf tendentiell eher kleinere Flächen passen. Die einzige offizielle Zahl sind ja weiterhin die iirc 75 $ für einen 45 nm Core 2 Quad, aber wenn man mal davon ausgeht, dass die reinen Fertigungskosten für ein heutiges CPU-DIE bei 20 € liegen, dann ist, sobald man die minimale Transistorgröße erreicht hat, maximal noch eine Steigerung um den Faktor 4 möglich. Alles darüber hinaus ist einfach zu teuer für den Nutzer die Kosten für einen Monokristall lassen sich auch nicht Miniaturisieren. Da müssen andere Materialien her und während die schnelleren bislang das schlechtere Kosten/Leistungs-Verhältniss bieten (und im Falle von GaS wohl auch immer werden), haben die riesigen Flächen von organischem Material noch Potential.

Bei 1 GHz sind es btw. sogar knapp 30cm.

Ich bin mal gnädigerweise davon ausgegangen, dass ein halbes Bit Verschiebung schon für die meisten Architekturen ein Problem wäre ;)
Aber wenn man einen Weg findet, noch mehr Transistoren zumindest in zweiter Wurzel in Leistung umzusetzen, dann könnte man das ganze durchaus noch steigern, denn dann würde die Gesamtleistung eines Rechenwürfels, dessen Volumen kubisch mit der Kantenlänge steigt, immer noch über-linear steigen. Bei einer Steigerung der Kantenlänge müsste der Takt (und damit die Leistung) aber nur Linear abgesenkt werden.
-> Eine 3x3x3 m CPU mit 100 MHz hätte mehr Leistung, als das 30x30x30 cm Modell mit 1 GHz.

Da muss man aber auch bedenken, dass die Links dann vergleichsweise minimal sind zwischen diesen einzelnen Clustern, und genau das ist auch das Problem, auf das man bei solchen Super-Clustern dann stößt. Man bekommt einfach die Dinger nicht mehr miteinander verbunden. Wenn ich da nur allein schon an heute denke, wie das gewaltig dicke Glasfaserstränge durch die Cluster gelegt werden. Das wird bei nem 3D Aufbau des Clusters nicht weniger, und bei noch viel mehr Rechenleistung der Kerne, braucht man auch deutlich mehr Interconnect Bandbreite, und die ist ja heute schon bei "vielen" Anwendungen zu klein.

Und genau das ist ein Problem, dass organische Halbleiter quasi nebenbei lösen. Im Moment besteht ein Rechencluster zu 99,99999999% aus Interconnects. Die eigentlich rechnenden Einheiten (DIEs) eines hallengroßen Supercomputers würden in ein kleines Köfferchen passen. Aber weil die Verbindungsleitungen eben nicht in 45 nm Strukturbreite daherkommen, sondern im Schnitt eher 4,5 mm (inklusive Ummantelung) belegen, ist die Packungsdichte extrem beschränkt. Organische Halbleiter sind aber so billig und skalierbar, dass man Interconnect-Netzwerke von mehreren Quadratmetern auf Folie drucken (oder in Zukunft ggf. mehreren Kubikmetern in Würfel lasern) könnte, die (zur weiteren Kostenreduktion) vielleicht nur 1-2 Fertigungsstufen hinter den eigentlichen Recheneinheiten hinterherhinken. Und: Aufgrund der hohen Effizienz hätte man selbst bei dieser Packungsdichte keine unlösbaren Kühlungsprobleme.
Unterm Strich ist eine organische CPU mit der Leistungsfähigkeit eines Silizium-Chips dann vielleicht so groß, wie ein ganzes ITX-Board. Aber ihre gesamte Infrastruktur passt ein weiteres ITX-Board auf der anderen Seite eines dünnen (Wasser-)Kühlblockes und statt zwei Dual-Silizium-CPUs Board in ein 80 cm 1U Chassis zu packen, kann man bequem auf jeder Seite zwei Lagen mit je vier organische Einheiten unterbringen und diese 16 Einheiten zudem mit höherer Bandbreite untereinander vernetzen, als vorher zwischen den zwei Silizium-CPUs auf einem Board. Unterm Strich kommt so ein Rack auf die Leistung eines ganzes Clusters - und man kann, dank der guten Anbindung, mehr dieser Racks zu einem Cluster zusammenschließen. (und das natürlich auch dreidimensional - wobei das natürlich auch mit Silizium geht, wenn man sich mal konsequent von Luftkühlkungskonzepten verabschiedet)

Gut, dass sind aber nur so komische Folien für die Bildwidergabe. Da ist man denke ich noch recht weit davon weg, wirklich richtige Rechner mit bauen zu können.

Wofür sie dienen, ist ja erstmal egal. Man hat Transistoren der geforderten Schlatzeit und Größe auf einem Massenproduktionstauglichen Substrat. Bei den derzeitigen Preisen wäre ein kompletter PC auf dieser Basis vermutlich nicht in der Lage, mit einem Siliziumchip zu konkurrieren, zumal die Hersteller schlicht keine CPU-Erfahrung haben. Aber es geht in die richtige Richtung und im Gegensatz zu Silizium rennt man nicht mit Anlauf auf eine Skalierungsbarriere zu.
Es wird noch ein paar Jahre dauern, bis sich das Verhältniss ändert, aber dann könnten Siliziumfertiger vor einer überwindbaren 2/4/6/8 nm Mauer sitzen und die langsame, organische Entwicklung spaziert locker vorbei.

Wobei mir gerade eh nicht so ganz klar ist, was die mir "organic" meinen. Ich glaub nur, dass die halt Elemente/Verbindungen aus der Organischen-Chemie meinen, und nicht echte Moleküle. Berichtige mich da bitte, wenn du was näheres dazu weißt.

Nuja - es sind keine intramolekularen Schalter, das stimmt. Aber das macht ja auch keinen Unterschied. Beides ist Halbleitertechnik auf Basis billiger, nonkristalliner Kohlenstoffsubstrate.
 
Bei Silizium bleibt aber das Problem der hohen Kosten. Immer mehr Transistoren sind aber der Mittelklasse abwärts nur finanzierbar, weil sie auf tendentiell eher kleinere Flächen passen. Die einzige offizielle Zahl sind ja weiterhin die iirc 75 $ für einen 45 nm Core 2 Quad, aber wenn man mal davon ausgeht, dass die reinen Fertigungskosten für ein heutiges CPU-DIE bei 20 € liegen, dann ist, sobald man die minimale Transistorgröße erreicht hat, maximal noch eine Steigerung um den Faktor 4 möglich. Alles darüber hinaus ist einfach zu teuer für den Nutzer die Kosten für einen Monokristall lassen sich auch nicht Miniaturisieren. Da müssen andere Materialien her und während die schnelleren bislang das schlechtere Kosten/Leistungs-Verhältniss bieten (und im Falle von GaS wohl auch immer werden), haben die riesigen Flächen von organischem Material noch Potential.
Wir sind aber immer noch bei "nur" 300mm Wafern. Die Ausbeute/Stückksoten könnte man locker senken, wenn man einfach 400 oder 600mm Wafer nutzen würde. Macht man ja im Moment nur nicht, da man dann schlicht den Markt kaputt machen würde, da einfach der Markt überflutet wird. Von den Monokristallen her ist das wohl aktuell zumindest bei Silizium auch gar kein großes Problem mehr deutlich größere Einkristalle zu fertigen. Die Technik ist da schon verdammt ausgefeilt und Silizium ist wohl auch recht gnädig im Gegensatz zu GaAs, welches halt spröde ist wie sau :ugly:

Bei den Silizumchips (Chip-Cubes :D) ist auch am ehesten die Stomversorgung wohl noch ein gewaltiges Problem. Zumindest macht sich IBM laut nem ausführlichen Gespräch auf der CeBIT eigentlich nur noch darum so RICHTIGEN Kopf, weil se eben keine vernünftige Idee haben, um die Sache zu lösen. Für den Rest haben se ja direktkontakt Wasserkühlung DURCH den Chip, und Fibre on Chip :ugly: Da geht schon einiges :devil:
Nuja - es sind keine intramolekularen Schalter, das stimmt. Aber das macht ja auch keinen Unterschied. Beides ist Halbleitertechnik auf Basis billiger, nonkristalliner Kohlenstoffsubstrate.
[/quote]

DAS ist aber wohl der Punkt, der uns zu leicht unterschiedlichen Aussagen bringt. Ich meinte schon wirklich richtig organische Schaltungen, also Moleküle oder gar ganze Zellen etc. dafür zu verwenden, z.B. Bakterien. Die sind halt wirklich noch SAU lahm. So ne Zelle teilt sich halt nicht so schnell etc. :D

Der Energieeffizientsvorteil ist dort aber halt noch VIEL gewaltiger, denn da könnte man vielleicht wirklich mal auf die Energieeffizients unseres Gehirns raus kommen, und das wäre halt schon Pornös :wow:

So "organische" Chips bringen halt auch nur eine Größenordnung an Energieeinsparung oder? Hab dazu leider keine Zahlen im Kopf, aber mehr wirds wohl nicht sein, so rein vom Gefühlt her.
 
Zurück