IBM Research Alliance: Erster 5-nm-Transistor vorgestellt

Danke mega gut erklärt. Also die die Bauteile kenne ich und Grundlagen der E Technik hab ich auch in meinem Studium. Leider aber keine Hochfrequenztechnik oder Halbleitertechnik.

Ist das der Grund warum 5 GHz qausi eine Grenze ist? Und warum takten GPUs nicht höher? :D

Gerne =)
Unter anderem ist das der Grund. Die maximale Frequenz wird eben nicht mehr durch die Transistoren selber begrenzt, sondern eben durch andere Dinge. Und die kannst du halt durch Skalierung nicht mehr oder zumindest weitaus schlechter verbessern. Anfang der 2000er hatte Intel noch das Ziel, den Pentium 4 bis 2010 auf 10 GHz zu treiben. Wie wir heute wissen, haben ihnen eben diese Probleme die Pläne verhagelt.
Natürlich kannst du die Effizienzsteigerungen, die du trotzdem durch Skalierung bekommst, auf den Rest des Chips ummünzen (macht Intel ja quasi seit Sandy Bridge), am Ende ist es aber immer die Temperatur des Chips, die weitere Taktung verhindert. Daher ist - zumindest aktuell - bei ca. 5 GHz der sinnvolle Rahmen zuende. Außer für Sonderfälle, die auf brachial hohen Takt angewiesen sind. Da ist aber auch die Kühlung ein anderes Kaliber.
Zum Thema der GPUs: eigentlich ist ein hoher Takt - aus den oben genannten Gründen - etwas Schlechtes. Nur, wenn ich keine andere Möglichkeit mehr besitze, die Leistung meiner Chips zu steigern, sollte mehr Takt ein Thema werden. Bei CPUs ist Takt aber dennoch recht wichtig, da eine CPU viel sequentiell rechnet. Man kann nicht alles gut parallelisieren, sodass am Ende die Singlecore-Performance doch immer eine Rolle spielt - und die ist halt linear vom Takt abhängig. Eine GPU hat in der Hinsicht den Vorteil, dass die Teile von Anfang an dafür gebaut wurden, massiv parallelisierbare Berechnungen schneller ausführen zu können - in erster Instanz Rastergrafiken, mittlerweile aber dank GPGPU aber auch deutlich mehr. Da die Singlecore-Performance einer GPU daher absolut irrelevant ist (dafür hat man ja eine CPU...), kann man viel eher einen Kompromiss aus Kernanzahl und Chiptakt fahren, um auf Dinge wie Rechenleistung, Wärmeabgabe, Leistungsaufnahme, Fertigungskosten etc. pp. zu optimieren.
Natürlich kann eine CPU mit mehreren Kernen und SMT auch heute schon parallel rechnen, aber die Umstellung auf das Multicore-Konzept kam nur, weil Intel wie gesagt den massiv getakteten Singlecore nicht gepackt hat und die Singlecore-Performance daher eine Einbahnstraße war. Sonst hätten wir heute 15 GHz Singlecores und Multithreading gäbe es nur in Servern mit mehreren Sockeln.
gRU?; cAPS
 
Zuletzt bearbeitet:
Eins steht fest: Egal was sich am Ende durchsetzen wird, (Graphen oder doch was anderes?)
wir werden eine interessante Zukunft als Hardware Begeisterte erleben
 
'Verglichen mit den aktuellen 10-nm-Chips können mit Nanosheets erstellte Chips entweder 40 Prozent mehr Leistung bei gleichem Energiebedarf liefern oder aber bei gleicher Leistung 75 Prozent Energie einsparen.'
woraus dann abgeleitet wird das ein handy 2-3mal länger laufen würde.

dazu sage ich:
wenn man alle anderen bauteile eines handys oder anderen gerätes 'vergisst' mag das stimmen aber geräte bestehen aus mehr als nur den rechenwerken (CPU's), zb sender/empfänger, displays, etc.
rechnet man in den geräteverbrauch diese dinge mit ein ergibt sich, das wenn die reine CPU meinetwegen garkeine energie mehr braucht, alle anderen bauteile noch energie verbrauchen, somit ist eine hochrechnung von der CPU auf das ganze gerät ohne alle komponenten mit ein zu rechnen, augenwischerei.
im angegebenen beispiel schätze ich das aus '2-3mal so lange funktionieren' vieleicht 30% längere akkulaufzeit werden.

mfg
robert
 
Zuletzt bearbeitet:
Alles mitunter Unsinn was hier geschrieben wurde. Es ist mit heutiger Technik vermutlich durchaus möglich, einen Prozessor herzustellern, der 20Ghz taktet. Das war ja die "Strategie" von Intel beim Pentium 4. Das Problem daran ist, dass das ganze dann enorm mehr Energie Frisst und immer heißer wird, dazu kommt das Problem, dass man größere (immer größere) Piplines verbauen muss. Das war leider ein Holzweg, den Intel teuer bezahlen musste. Daher wurde die ganze Pentium 4 Architektur eingestampft, und man ist wieder "back to the roots" gegangen, zurück zum Pentium Pro. Das wissen vermutlich die wenigstens, aber die Core Architektur baut zu 90% auf dem uralten Pentium Pro auf.

Der Grund der "magischen" / virtuellen Grenze bei 5Ghz ist also alleinig aus Ergonomischen Gründen zu suchen. Ab dort wird das genze zu heiß und zu "unwirtschaftlich".

Es beruht auf der Tatsache, dass die Verlustleistung eines MOSFETs stets linear zur Frequenz steigt bei Schaltungen.

Noch ein Punkt zu "Augenwischerei", das ist natürlich ein unsinniger Betrachtungswinkel. Handy CPUs sind ja schon lange keine reinen CPUs mehr, sondern SOCs. DAs heißt, dort ist quasi alles vom Handy drinn, alles außer der Stromversorgung und dem Speicher/RAM. Modems sind da auch schon länger mit unter gerbracht.

Das heißt im Grunde gibt es nur noch vier Energieverbrauchen Einheiten beim Handy: Display, SOC, RAM und die Leistung, die aufgebracht werden muss, zum Senden. Wie sich diese drei dann verteilen, ist mitunter erst mal egal. Die SOC macht jedoch immer noch einen sehr großen Anteil aus, wegen der Verlustleistung, an erster Stelle steht jedoch natürlich das Display.
 
Zuletzt bearbeitet:
Alles mitunter Unsinn was hier geschrieben wurde. Es ist mit heutiger Technik vermutlich durchaus möglich, einen Prozessor herzustellern, der 20Ghz taktet. Das war ja die "Strategie" von Intel beim Pentium 4. Das Problem daran ist, dass das ganze dann enorm mehr Energie Frisst und immer heißer wird, dazu kommt das Problem, dass man größere (immer größere) Piplines verbauen muss. Das war leider ein Holzweg, den Intel teuer bezahlen musste. Daher wurde die ganze Pentium 4 Architektur eingestampft, und man ist wieder "back to the roots" gegangen, zurück zum Pentium Pro. Das wissen vermutlich die wenigstens, aber die Core Architektur baut zu 90% auf dem uralten Pentium Pro auf.

Der Grund der "magischen" / virtuellen Grenze bei 5Ghz ist also alleinig aus Ergonomischen Gründen zu suchen. Ab dort wird das genze zu heiß und zu "unwirtschaftlich".

Es beruht auf der Tatsache, dass die Verlustleistung eines MOSFETs stets linear zur Frequenz steigt bei Schaltungen.

Noch ein Punkt zu "Augenwischerei", das ist natürlich ein unsinniger Betrachtungswinkel. Handy CPUs sind ja schon lange keine reinen CPUs mehr, sondern SOCs. DAs heißt, dort ist quasi alles vom Handy drinn, alles außer der Stromversorgung und dem Speicher/RAM. Modems sind da auch schon länger mit unter gerbracht.

Das heißt im Grunde gibt es nur noch vier Energieverbrauchen Einheiten beim Handy: Display, SOC, RAM und die Leistung, die aufgebracht werden muss, zum Senden. Wie sich diese drei dann verteilen, ist mitunter erst mal egal. Die SOC macht jedoch immer noch einen sehr großen Anteil aus, wegen der Verlustleistung, an erster Stelle steht jedoch natürlich das Display.

Da muss ich dir widersprechen. cPT_cAPSLOCK hat da voll und ganz recht. Nur durch das "shrinken" auf immer kleinere Transistorgrößen würde man eine Menge Energie sparen und könnte rein thermisch betrachtet die ICs (genauer Pentium 4) auf Intels angepeilte 10GHz bringen. Aber durch die parasitären Bauteile steigt der Widerstand an bei höheren Frequenzen. Je nach Verschaltung geht das übrigens auch mit niedrigeren Frequenzen, wenn sich induktive Widerstände bilden.
Klar am Ende war es ein thermisches Problem aber das kam nicht durch den Anstieg der Energie die alleine der Transistor benötigt.
Da habe ich in meiner Ausbildung schon ungekühlt welche in höhere GHz Bereiche gebracht ;)
 
Zum Zeitpunkt des Abbruchs waren Leckströmen und Kundenakzeptanz die Probleme des Pentium 4. Vielleicht kämpfte die Forschung für Nachfolgegenerationen auch schon mit parasitären Effekten, aber wie heutige CPUs mit deutlich größeren, 1 GHz schneller getakteten Bereichen beweisen, ist das Routing auf dem Chip bewältigbar. Auch die Verlustleistung kann man abführen, wie spätestens Skylake-X und Threadripper zeigen werden (müssen). Zum Zeitpunkt der Netburst-Cancelung war die Kundenakzeptanz für Prozessoren mit über 100 W Energieumsatz aber eher gering und Intel lief Gefahr die ursprünglichen Pläne im Bereich über 200 W aufgrund überraschend hoher Leckströme in den Transistoren noch deutlich zu übertreffen. Das Ergebnis wären flotte CPUs gewesen, die aber niemand gekauft hätte. Also hat man sich auf Energiesparmaßnahmen konzentriert und parallel die Architektur des Pentium M zum Core und schließlich Core 2 weiterentwickelt. Vom Pentium-Pro-Design dürfte im Laufe dieser mehrfachen Überarbeitung übrigens sehr wenig übrig geblieben sein.
 
Zuletzt bearbeitet:
Alles mitunter Unsinn was hier geschrieben wurde. Es ist mit heutiger Technik vermutlich durchaus möglich, einen Prozessor herzustellern, der 20Ghz taktet. Das war ja die "Strategie" von Intel beim Pentium 4. Das Problem daran ist, dass das ganze dann enorm mehr Energie Frisst und immer heißer wird, dazu kommt das Problem, dass man größere (immer größere) Piplines verbauen muss. Das war leider ein Holzweg, den Intel teuer bezahlen musste. Daher wurde die ganze Pentium 4 Architektur eingestampft, und man ist wieder "back to the roots" gegangen, zurück zum Pentium Pro. Das wissen vermutlich die wenigstens, aber die Core Architektur baut zu 90% auf dem uralten Pentium Pro auf.

Der Grund der "magischen" / virtuellen Grenze bei 5Ghz ist also alleinig aus Ergonomischen Gründen zu suchen. Ab dort wird das genze zu heiß und zu "unwirtschaftlich".

Es beruht auf der Tatsache, dass die Verlustleistung eines MOSFETs stets linear zur Frequenz steigt bei Schaltungen.
[...]
Die Pipeline des Pentium 4 hab ich mal außen vor gelassen (davon versteh ich eh nichts, mit sowas müssen sich die technischen Informatiker rumschlagen).
Klar steigt auch die Verlustleistung des MOSFET mit höheren Frequenzen, aber wenn die maximale Frequenz nur daran hängen würde, könnte man ja den Ryzen 5 1500 mit 7 GHz betreiben, während der Ryzen 7 mit 3,5 GHz taktet - unter der Annahme, dass die Verlustleistung linear mit der Frequenz steigt. Denn dann dürften beide gleich gut zu kühlen sein und die Verlustleistung wäre gleich. Das Problem existiert ja gerade deshalb, weil die Leistungsaufnahme des Chips eben nicht linear mit der Frequenz zusammen hängt, sondern eben eine weitaus stärkere Abhängigkeit entsteht. Oder anders: für jedes weitere MHz muss man immer teurer bezahlen.
Ich hab auch nie gesagt, dass bei 5 GHz eine "magische Grenze" besteht, im Gegenteil:
[...] Außer für Sonderfälle, die auf brachial hohen Takt angewiesen sind. Da ist aber auch die Kühlung ein anderes Kaliber.[...]
Es ist mir durchaus bewusst, dass es Server gibt, die mit 7 GHz + takten. Da sind sich die Ingenieure aber auch der Tatsache bewusst, dass man bei der Kühlung eines solchen Gerätes schwere Geschütze aufbringen muss. Möglich ist das allemals, auch stabil, aber für einen normalen Heimrechner halt nicht sinnvoll. Ich verzichte jedenfalls gerne auf 7 GHz, wenn ich dafür keine Turbine neben mir stehen habe.
gRU?; cAPS
 
Nicht zu vergessen, dass mit Erhöhung des Taktes sich auch die Elektromigration erhöht - ein 10Ghz-Prozessor wäre alles anderen als lange lebensfähig.:ugly:
 
Zurück