Hmm, was versprichst du dir von einem Schrink von 12nm auf 7nm? Guck dir einfach mal die Entwicklung der Strukturverkleinerung über die Zeit an.
MOSFET scaling
(process nodes)
10 µm – 1971
6 µm – 1974
3 µm – 1977
1.5 µm – 1981
1 µm – 1984
800 nm – 1987
600 nm – 1990
350 nm – 1993
250 nm – 1996
180 nm – 1999
130 nm – 2001
90 nm – 2003
65 nm – 2005
45 nm – 2007
32 nm – 2009
22 nm – 2012
14 nm – 2014
10 nm – 2016
7 nm – 2018
Future
5 nm – ~2020
3 nm – ~2022
Quelle:
Semiconductor device fabrication - Wikipedia
Prozentual gesehen ist das vielleicht ein größerer Schrink als z.B. der Sprung von 90nm auf 65nm im Jahre 2005. Aber absolut bzw. elektrisch gesehen ist das fast nichts. Die Mikrotechnologie ist an ihrer Grenze angekommen. Ob nun 14, 12, 10, 7, 5 oder 3nm ... wayne. Da ist nicht mehr viel zu holen, jenseits von IPC-Optimierungen per cleveren Designverbesserungen und dem einen oder anderen Fertigungtrick/Porzeßtuning. Eigentlich lohnt sich der ganze Spaß jetzt schon garnicht mehr. GloFo als Nichtbörsianer ist deshalb ja auch ausgestiegen, weil der technologische (und damit finanzielle) Aufwand viel zu hoch ist für den geringen Nutzen/Gewinn, den man hinterher davon hat. Und BigNavi kocht mit dem gleichen Wasser wie NVidia und sogar im gleichen Kochtopf namens TSMC. AMD und NVidia müssen sich zwangsläufig in ihrer Leistung immer mehr annähern... und damit ist dieser ganze Glaubenskrieg, was nun besser ist, imo irgendwie bald total sinnlos.
Ja und Nein.
1.) Die Entwicklung ist grds. schon prozentual zu sehen, die absolute Auswirkung ist für eine Bemessung nicht relevant.
Beispiel, wenn du einen Transistor in 100nm hast, und einen Shrink auf 50nm durchführst, bekommst du statt einem zwei Transistoren
Wenn du jetzt aber von 10nm auf 5nm shrinkst, hast du nur ein Zehntel der absoluten Auswirkung, aber den gleichen Effekt, zwei statt einem!
2.) Das es sich nicht mehr lohnt ist leider auch Schwachsinn, der Umstieg von 14nm auf 7nm hat eine Verbesserung der Effizienz zur Folge die eben weit über dem hier sich immer weiter realisierenden Performancevorteil liegt. Gerade bei Grafikkarten kann man auch den Vorteil oft sehr gut ausschöpfen, da eben viele Shader gebraucht werden und solche Chips oft im Sweetspot laufen können ohne allzugroße Taktsprünge machen zu müssen. Aber schau hier einfach mal, welchen Sprung AMD machen konnte, ein 3950X z.B. ist der Nachfolger des 2700X, eine Verdoppelung der Leistung bei gleichzeitig verringertem Energieverbrauch. Das war eigentlich auch in der GrakaSzene erwartet worden.
3.) Tatsächlicherweise nähern wir uns aber so langsam dem Ende der Fahnenstange. Bereits jetzt muss vermehrt mit EUV (also extremen Ultraviolettenlich) belichtet werden, in den Inkarnationen 5nm und 3nm wird dies dann fast ausschließlich der Fall sein. Mit den aktuell zur Verfügung stehenden Materialen wird das schon schwierig. Ich meine im Kopf zu haben, dass Fahrpläne bis hinunter zu 1,4nm aktuell vorliegen, eine Veröffentlichung bei Intel ist meine ich Ende des Jahrzehntes geplant. Wird also noch viel Wasser den Rhein hinunterfließen.
Im Fazit muss ich deiner Aussage leider komplett widersprechen, ein Shrink ist die derzeit die Möglichkeit die größt möglichen Performancegewinne zu realisieren. Gerade wenn wir von SingleCore Leistungen weggehen und auf massive Parallelisierung setzen spielen Chips immer kleinerer Fertigungsgrößen Ihre Vorteile perfekt aus. Ein 7nm Chip hat in etwa die doppelte Effizienz eines 14nm Chips (Die zahlreichen Iterationen von 14nm haben diesen Abstand sicherlich etwas verkleinert), was gerade bei Grafikkarten bedeuten könnte, dass sie die doppelte Leistung realisieren könnten. AMD kann dies dank BigNavi vieleicht sogar schaffen (man muss es ja eigentlich noch mit VEGA vergleichen), brauchte aber auch einige Zeit um die maximalen Vorteile aus 7nm zu ziehen. Nvidia scheint ebenso Probleme zu haben und Ampere wird zunehmend in eine Ecke gedrückt, wo eben die RT Leistung massiv wächst, eben aber die Shaderleistung nicht annähernd das bringen wird, was AMD mit BigNavi bringen kann. Daher ist die Forschung an immer neuen und kleineren Strukturen essentiell und in den letzten Jahrzehnten waren es im Wesentlichen immer neue Fertigungsprzesse die uns Leistungssprünge gebracht haben, oder die sukzessive Anhebung der Powerlimits. Zu Beginn meiner Zeit, waren CPUs noch ohne Kühlkörper, selbst Jahre später war ein Minipassivkühlkörper noch Standard (und wurde damals sogar mißtrauisch beäugt, als wenn die Leute wussten, dass Netburst kommt.