News AMD-Leak: Zen-6-CPUs in 3 nm [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD-Leak: Zen-6-CPUs in 3 nm [Gerücht]

Auf einer Datamining-Webseite wurden Informationen zu einem neuen Codenamen für künftige Prozessoren sowie deren Fertigung geleakt. So soll Kraken Point Sound Wave auf Zen-6-Basis nachfolgen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD-Leak: Zen-6-CPUs in 3 nm [Gerücht]
 
Was mich bei Zen6 vor allem interessiert ist, ist er noch AM5, schon AM6 oder evtl. beides? :)

Bin mal gespannt was ab der größe von 1nm passiert. 0.5 oder wie gehts dann weiter ? Irgendwann ist halt ende bei den Halbleitern.

Physikalisch betrachtet ist ein Silizium-Atom ~110pm, aka 0.11nm gross, was verdeutlicht, dass diese Grössenangaben sowieso nur noch reines Marketinggewäsch sind.

Unter 1nm heisst es dann halt nicht 0.5nm, sondern 500pm.
Nicht anders wie schon vom Wechsel von Mikrometer auf Nanometer.
 
Bin mal gespannt was ab der größe von 1nm passiert. 0.5 oder wie gehts dann weiter ? Irgendwann ist halt ende bei den Halbleitern.

Von TSMC wird "N1.4" als nächster Name nach "N2" erwartet. Von daher wären "N0.x"-Namen zu erwarten. Intel springt nach I3 auf I20A und hat dann erstmal wieder eine Zeit lang Luft, ehe die Ziffern ausgehen. Samsung, die einzige immer noch behaupten dass die Zahlen irgendwas mit Nanometern zu hätten, haben meiner Erinnerung nach "1.4 nm" angekündigt und könnten danach ebenfalls auf "0.x"-Bezeichnungen wechseln.

Ende ist jedenfalls noch lange nicht. Was die Breite der leitenden Strukturen angeht, haben wir heute mit Intel 4 und TSMC N5/N4 gerade einmal die 7-nm-Klasse erreicht, 20A und N3/N2 werden 5-nm-Prozesse. Ich glaube irgendwo bei 0,5 nm liegt der Übergangsbereich von 3- zu 2-dimensionalen Halbleitern, der noch einmal einen massiven Schub bringen wird und irgendwo unter 0,15 ist dann ganz schluss mit Silizium. Das klingt erstmal nach "gleich um die Ecke", aber die Skalierung neuer Prozesse wird zunehmend mehr über die Verschaltung und Anordnung der Transistoren erreicht, nicht über deren Größe, sodass die Abstände zwischen echten Schrumpfungen immer größer werden. Über die nächsten Jahrzehnte würde ich eher mit vier denn drei Jahren je Sprung rechnen und da Schrumpfungen kein linearer Prozess sind, braucht es davon noch eine ganze Menge:
5 nm (=erwarteter x86-CPU-Stand Ende 2024)
3 nm
2 nm
1,4 nm
1 nm
0.8 nm
0,5 nm
0,3 nm
0,2 nm
[Ende]

Das wären 8 weitere Transistor-Nodes (und unzählige zwischengeschobene andere Steigerungsmöglichkeiten), bis man etwas komplett neues braucht. Bei je vier Jahren wäre also 2056 das Ende der Fahnenstange erreicht – aber bis dahin werden die Karten garantiert nochmal neu gemischt.
 
Zuletzt bearbeitet:
Das wären 8 weitere Transistor-Nodes (und unzählige zwischengeschobene andere Steigerungsmöglichkeiten), bis man etwas komplett neues braucht. Bei je vier Jahren wäre das Ende also 2056 das Ende der Fahnenstange erreicht – aber bis dahin werden die Karten garantiert nochmal neu gemischt.
Und pro Node steigt der Preis pro Wafer um 50%...yeah! :ugly:
 
tsmc hat letztens die nachfolge von N Namen genannt das ist a18 a15 a12 a10 mode bis 2035
ich gehe bis a18 was so 2028 herauskommen sollte und erste stapelbare chips haben wird.
Das wird auch die letzte node sein wo man mit monolithischen chips die alu verdoppeln kann danach muss mcm eingesetzt werden
intel nennt diese nodes intel 18a 12a 10a
Unklar ist womit tsmc das erreichen will Silizium ist am ende das erste was kommt ist gaa mit n2x und den backside power delivery (+50% Effizienz) mit n2
Euv verbessert das noch bis a10 danach ist ende und ein neues trägermaterial muss her.
Der reale pitch zwischen den gates liegt aktuell bei 30nm durch finfett ging man in die höher folgend wird man die chips stapeln gaa verdoppelt die chipdichte auf gleiche Größe gleichzeitig sinkt die maximale Diefläche auf nur noch 420mm² mehr kann man nicht mehr belichten.
Jetzt sind wir bei 830mm² und realen 30nm in n5 node, n3 verbessert die packsichte um 2nm also 28nm pitchabstand das alleine sorgt für ne chipdichte bei 0,58
n2 wird das auch kaum bis gar nicht verbessern lass es 27nm sein und nochmal um 0,85 dichter werden das ist aber anzuzweifeln.
ich sehe eher das man backsite pd anwenden wird also 50% Energieeffizienz bzw 25% Takt und n2x wird die chips in Größe halbieren
Da aber die maxed Größe nur noch bei 400mm² ist dürfte nvidia diesen node überspringen bis n2x bereit ist.
Das wäre frühestens 2026 eher 2027 so weit
Solange wird man n3 nutzen nen refresh der blackwell Serie wäre denkbar in n3p node da sollen nochmal gut 10% Takt gehen
Aktuell dürfte blaclwell maximal bei 3,57ghz landen mit n3 node und n3p Mitte 2026 bei 3,9ghz
Das wäre ein Weg wie nvidia gehen kann dieser hat aber ne grenze mehr als die 5,0ghz bei n2x node wird nicht gehen da man an Wärmedichte nen problem bekommt.
Stapelbar würde dies zudem bis zu 2,0ghz Taktverlust bringen also von 5,0ghz bei n2x auf a18 mit nur 3,0ghz
da aber nvidia bisher nie den Takt einer gen geringer war als die vorherige dürfte man das design ab rubin ändern was mit a18p kommen wird.
ich sehe frühestens rubin akä rtx70 ab 2029 kommen in a18p node bei grob 3,5ghz und doppelter alu vs blackwell refresh auf n3p node
Nen n2x blackwell 2 wäre möglich
Also folgendes Szenario
2025 n3 node rtx50 bis 3,2ghz größere chips je sku auf Effizienz getrimmt
2026 n3p node Takt um 10% erhöht 3,5ghz könnte rtx50 super werden
2027 n2x node gleiches design rtx60 +50% alu gleicher Takt.
2029 a18p node rubin neues design bei 3,5ghz gestapelte alu quasi verdoppelte alu menge

nun zum warum man kann auf Takt gehen was dienlich zum directx limit ist das alu kaum ausgelastet werden können da mehr alu mehr cpu limit bedeuten. Oder man ändert die Architektur von Grund auf neu in eine 32bit + design das aber würde extreme Treiber arbeiten nach sich ziehen.
Daher nehme ich an das man lediglich die sheduler basis erweitern wird.
Das kann man mit 152fp32 (192alu nvidia Angabe) durchführen oder mit weiterhin 88fp32 (128alu nvidia Angabe) erreichen aber mit mehr Takt. Sicher ist das die gpc mehr sm bekommen werden .
blackwell 16sm statt ada 12sm und rubin sicher 32sm
Bliebe rubin zu ada und ampere identisch wäre man bei 32*12*88*3,5gh =236tf (343tf nvidia Angabe)
Allerdings muss nvidia dann auf mcm setzen da amd bis dahin (2028) bei 324tf kommt mit 4 gcd je 60sm mal 2 da gestapelt. Bei 5,0ghz (614tf amd Angabe)
ich gehe von nen design Änderung ab rubin aus auf 192 alu per sm was faktisch 32*12*152*2*3,5 =408tf (516tf nv Angabe) wird.
Das ist aber weit in der Zukunft und kann sich komplett anders entwickeln sicher ist das entry schwierig wird für nvidia wenn man keine Antwort hat auf amd apu's. (120cu ab zen8)
Die Konsole wird mit ps5 pro dieses Jahr die Anforderungen verdoppeln bis 2026 in entry gpu markt
Und ps6 nochmal verdoppeln was dann etwa 50tf sein wird das entspricht der rtx4090 cpu limitiert auf 80% gpu load das erreicht man mit pathtracing auf 1080p
Cpu seitig ist man ab zen6 bei 6,2ghz das wäre 2025 soweit +50% ipc vs jetzt
Das dürfte das cpu limit der rtx4090 aufheben in 1440p bei raster
Was aber auch sicher ist die rop müssen je sku auf doppelte steigen also 07er chip bei 64 rop 06er 96rop 05er 128rop 03er 224rop 02er 384rop
Das wird mit blackwell Nachfolger Pflicht werden. nvidia könnte mit blackwell die rop auf 20 erhöhen von 16 per gpc das würde passen zu den 16sm zu 12sm
Die tmu von derzeit 4 tmu auf 6 tmu per sm das würde passen damit das Verhältnis rop zu texel wieder passt.
Die tensor cores werden halbiert ab blackwell da diese sowieso brach liegen .

Von der Fertigung aus gesehen dürfte das schrinken ab a18 node am ende sein

wo alu unbegrenzt skalierbar sind wäre hpc wo kein Rasterizer benötigt wird und somit die perf unendlich steigen kann und das parallel.
Dazu passen die Gerüchte über 1000w hpc ai Beschleunigern. Das aber wird allein durch npu komplett überflüssig werden. Die software entwickelt sich in ai Richtung Effizienz.
Nvidia Aufschwung gilt also nur so lange bis eine api alternative gibt und die wird es geben.
 
bis man etwas komplett neues braucht.
Und selbst da gibt es ja schon einiges in der Pipeline. Ich weiß nicht im Detail was sich wofür genau eignet, aber GaN, ScAlN oder auch Graphen sind mir da in den letzten Jahren in die Augen gefallen. GaN ist zumindest im Bereich von Mosfets ja auch schon dick im Geschäft und sorgen in vielen Bereichen für eine deutlich bessere Energiedichte und Effizienz.

Benötigen wir eigentlich eine höhere CPU Leistung dringend? Also für zuhause?
Beides klar mit einem JA zu beantworten. Recht simpel, aber am Ende steigt die Datenmenge die man auch im privaten Umfeld hat immer weiter und weiter an. Vor 11 Jahren habe ich mein Haus saniert und dummerweise habe ich damals die Kabel alle unterputz gelegt, "das reicht ewig" hab ich mir gesagt. HDMI 2.0 (damals noch vor der endgültigen Zertifizierung) wird bis zur nächsten Kernsanierung wohl reichen, heute hab ich den Salat. 4k 60Hz, damals noch ziemlich unvorstellbar, heute schon Standard an den Spielekonsolen.

Nur um mal aufzuzeigen, wie enorm sich das Datenvolumen steigert, in nur knapp 10 Jahren. Das wird auch so weitergehen, 5k Videos mach ich jetzt auch schon ein paar Jahre, demnächst dann 8k und der 8K TV ist auch nicht so weit weg, wenn ich Google dann kommt ein Samsung 8K 75Zoll für 4500EUR, das ist nicht mehr weit weg von der Massentauglichkeit. 8K mit HDMI 2.0? Tja, Ende im Gelände und Wände aufspitzen ist angesagt.
 
Nur um mal aufzuzeigen, wie enorm sich das Datenvolumen steigert, in nur knapp 10 Jahren. Das wird auch so weitergehen, 5k Videos mach ich jetzt auch schon ein paar Jahre, demnächst dann 8k und der 8K TV ist auch nicht so weit weg, wenn ich Google dann kommt ein Samsung 8K 75Zoll für 4500EUR, das ist nicht mehr weit weg von der Massentauglichkeit. 8K mit HDMI 2.0? Tja, Ende im Gelände und Wände aufspitzen ist angesagt.

Ich bin in vielen Dingen schon sehr anspruchsvoll. Dennoch habe ich hier eine ganz andere Erfahrung gemacht.

Meinen PC habe ich mir vor 9 Jahren zusammengestellt. Auf Intel Xeon Basis, mit einem perfekt designten Server Mainboard von Supermicro. Aus dem 6-Kerner ist ein 8-Kerner geworden. Der 8-Kerner hat vor nicht allzu langer Zeit noch rund €1800 gekostet (E5-1680v4), bei eBay für €150 geschossen.
64 statt 32 GB RAM, 2x10Gbit LAN, nur noch SSDs, 24 TB (Brutto) RAID-0 mit 3x8TB Samsung 870 QVO als schneller Pufferspeicher für Backup und Restore, auch von Geräten im LAN. Eine RTX 4070 mit nur 2 Sockelbreiten brachte mir noch einen wertvollen PCIe 3.0 x8 Sockel zurück für die Intel Netzwerkkarte mit 2 SFP+.

Was mich manchmal selbst erstaunt, wie gut das Gesamtsystem immer noch performt. Sowohl im Recording Bereich (hinsichtlich geringer DPC Latenzen) als auch beim Gamen. CP2077 kann man inkl. Raytracing immer noch einwandfrei spielen. Full-HD ist für meine Begriffe immer noch ausreichend und dann geht das auch prima.

Ich habe jedenfalls nicht vor, jedem Hype hinterherlaufen.

In mein System, das schnell und effizient arbeitet und wirklich absolut silent ist, habe ich im Laufe der Arbeit auch so viel Optimierungsarbeit reingesteckt. Da lohnt es sich nur dann, etwas Schnelleres zu besorgen, wenn es auch einen konkreten Bedarf gibt.

Wo Du gerade Datenvolumen sagst. Also ich habe schon seit vielen Jahren ein sehr hohes Datenvolumen.
I/O über 10 Gbit LAN braucht so gut wie keine CPU Last.
Wenn ich mit Macrium Reflect sichere, dann brauche ich schon mal was CPU Leistung, um das reine Betriebssystem drive on the fly zu komprimieren. Aber auch das Full Backup ist bei 850GB Daten auf dem C: drive in weniger als 25 Minuten erledigt. Das mirrorn der user daten läuft im Hintergrund, das braucht keine komprimierung und läuft einfach so als Hintergrundrauschen durch.

Gut, wenn man meint, man müsste demnächst alles Mögliche in 8k machen. Kann man natürlich tun und wer das unbedingt möchte, der wird es auch tun.
Aber mal ehrlich, ich halte diesen Pixelwahn bei allem Möglichen heutzutage für ziemlich unnötig.
 
Zuletzt bearbeitet:
Meine Sicht der Dinge: CPU´s waren zu jeder Zeit eigentlich schnell genug. Die Peripherie war/ist das Problem. Festplatte, Grafikkarte, Chipsätze, es waren eigentlich immer irgendwelche Schnittstellen und/oder Speichergeschwindigkeiten der limitierende Faktor. Wenn man nen 12Zylinder auf das Fahrwerk einer Ente setzt, ist letzteres das Problem. Oder C64 mit Standard-Floppy vs. Turbotrans (basierte auf TurboAccess, Vorläufer der RAM-Disk, die Diskette wurde mit 10facher Geschwindigkeit in den zusätlichen Floppy-RAM eingelesen. Die Daten wurden anschließend mit bis zu 200facher Geschwindigkeit in den Computer-RAM übertragen.). Ein altgedienter 64Bit-Prozessor auf nem Mainboard mit modernen Schnittstellen/Speicher/Peripherie wäre mal ein interessantes Objekt für Benchmarks.
 
Zurück