News AMD-Leak: Zen-6-CPUs in 3 nm [Gerücht]

tsmc hat letztens die nachfolge von N Namen genannt das ist a18 a15 a12 a10 mode bis 2035
ich gehe bis a18 was so 2028 herauskommen sollte und erste stapelbare chips haben wird.
Das wird auch die letzte node sein wo man mit monolithischen chips die alu verdoppeln kann danach muss mcm eingesetzt werden
intel nennt diese nodes intel 18a 12a 10a
Unklar ist womit tsmc das erreichen will Silizium ist am ende das erste was kommt ist gaa mit n2x und den backside power delivery (+50% Effizienz) mit n2
Euv verbessert das noch bis a10 danach ist ende und ein neues trägermaterial muss her.
Der reale pitch zwischen den gates liegt aktuell bei 30nm durch finfett ging man in die höher folgend wird man die chips stapeln gaa verdoppelt die chipdichte auf gleiche Größe gleichzeitig sinkt die maximale Diefläche auf nur noch 420mm² mehr kann man nicht mehr belichten.
Jetzt sind wir bei 830mm² und realen 30nm in n5 node, n3 verbessert die packsichte um 2nm also 28nm pitchabstand das alleine sorgt für ne chipdichte bei 0,58
n2 wird das auch kaum bis gar nicht verbessern lass es 27nm sein und nochmal um 0,85 dichter werden das ist aber anzuzweifeln.
ich sehe eher das man backsite pd anwenden wird also 50% Energieeffizienz bzw 25% Takt und n2x wird die chips in Größe halbieren
Da aber die maxed Größe nur noch bei 400mm² ist dürfte nvidia diesen node überspringen bis n2x bereit ist.
Das wäre frühestens 2026 eher 2027 so weit
Solange wird man n3 nutzen nen refresh der blackwell Serie wäre denkbar in n3p node da sollen nochmal gut 10% Takt gehen
Aktuell dürfte blaclwell maximal bei 3,57ghz landen mit n3 node und n3p Mitte 2026 bei 3,9ghz
Das wäre ein Weg wie nvidia gehen kann dieser hat aber ne grenze mehr als die 5,0ghz bei n2x node wird nicht gehen da man an Wärmedichte nen problem bekommt.
Stapelbar würde dies zudem bis zu 2,0ghz Taktverlust bringen also von 5,0ghz bei n2x auf a18 mit nur 3,0ghz
da aber nvidia bisher nie den Takt einer gen geringer war als die vorherige dürfte man das design ab rubin ändern was mit a18p kommen wird.
ich sehe frühestens rubin akä rtx70 ab 2029 kommen in a18p node bei grob 3,5ghz und doppelter alu vs blackwell refresh auf n3p node
Nen n2x blackwell 2 wäre möglich
Also folgendes Szenario
2025 n3 node rtx50 bis 3,2ghz größere chips je sku auf Effizienz getrimmt
2026 n3p node Takt um 10% erhöht 3,5ghz könnte rtx50 super werden
2027 n2x node gleiches design rtx60 +50% alu gleicher Takt.
2029 a18p node rubin neues design bei 3,5ghz gestapelte alu quasi verdoppelte alu menge

nun zum warum man kann auf Takt gehen was dienlich zum directx limit ist das alu kaum ausgelastet werden können da mehr alu mehr cpu limit bedeuten. Oder man ändert die Architektur von Grund auf neu in eine 32bit + design das aber würde extreme Treiber arbeiten nach sich ziehen.
Daher nehme ich an das man lediglich die sheduler basis erweitern wird.
Das kann man mit 152fp32 (192alu nvidia Angabe) durchführen oder mit weiterhin 88fp32 (128alu nvidia Angabe) erreichen aber mit mehr Takt. Sicher ist das die gpc mehr sm bekommen werden .
blackwell 16sm statt ada 12sm und rubin sicher 32sm
Bliebe rubin zu ada und ampere identisch wäre man bei 32*12*88*3,5gh =236tf (343tf nvidia Angabe)
Allerdings muss nvidia dann auf mcm setzen da amd bis dahin (2028) bei 324tf kommt mit 4 gcd je 60sm mal 2 da gestapelt. Bei 5,0ghz (614tf amd Angabe)
ich gehe von nen design Änderung ab rubin aus auf 192 alu per sm was faktisch 32*12*152*2*3,5 =408tf (516tf nv Angabe) wird.
Das ist aber weit in der Zukunft und kann sich komplett anders entwickeln sicher ist das entry schwierig wird für nvidia wenn man keine Antwort hat auf amd apu's. (120cu ab zen8)
Die Konsole wird mit ps5 pro dieses Jahr die Anforderungen verdoppeln bis 2026 in entry gpu markt
Und ps6 nochmal verdoppeln was dann etwa 50tf sein wird das entspricht der rtx4090 cpu limitiert auf 80% gpu load das erreicht man mit pathtracing auf 1080p
Cpu seitig ist man ab zen6 bei 6,2ghz das wäre 2025 soweit +50% ipc vs jetzt
Das dürfte das cpu limit der rtx4090 aufheben in 1440p bei raster
Was aber auch sicher ist die rop müssen je sku auf doppelte steigen also 07er chip bei 64 rop 06er 96rop 05er 128rop 03er 224rop 02er 384rop
Das wird mit blackwell Nachfolger Pflicht werden. nvidia könnte mit blackwell die rop auf 20 erhöhen von 16 per gpc das würde passen zu den 16sm zu 12sm
Die tmu von derzeit 4 tmu auf 6 tmu per sm das würde passen damit das Verhältnis rop zu texel wieder passt.
Die tensor cores werden halbiert ab blackwell da diese sowieso brach liegen .

Von der Fertigung aus gesehen dürfte das schrinken ab a18 node am ende sein

wo alu unbegrenzt skalierbar sind wäre hpc wo kein Rasterizer benötigt wird und somit die perf unendlich steigen kann und das parallel.
Dazu passen die Gerüchte über 1000w hpc ai Beschleunigern. Das aber wird allein durch npu komplett überflüssig werden. Die software entwickelt sich in ai Richtung Effizienz.
Nvidia Aufschwung gilt also nur so lange bis eine api alternative gibt und die wird es geben.
Ich glaube nicht TIm. Gibt es zu der Hypothese auch Quellen? Oder entstand das nur durch die Hilfe von gefühlsechten magnetischen Chakra Steinen.
 
Zuletzt bearbeitet:
Und selbst da gibt es ja schon einiges in der Pipeline. Ich weiß nicht im Detail was sich wofür genau eignet, aber GaN, ScAlN oder auch Graphen sind mir da in den letzten Jahren in die Augen gefallen. GaN ist zumindest im Bereich von Mosfets ja auch schon dick im Geschäft und sorgen in vielen Bereichen für eine deutlich bessere Energiedichte und Effizienz.


Beides klar mit einem JA zu beantworten. Recht simpel, aber am Ende steigt die Datenmenge die man auch im privaten Umfeld hat immer weiter und weiter an. Vor 11 Jahren habe ich mein Haus saniert und dummerweise habe ich damals die Kabel alle unterputz gelegt, "das reicht ewig" hab ich mir gesagt. HDMI 2.0 (damals noch vor der endgültigen Zertifizierung) wird bis zur nächsten Kernsanierung wohl reichen, heute hab ich den Salat. 4k 60Hz, damals noch ziemlich unvorstellbar, heute schon Standard an den Spielekonsolen.

Nur um mal aufzuzeigen, wie enorm sich das Datenvolumen steigert, in nur knapp 10 Jahren. Das wird auch so weitergehen, 5k Videos mach ich jetzt auch schon ein paar Jahre, demnächst dann 8k und der 8K TV ist auch nicht so weit weg, wenn ich Google dann kommt ein Samsung 8K 75Zoll für 4500EUR, das ist nicht mehr weit weg von der Massentauglichkeit. 8K mit HDMI 2.0? Tja, Ende im Gelände und Wände aufspitzen ist angesagt.

Digitale Videos sind, neben Spiele-Installationen, aber auch so ziemlich die einzige Steigerung von privaten Datenvolumen in den letzten 20 Jahren. Und dass sich diese Entwicklung auch nur linear fortsetzt (was keine weiteres exponentielles Wachstum der Prozessorleistung erfordern würde) halte ich für unwahrscheinlich. 8K-Geräte sind selten und fast nur in Übergrößen zu erhalten – meiner Meinung Artefakte in Nischenmärkten: Anstatt eine getrennte Produktionslinie mit besonders großen Pixeln für Monster-TVs zu betreiben, nimmt man einfach ein doppelt so großes Stück bestehender Substrate, die sonst in vier UHD-Geräte zersägt worden wären. Dass sich dadurch auch die Pixelmenge verdoppelt, freut das Marketing, ist aber keine vom technischen Fortschritt getriebene Entwicklung und letztlich, bei den für Fernsehern dieser Art in PR-Material gezeigten Betrachtungsabständen, auch verzichtbar. 4K hat sich nicht ohne Grund auch in Kinos als feste Größe etabliert. Bei Standard-Sehvermögen ist das einfach die optisch sinnvolle Grenze für Sichtfelder bis 64° (= Auflösung von einer Winkelminute) und das sind schon 50 Prozent mehr, als für den Filmgenuss empfohlen wird.

Ich persönlich würde daher genauso eine Stagnation erwarten, wie wir sie bei Standbildern erlebt haben: Anfang des Jahrtausends explodierte die Auflösung von Digitalkameras, später verlangsamte sich die Entwicklung und als 16 Megapixel erreicht waren (was ungefähr 4.900 Spalten entspricht), kollabierte sie. Zwei Drittel der seit 2020 in den Preisvergleich aufgenommenen Modelle liegen immer noch unter dieser Grenze und nur 4 von fast 200 Modellen (alle von Leica, alle technisch eng verwandt) überschreiten 8.000 Spalten. Die Verbraucher fragen höhere Bildqualität einfach kaum noch nach. Sieht man ja auch bei Fernsehern selbst: Ein optisches Vertriebsmedium wurde für 4K de facto nicht mehr etabliert, lineare Sender senden bis heute bestenfalls in FHD und Streaming-Dienste bieten zwar UHD an (teils nur gegen Aufpreis), aber mit einer Bitrate, die unter der einer guten FHD-BluRay liegt. Im Laufe der Zeit wird 4320p vermutlich noch Einzug halten, solange es nicht zuviel extra kostet, aber zumindest in meinem Umfeld wurden schon UHD-Fernseher in neun von zehn Fällen nur gekauft, weil sowieso ein neues Gerät benötigt wurde und FHD gar nicht mehr oder nur zu ähnlichen Preisen verfügbar war. Einen verbreiteten Standard jenseits von "8k" würde ich für konventionelle Video-Wiedergabe gar nicht mehr erwarten.

tl;dr: Die für Videos benötigte Leistung wird meiner Meinung nach mittelfristig stagnieren. In allen anderen aktuell genutzten Bereichen (Musik, Text, Standbild) hat der Zuwachs der Datengrößen schon vor Jahren, teils Jahrzehnten gestoppt.

Und das koppelt sich auch auf die Hardware rück: Ein Großteil der Mediennutzung, die vor 15-20 Jahren einen PC mit 100 bis 200 W und dutzenden cm² beteiligtem Silizium aus modernster Fertigung erforderte, läuft heute über Smartphones bei geringer Auslastung mit 2 W inklusive Display. Einzig Spiele steigern den Hardware-Hunger noch stetig, aber auch da hält sich das exponentielle Aufwandswachstum der Jahrtausendwende nur in der (kleiner werdenden! Nische des Enthusiast-PC-Gamings. Das Groß auf den Konsolen entwickelt sich zunehmend langsamer weiter. Zwischen SNES (Urform, ohne Beschleunigerchips in der Cartridge) und Playstation 2 lagen zwei bis drei Spiele-Generationen und in Europa acht Jahre. So alt wird dieses Jahr die Playstation 4 Pro und einige bezeichen die PS5 immer noch als "Next Gen".
Wenn kein Game-Changer kommt, könnte die private Datenrate in 10 Jahren also sogar komplett stagnieren. In der Vergangenheit wurden mit Text-, Ton- und Video-Medien aber immer nur bereits lange vorher analog respektive als Broadcast verbreitete Inhalte digitalisiert. Diesmal müsste es etwas komplett neues sein und in den letzten Jahren war VR da noch der am wenigsten aussichtlose Ansatz.
 
In mein System, das schnell und effizient arbeitet
Da kann und darf man aber andere Sichtweisenbhaben, oder? Die reine Geschwindigkeit ist am Ende sehr subjektiv beschrieben, aber Broadwell verliert schon 50% bei der IPC gegen Alder Lake (IPC Test TimeSpy 4C/8T), das werden mittlerweile gegen Zen 4 schon rund 75% sein, die Broadwell bei gleichem Takt und gleicher Kernzahl an Leistung verliert, ergo kannst du einen Zen 4 mit bspw 3Ghz und 8 Kernen dagegen halten um die gleiche Leistung wie du zu bekommen.

Also dein System ist für dich ausreichend, dass kann ich akzeptieren. Aber schnell und effizient ist es mit ziemlicher Sicherheit nicht.
In allen anderen aktuell genutzten Bereichen (Musik, Text, Standbild) hat der Zuwachs der Datengrößen schon vor Jahren, teils Jahrzehnten gestoppt.
Sehe ich komplett anders, allerdings wenn ich deine Aussage interpretiere, kann ich doch zustimmen.

Der Zuwachs je Bild wird vermutlich nicht mehr in dem Bereich steigen, wie in den letzten 10 Jahren.


Aber du vergisst, dass der Zuwachs an Bildern und Dateien in Summe enorm ist. Es ist ja nicht ganz umsonst so, dass der Bedarf an großen Festplatten immer weiter und weiter steigt und das eben, obwohl wir nun schon lange an der Grenze um 20MP angekommen sind.

Dazu sehe ich, dass die aktuelle Leistung im privaten Bereich schon nur unter Limitierungen ausreicht, 4k on the fly wird schon schwierig und fraglich ob on the Fly schnell genug ist? Ich sehe zwar auch, dass tendenziell die Rechenlast eine andere wird, aber sehe schon immer Bedarf an weiter steigender Leistung, alleine eben schon, da ich nicht davon ausgehen, dass das reine Volumen nicht mehr wächst.
 
Bei der Bearbeitung von UHD-Material gibt es sicherlich noch Potenzial für ein paar Jahre weitere Entwicklung. Da braucht vieles noch ein paar Minuten und die möchte nicht jeder warten. Bei uns in der Redaktion ist der Leidensdruck für einige aber schon so gering, dass sie lieber am MacBook bleiben, statt auf einen dicken Threadripper zu wechseln (der, allen M-Qualitäten zum Trotz, dann doch etwas mehr Brute-Force-Leistung bietet). Auch bei Festplatten ist das Ende der Fahnenstange noch nicht heute erreicht, aber die Entwicklung hat sich schon extrem abgebremst. Soweit ich es überblicke, sind einstellige TB-Zahlen weiterhin weit verbreitet und das waren sie auch schon vor 10 Jahren. Je nachdem, wie man einen Nutzerkreis definiert, würde ich über diese Zeitspanne vielleicht eine Vervierfachung in Betracht ziehen. In den 10 Jahren von 2004 bis 2014 dagegen dürfte es eine Verzehn- bis Verzwanzigfachung von gut 100 GB auf besagte "wenige TB" gewesen sein und von 94 bis 2014 war es Faktor 100 bis 200.

Ich sehe da einfach eine Grenze bei der Digitalisierbarkeit unseres Lebens: Wir haben die Nutzungsfrequenz auf 100 Prozent der verfügbaren Tageszeit gesteigert, wir haben den Digitalisierungsanteil auf 100 Prozent der genutzten Daten gesteigert und wir haben in weiten Teilen die Qualität auf 100 Prozent dessen gesteigert, was der 08/15-Anwender noch als Vorteil empfindet. Potenzial gibt es noch bei der Simulation virtueller Welten (= Spiele), aber die Wiedergabe wird biologisch limitiert sein, lange bevor man ein HDMI-4.0-Kabel in die Wand legen muss. Unsere Augen können kein 32k auflösen, unsere Gehirn keine 500 Fps verarbeiten, der Tag hat maximal 24 Stunden und die Woche maximal 7 Tage. (Außer es ist Abgabe)
 
Zurück