Bist Du Dir da sicher?
Ich dachte, dass sein ein für Nvidia optimierter 5nm Node.
Die genannten Prozesse gehören alle bei TSMC zur "5nm-Klasse", konkret:
N5 > N5P > N4 > N4P
Den nächsten Full-Node-Entwicklungsschritt repräsentiert der N3 bei TSMC.
Problematisch wird es aber zum Spekulatius für Lovelace, denn aktuell ist lediglich bekannt und gesichert, dass nVidia den "4N" genannten semi-custom-Prozess (
zweifellos aber nur geringfügige Anpassungen im Vergleich zum Standardportfolio) für Hopper, also das Datacenterprodukt nutzt.
Das zweite Problem ist, dass nVidia die Prozessbasis "ihres 4N" meines Wissens nach nicht preisgegeben hat und absehbar auch daran kein Interesse haben wird, d. h. man weiß nicht ob der auf dem älteren N4 oder dem aktuelleren N4P basiert. Entsprechend sollte man davon absehen derartig zu lesende "Konkretisierungen" aktuell für bare Münze zu nehmen und entsprechend liest man auch viele widersprüchliche Angaben in abhängigkeit der Quellen.
Aktuell kann man bestenfalls annehmen, dass wenn nVidia die voranstehende "4" nicht aus der Luft gegriffen hat, die Basis der N4 oder bestenfalls der N4P darstellen wird, gesichert jedoch nur für Hopper. Ob nVidia den teueren Prozess auch für Lovelace nutzen wird, vermutetet man dagegen bisher nur.
*) Bei Turing's 16 nm-Ableger "12FFN" kennt man die Basis nur deshalb, weil es damals von TSMC nur den 12FFC als infrage kommende Variante gab, TSMCs vierte 16nm-Iteration, bei der TSMC schließich überraschend mit einer "12" vorne weg aufwartete, um sich besser gegen Samsung und GloFo positionieren zu können.
**) Für AMDs RDNA3 kann man als Basis mindestens den N5P vermuten, flankiert vom N6 für einige Chiplets wie I/O. Beziehungsweise konkret, da AMD schon die Werbetrommel rührend von einem "
HPC-optimiertem 5 nm-Node" sprach auch vom N5HPC, der in 2Q22 in die Volumenproduktion überführt werden soll, eine weitere Spezialisierung des gereiften N5 mit kompatiblen Design Rules.
[...] Kann Nvidias nächste Generation parallel FP32 und INT berechnen, ist der TF Vergleich hinfällig.
Das kann eine gute Erklärung für den steigenden Energieverbrauch sein.
Hast Du das Whitepaper gelesen?
[...] der Umstand sein könnte, dass FP32 und Integer Berechnungen parallel absolviert werden könnten. [...]
Bereits Turing kann INT32 und FP32 parallel berechnen. Während in vorherigen Gen's FP32-Cores verwendet wurden, die optional in einem INT32-Modus operieren konnten, spendierte man Turing zu den 64 FP32-Cores pro SM zusätzlich 64 dedizierte INT32-Cores (
zählte aber die Kombination eines FP32- und eines INT32-Cores als einen CUDA-Core).
Mit Ampere ging man einen Schritt weiter und ersetzte die mit Turing eingeführten dedizierten INT32-Cores durch Multi-Mode-Cores, d. h. man hat hier nun pro SM 64 dedizierte FP32-Cores und 64 FP32/INT32-Cores, d. h. Ampere kann ebenso beides parallel berechnen oder aber im FP32 im Best Case den doppelten Durchsatz erzielen, was man vorranging unter Compute Workloads beobachten kann. In Games limitiert das Grafik-Backend, das natürlich nicht mal eben mitverdoppelt wurde.
Rein bezüglich FP32 sind keinen nennenswerten Änderungen bei Lovelace zu erwarten, jedenfalls wäre ich überrascht wenn doch.
Das Drumherum des SMs wie Datenpfade, Caches, etc. und des Render-Backend wird vielmehr der Ansatzpunkt für größere Verbesserungen sein.
Die aktuell spekulierten/kolportierten 100 TFlops FP32 resultieren schlicht aus einem Ampere-ähnlichen Aufbau mit zwei parallel arbeiteten FP32-Cores, in Summe angeblich 18432 (also +71 % ggü. dem GA102). Und hierfür benötigt man 2,715 GHz Takt um die spezifizierten 100 TFlops zu erreichen.
Man darf gespannt sein ob nVidia einen solchen Takt realisieren kann und dann natürlich bei welcher Verlustleistung.
Na und, und wenn es 2000 Terraflops sind, wer braucht sowas. [...]
nVidia braucht so was, denn deren Top-Chips bedienen gleichzeitig das professionelle Umfeld und die Industrie arbeitet hier größtenteils auf nVidia-Hardware.
nVidia muss insbesondere mit den beiden größten Chips den Spagat schaffen, dass sie zwecks optimierter Fertigung und Kosten den Consumer-Markt und den professionellen sowie Datacenter-Markt gleichermaßen gut bedienen können.
Ob man dagegen eine 400 W- oder gar 600 W-Karte in seinem PC zum Daddeln nutzen möchte, ist ein gänzlich anderes Thema und da niemand zum Kauf gezwungen wird auch keines, über das man sich wirklich streiten kann.
AMD und nVidia hatten 400 - 500 W GPUs schon Anfang des letzten Jahrzehntes im Markt und einige Hardcore'ler hatten auch damals schon kein Problem sich bspw. 2 x 220 W ins Gehäuse zu stecken.
Wenn die neuen HighEnd-Modelle der beiden Hersteller aber verlustleistungstechnisch derart zulegen, würde ich vorerst vermuten, dass sich der Markt verschieben wird und mehr Käufer anstatt kompromissloses HighEnd nun eher im unteren HighEnd oder gar oberen Mittelfeld kaufen werden.
Bei nVidia braucht man zu vermutenden Preissteigerungen wohl nichts explizit in den Raum zu stellen
bei solch einer Leistung aber auch zu AMDs Topmodellen liest man immer wieder, dass auch die preislich signifikant zulegen sollen, was auch nicht wundern sollte, denn mit dem Chiplet-Design hat man dort den Yield zwar besser im Griff aber dafür wird das Packaging signifikant teuerer.