Nvidia Geforce 2018: Erstes Turing-Tape-Out soll fertig sein

Mal ne blöde Frage warum werden die Prozesse nicht einfach nach der Breite benannt die sie haben? Ich mein in welchem Wettbewerb hilft das, die Firmen die bei Global usw. bestellen wissen doch selbst ganz genau was sie bekommen und der Endkunde hat darauf sowieso kein Einfluss.

Es gibt keine "Breite" oder irgend ein anderes Maß, dass im Laufe der Halbleiterentwicklung kontinuierlich geschrumpft ist. Hätte man die Prozesse nach einem bestimmten technischen Parameter benannt, würde die Schrumpfung der Zahl also zeitweise stagnieren, obwohl die Technik (an anderer Stelle) große Fortschritte macht oder es könnte zu drastischen Änderungen im Namen beinahe ohne Auswirkungen auf die Fertigungsergebnisse kommen. Deswegen werden die Bezeichnungen relativ frei festgelegt – und das übrigens ein halbes Jahrzehnt und mehr im Voraus, wenn die diversen beteiligten Firmen mit der Arbeit an einem Prozess "X" beginnen, dessen exakte Parameter sich aber erst viel später herauskristallisieren.
Im großen und ganzen skaliert die Namensgebung aber mit der Schaltungsdichte. Das heißt im "7 nm"-Prozess lassen sich viermal so viele Schaltungen wie in "14 nm" unterbringen (Schrumpfung entlang zweier Kantenlängen auf die Hälfte), der wiederum ein Viertel so fein wie "28 nm" war. Nicht desto trotz finden sich auch in aktuellen Prozessen Maße, die ungefähr dem Namen entsprechen. Intels "10 nm" arbeitet zum Beispiel mit 8 nm breiten Finnen. (siehe PCGH 01/18)
 
Das klingt ja glaubhaft.

Aber warum setzt Nvidia so spät noch auf 12nm bei TSMC?
Der Prozess ist doch schon längst verfügbar, so dass der Abstand zwischen Pascal und Turing nicht zu groß wäre.
Da würde es doch eher Sinn machen Turing noch 6 Monate weiter zu verschieben, und dann lieber auf 7nm zu setzen.

Also ich hatte ja schon den Eindruck, dass sich nVidia mit Pascal keine großen Sorgen um die Konkurrenz durch AMDs Vega machen muss, zumindest mal im Gaming-Bereich. Aber dass nVidia dann doch so gelassen ist, dass man erst im zweiten Halbjahr einen Nachfolger für Pascal auf den Markt bringt, das hätte ich nicht erwartet. Ich hätte damit gerechnet, dass bald was von nVidia kommt, vielleicht Anfang Mai. Aber nun wird es doch eher Herbst so wie es aussieht. Ausgehend von der GTX 1080 wäre Pascal dann beinahe 2,5 Jahre am Markt. Das wäre ein ganzes Jahr länger als bei Maxwell und Kepler.
Da von AMD aber kein Vega-Refresh für Gamer in diesem Jahr zu erwarten ist, macht das aus Sicht von nVidia durchaus Sinn. Wozu auch die Eile.



Und der 7nm Prozess soll sich auch verschieben, oder anfangs viel zu teuer sein?
Angeblich sollen doch in Q4 2018 erste GPUs von AMD damit vorgestellt werden.
So wie das hier beschrieben wird, klingt dass aber eher nach Mitte 2019 für 7nm.

Naja angeblich sollte da was kommen, aber ob das stimmt? Wenn, dann gehe ich mal davon aus, werden das Profi-Karten sein.
Aber im Grunde hast du recht. Nvidia könnte auch noch weitere 6 Monate warten und Turing dann in 7nm bringen. Nur wäre das nicht sonderlich profitabel. Man wird erst mal noch den 16 bzw. 12 nm Prozess weiter anwenden, da man damit schließlich vertraut ist und Turing ja auch gar nicht sonderlich viel schneller sein müsste als Pascal. Mit einigen Optimierungen holt man vielleicht 30% raus. Das dürfte dann auch erst mal reichen. Immerhin muss AMD auch erst mal was bringen, das durchweg mit Pascal fertig wird und dann noch mal was drauf legen.
Und falls AMD das schaffen sollte, hätte nVidia immer noch die 7nm-Option.
 
Soll das heißen dass die neue gen erstmal mit 16 nm begonnen wird und dann im laufe der zeit auf 7 nm gewechselt wird, oder soll dann erst in der gen nach der 11xx auf 7 nm gesetzt werden?
 
Zuletzt bearbeitet:
Jein der 12 nm Prozess ist ein überarbeiteter 16nm Prozess . Ich gehe davon aus das alle Karten bis zur 1160 auf 12 nm basieren und die 1150 dann auf 7nm basieren wird.
 
7 Nm sind für mich nicht vorstellbar, hatte Intel nicht schon Probleme damit?
Nach 7 Nm muss bestimmt eine neue Fertigungstechnik her.
Ich frage mich schon lange warum es nicht etwas andere Entwicklungen gibt, naja Quantentechnik evt.
Der Prozessor ist nur wenige Millimeter klein und das Drumherum nur noch Leiter.
Was hat man davon ausser weniger Spannungen und nur dadurch etwas mehr Takt.
 
Zuletzt bearbeitet:
Hä, wer spricht davon?

Die einzigen Fakten, worauf man sich stützen könnte, ist der Sprung Pascal -> Volta:
+ 40% SM bei +33% Fläche in selbem Powerbudget - das ganze inkl. 1:2 FP64 und Tensor Cores

Wie aber tatsächlich die neue Geforce Serie aussehen wird, steht immer noch in den Sternen.

Der Sprung bedeutet nur, dass sie weniger Sicherheitsabstand zwischen den Strukturen genutzt haben - eben ein verfeinerter 16nm Prozess.


Zum einem weiß man das nicht, zum anderem ist damit nicht gesagt, wo Turing letztendlich landet.

Volta und Pascal sind sich recht ähnlich bei den SMs.
Im Grunde hat Nvidia über die verschiedenen Maxwell/Pascal Architekturen mehr und mehr in Richtung einer Aufteilung, wie bei AMD hingearbeitet - und in ein paar Teilen auch übertroffen.
Daher ist es arg unwahrscheinlich, dass sie diesen Pfad verlassen und plötzlich etwas ganz anderes machen, wo sie mit der Maxwell Grundarchitektur ganz gut fahren.
Sie können sicher noch im einen, oder anderen Bereich ein paar Optimierungen einbauen.
 
@DARPA
Zwischen GP100 und GV100 gabs einen entsprechenden Preisanstieg, u. a. weil die Chip-Fläche deutlich gewachsen ist, um wirtschaftlich zu bleiben findet das Binning auf Kante statt und was ist die Ausbeute des Ganzen? Die Titan V liegt in Games durchschnittlich ca. 15% vor der Titan Xp, im GPU-Limit, also UHD. Das TDP-Budget konnte gehalten werden, weil man kostspielig in die Breite ging (kein Taktanstieg nötig) und HBM2 inkl. Interface insgesamt sparsamer ist als GDDR5X inkl. Interface (wobei letzterer ebenfalls merklich sparsamer als GDDR5 inkl. Interface sein dürfte, ähnlich wie GDDR6).

GP100 und GV100 nutzen beide HBM, das ist also kein Argument. Mit einer Erhöhung der Taktrate rechne ich auch nicht, ist ja auch nicht zwingend notwendig.
Von der Titan V Gaming Performance abzuleiten, würde ich mir nicht zutrauen. Dafür sind die Ergebnisse viel zu breit gestreut. Im Grunde gehts mir da auch nicht drum. Ich schaue nur, wo Möglichkeiten bei Prozess und Design liegen könnten.


Der Sprung bedeutet nur, dass sie weniger Sicherheitsabstand zwischen den Strukturen genutzt haben - eben ein verfeinerter 16nm Prozess.

Es geht immer noch um den Punkt der Leistungseffizienz. Das kommt nicht allein durch 12FFN.


Im Grunde hat Nvidia über die verschiedenen Maxwell/Pascal Architekturen mehr und mehr in Richtung einer Aufteilung, wie bei AMD hingearbeitet
Meinst du damit ALUs pro SM? Dann muss man nämlich auch zwischen compute und graphics Chips unterscheiden (64 vs 128).

Ich glaube auch nicht, dass Locuza meinte, jetzt kommt was ganz anderes. Sondern es ist immer Definitionssache. Ein Satz wie "Das ist ja nur ein Refresh" ist immer schnell hingerotzt, dabei stecken oftmals viele Änderungen im Detail. Ausserdem können wir nur die Infos bewerten, welche uns auch preis gegeben werden. Natürlich ist Evolution über einen gewissen Zeitraum der sinnvolle und meist auch notwendige Weg.
 
[...]
Volta und Pascal sind sich recht ähnlich bei den SMs.
Im Grunde hat Nvidia über die verschiedenen Maxwell/Pascal Architekturen mehr und mehr in Richtung einer Aufteilung, wie bei AMD hingearbeitet - und in ein paar Teilen auch übertroffen.
Daher ist es arg unwahrscheinlich, dass sie diesen Pfad verlassen und plötzlich etwas ganz anderes machen, wo sie mit der Maxwell Grundarchitektur ganz gut fahren.
Sie können sicher noch im einen, oder anderen Bereich ein paar Optimierungen einbauen.
Wenn man Maxwell als eigenständige Basis ansieht und nicht als eine weitere Iteration von Fermi, wieso sollte man Volta als eine weitere Iteration ansehen?
Das Cache-System ist anders, die ISA ist eine andere, mit anderen Instruction-Time-Cycles, die Partitionierung von den Cores ist in allen Fällen anders.

Das ist mehr, als was ich persönlich als Maxwell v3 durchgehen lassen würde und wenn man da anderer Meinung ist, frage ich mich wie oben erwähnt, wieso bezeichnet man das Ganze dann z.B. nicht als Fermi v6, wo viele Grundpfeiler der Architektur nach wie vor verankert sind?

Bei Turing gibt es keine gesicherte Informationen, wie die Architektur aussieht und letztendlich hilft es nur wenig zu wissen, ob Nvidia da einen "Refresh" baut oder etwas "Neues".
Das ist alles so ungenau und relativ und letztendlich kann ich nur einen sehr groben Erwartungsrahmen aufbauen, aber welche praktischen Ergebnisse einen erwarten sind völlig offen.
 
7 Nm sind für mich nicht vorstellbar, hatte Intel nicht schon Probleme damit?
Nach 7 Nm muss bestimmt eine neue Fertigungstechnik her.

Nach 7nm wird nicht mehr viel kommen. Irgendwann sind physikalische Grenzen erreicht und denen nähert man sich schon stark an. Meiner Erwartung nach wird die Entwicklung irgendwo um 10nm stehen bleiben. Wirtschaftlich und physikalisch befindet sich da wohl irgendwie der Sweet Spot. Das nächste Themen werden dann mehr Kerne sein. Bei CPU sind wir da ja schon vor Jahren angekommen.
 
Zurück