Mir wurde erzählt dass RTcores und Raytracing (schätzungsweise) je 25% ausmachen - trotz geringfügiger meinetwegen extrem effizienter neu Anordnung gegenüber Pascall - der genannten Cudas und der tatsächlichen Performance beim rastern sehe ich keinen Anlass, was anderes zu glauben. Nvidias eigene Präsentation bestärkt weiter. Ein Pascall Update, ohne neuem Kühler, ohne Werks OC, mit GDDR6, das klingt ziemlich nach der Rasterseite von Turing...
Ich lass mich aber gerne belehren, wohlwissend das wir uns ausserhalb der Fakten bewegen...
[...]
Schätzungsweise könnte man die ganze Chipfläche auf die Shader Cores umlegen und das Ganze hochskalieren, dass wäre natürlich eine Milchmädchen-Rechnung, da man somit unweigerlich andere Bestandteile miteinrechnet, aber wenn wir einen GP102 mit einem GT102 vergleichen, dann haben wir einige Parameter die gleich sind, 384-Bit für das Speicherinterface, 6 GPCs und 96 ROPs, weswegen man nicht völlig daneben landen sollte.
Ein GP102 besitzt insgesamt 3840 Shader Cores und ist 471mm² groß.
Ein TU102 besitzt insgesamt 4608 Shader Cores (+20%) und ist 754mm² (+60%) groß.
Wenn wir die ganze Fläche beim GP102 auf die Shader-Anzahl normalisieren würden, würden +20% mehr Shader 565mm² bedeuten bzw. ein TU102 wäre nur 33% größer für die gleiche Shader-Anzahl.
Nun gibt es mehrere Faktoren, wo Turing mehr Chipfläche bezahlen muss.
Ein TU102 hat zwei NVLINKs, dass geht ein wenig in die Rechnung mit ein, GDDR6-Controller sollten ein wenig größer sein, die Video-Engines sollten ebenso mehr Fläche benötigen, Turing investiert auch etwas in die Tensor-Cores, etwas in die RT-Cores, aber der Hauptkostenanteil sollte bei den veränderten Shader-Cores liegen, diese haben jetzt getrennte Ports für Integer- und FP-Execution, dass sollte relativ nicht viel kosten, aber zusätzlich kommen zwei gravierende Dinge dazu, Turing hat ein doppelt so großes Register-File pro ALU, 256KB für 64 ALUs vs. 256KB für 128 ALUs (Pascal) und 33% größere SM-Caches + 100% mehr L2$, 6MB statt 3MB.
Allgemein gibt es auch noch andere Schmarkel, Turing besitzt mehr Features als Pascal, es gibt Conservative Rasterization Tier 3 vs. 2, Resource Heap Tier 2 statt 1, Variable Rate Shading, Mesh Shaders, 2xFP16 beherrschen auch die Shader-Cores etc.
Nun als Laie kann man schwer einschätzen, wie viel Fläche was genau benötigt, es hilft aber dabei Chip Fotografien anzugucken (Rot ist ein Shader-Cluster, Grün ist der Scheduler/Dispatcher-Anteil, vermutlich Teile vom Frontend wie den Tessellation-Units, bei Blau befindet sich was auch immer, dass schwarze Bild ist kein echter die shot, dass Bild hat Nvidia bei ihrer Turing-Präsentation beim GP102 gezeigt, was definitiv keinen GP102 zeigt, da jeder andere Pascal Chip völlig anders aussieht und der ganze Aufbau nicht zu den Specs passt. Ein Turing ist es von den Specs auch nicht, ich gehe da von einem Phantasie-Bild nur für die Präsentation aus.)
Der untere shot ist vom 28nm Jaguar/Puma SoC, welcher ungefähr 107mm² groß ist, 4 Jaguar-Kerne bietet, 2 Comute Units (128 ALUs) und wo man immerhin ein grobes Gefühl dafür bekommt, wie viel die Video-Engines UVD/VCE an Platz verbrauchen und wie groß auch der L2$ ausfällt.
Man kann und sollte sich natürlich auch andere Chips anschauen, wie Zen.
Letztendlich kann könnte man noch annehmen das 12FFN dichter ist, als 16nm, aber selbst wenn wären es wohl maximal 10%, 12nm FFC ist laut TSMC 20% kompakter, da sind aber auch die Standard-Zellen kompatker und mit geringeren Performance-Targets designed.
Insgesamt lehnt man sich aus meiner Sicht massiv aus dem Fenster, wenn man annimmt, dass Turing 25% an Fläche nur für die RT-Cores bezahlt, wenn schon pro Pascal hochgerechnet der Overhead eher bei 33% liegt und es viele Investitionen von Nvidia gibt, wo man teilweise schon konkret ausrechnen kann, wie viel diese ungefähr an Platz einnehmen müssen.