Wenn die Tensor-Cores keine höhere Leistung in Rasterization haben, ja. Einfach was wäre, wenn die komplette Leistung nur in Rasterization gesteckt, und die neuen GPUs nur darauf ausgelegt worden wären. Nicht einfach nur ein aufgepumpter Pascal, also schon mit den üblichen Optimierungen am Design, aber ohne Raytracing o.ä.
Man kann natürlich nur spekulieren, um wie viel Nvidia die Raster-Leistung hätte verbessern können, wenn sie statt auf RT/Tensor-Cores sich völlig darauf konzentriert hätten, aber bezogen auf den Flächenverbrauch benötigen die Ray Tracing- und Tensor Cores nicht viel Fläche.
Wenn man ganz grob rechnet, benötigt ein GT102 60% mehr Fläche, als ein GP102 und bietet 20% mehr Shader Cores.
Wie gesagt krude, da wir nicht wissen, um wie viel kleiner 12nm gegenüber 16nm ausfallen oder überhaupt und wir nur die Shader als Flächenbasis skalieren, aber der Flächenoverhead würde bei ~40% liegen, aber diese 40% teilen sich in alles auf was Turing mit sich bringt, zwei NVLINKs, doppelt soviel Register (Das verbraucht auf jeden Fall ordentlich Platz), 33% mehr Speicher-Kapazität pro SM, zusätzlich die Integer-Ports für gleichzeitige Ausführung, dann Verbesserungen beim Geometry-Processing und weiteren Dingen, der GDDR6-Controller müsste flächemäßig mehr kosten, ebenso die besseren Videodecoder.
Am Ende kosten die Tensor und Raytracing-Cores vermutlich keine 20% extra.
Insgesamt denke ich nicht das der Kohl deswegen wirklich fett geworden ist und Nvidia bei der Raster-Leistung nennenswert mehr rausgeholt hätte.
Zur Raster-Leistung zählen auch die GPCs und die ROPs, mehr GPCs untereinander zu verdrahten und die Arbeitsverteilung effizient hinzubekommen ist eine Heidenarbeit, selbst ohne RT/TC wäre es sehr wahrscheinlich bei den 6/4 GPCs und 96 bzw. 64 ROPs geblieben.
Entsprechend wären es hypothetisch gesehen wohl mehr Shader-Cores geworden oder für Nvidias Finanzen einfach kleinere Chips gewesen.
Also ich sehe es schon jetzt als gute Investition an, die Entwicklungsbasis schon jetzt aufzustellen.
Wenn man die int32 mit shader ersetzt hätte wären es 8704 Shader geworden
So gesehen ist turing wirklich deutlich größer
Der Satz ist schon das einzige was ich lesen konnte und letztendlich wollte, weil sich doch niemand eine Textwall antun möchte, wo jeder Satz aus zwei bis fünf Absätzen besteht und ständig unterbrochen wird.
Aber zum Satz, niemals wären es doppelt soviele Shader geworden, wenn es keine parallele INT32 execution gegeben hätte.
Ein Shader besteht aus etlichen Einzelteilen, der Kontrol- und Verteilungslogik, dem Register-File, den Caches, FP-Units mit etlichen Instruktionen, Load/Store-Einheiten, den SFUs bei Nvidia die noch spezielle Funktionen ausführen, die Texture-Mapping-Units etc.
INT32 macht nur einen kleinen Teil davon aus und gab es auch schon davor als Execution-Pipeline, nur nicht parallel ausführbar.
Und mit dem CPU-Limit hat das auch gar nichts zu tun, anstatt das die GPU die Instruktionen intern nacheinander ausführt, kann sie die Instruktionen parallel ausführen.
Die CPU-Seite kümmert an der Stelle gar nicht.