Der GV100 adressiert ja speziell die Bedürfnisse unterschiedlicher Randgruppen.
Und bei der Deeplearning-Gruppe sieht man natürlich nicht von den Tensor-Cores ab, sondern verwendet sie, womit auch 2x GP100 nicht ausreichen, um das zu kompensieren.
Dann bietet der GV100 noch NVLINK2.0 und Cache-Kohärenz mit Power 9 CPUs, dass ist für einige Kunden wichtig.
Neben der reinen Rechenleistung kommt die verbesserte Architektur oben drauf, die je nach Berechnung deutlich schneller sein kann, als die alten Pascal-GPUs, dass kann ihn trotz des Preises attraktiv machen.
Und wer massive Server-Racks baut, der bezahlt für den Unterhalt große Summen, da rechnet sich eine bessere Perf/Watt, auch das das jeder Knoten mehr Rechenleistung bietet, so braucht man für die gleiche Rechenleistung weniger Knoten.
Natürlich wird es aber ebenso Kunden geben, wo GV100 nicht lohnenswert herauskommt, wie bei jedem Produkt.
Da Nvidia aber sehr gute Finanzen seit langer Zeit aufweisen kann, wissen die offensichtlich Bescheid, wie man seine Produkte preist und die Kunden beliefert.
Na ja wie gesagt bei Tensor Cores lass ich mir das noch gefallen. Aber der Preis für GV100 ist einfach zu hoch. Da bekommt man fast schon 3-4 GP100 dafür. Oder man hat für dass Geld einer GV100 schon ein kompletten Einschub mit CPU und 2 GPUs etc. Und so viel Schneller ist NV Link 2.0 auch nicht. Da werden eher mehr Ressourcen Frei wenn man sich noch zusätzlich eine CPU oder Speicher holt. Für mich sieht GV100 abseits von AI als ein ziemlicher Flop aus.
Ich sehe hier keinen Massenmarkt für z.B. Cluster Server etc. Darin werden ja die meisten GPUs verbaut.
Zuletzt bearbeitet: