Mal eine Frage an die Profis macht Gv100 eigentlich Sinn? Das Teil ist extrem teuer warum nimmt man nicht 2x GP100 wenn man jetzt Mal von Tensore Cores absieht?
Der GV100 adressiert ja speziell die Bedürfnisse unterschiedlicher Randgruppen.
Und bei der Deeplearning-Gruppe sieht man natürlich nicht von den Tensor-Cores ab, sondern verwendet sie, womit auch 2x GP100 nicht ausreichen, um das zu kompensieren.
Dann bietet der GV100 noch NVLINK2.0 und Cache-Kohärenz mit Power 9 CPUs, dass ist für einige Kunden wichtig.
Neben der reinen Rechenleistung kommt die verbesserte Architektur oben drauf, die je nach Berechnung deutlich schneller sein kann, als die alten Pascal-GPUs, dass kann ihn trotz des Preises attraktiv machen.
Und wer massive Server-Racks baut, der bezahlt für den Unterhalt große Summen, da rechnet sich eine bessere Perf/Watt, auch das das jeder Knoten mehr Rechenleistung bietet, so braucht man für die gleiche Rechenleistung weniger Knoten.
Natürlich wird es aber ebenso Kunden geben, wo GV100 nicht lohnenswert herauskommt, wie bei jedem Produkt.
Da Nvidia aber sehr gute Finanzen seit langer Zeit aufweisen kann, wissen die offensichtlich Bescheid, wie man seine Produkte preist und die Kunden beliefert.