Bis jetzt reicht es doch bestimmt, wenn man in Zukunft die Abfallchips der Profimodelle in Gaminghardware packt. Und selbst dann würde AMD wohl immer noch Schwierigkeiten haben mit zuhalten, bei dem grossen Vorsprung.
Nvidia kann keine Abfälle von KI-Beschleunigern für Gamingkarten nutzen.
Der H100 hat nur 51 TFLOPS FP32-Rechenleistung. Die RTX 4090 hat schon über 80 TFLOPS und kommt ohne HBM aus etc. Wenn man aus dem H100 eine Gamingkarte machen wollte, würde das Ding mindestens das doppelte kosten und wäre weniger leistungsfähig.(Edit: Beim aktuellen Preis von 1500€ eher das dreifache) Eine RX 7900 XTX hat auch schon über 60 TFLOPS.
Auf Tensor Cores kann man nicht zocken. In der Vergangenheit konnte man Abfälle von Profi-Grafikkarten für Privatnutzer (Gaming) verwenden. Das wird man auch weiter tun. Aber KI-Beschleuniger haben so gut wie keine Schnittmenge mit denen. Du brauchst hauptsächlich Tensor Cores und kaum Unified Shader.
Wenn Nvidia den hohen Gewinn einfahren will, dürfen sie keine GPUs mehr produzieren, sondern müssen stattdessen KI-Chips produzieren. Und die GPUs können somit nur in den schlechteren Fertigungsverfahren gefertigt werden, in den alten Fabriken der letzten GPU-Generation.
Vermutlich wird NV für wasweißich, 5.000€? Eine GPU im kleinsten Verfahren entwickeln, nur um zu zeigen (für das Marketing), was sie könnten, wenn sie ernsthaft noch ein Interesse an Grafikkarten haben. Aber aus rein ökonomischer Sicht sieht es für mich ziemlich danach aus, dass es Sinnvoll sein könnte, das Unternehmen komplett auf KI-Beschleuniger umzustellen und die Grafiksparte an AMD/Intel einfach abzugeben.
Edit: Bei der Marge könnten sie, wenn sie dann wieder Bock auf GPUs bekommen, einen der beiden mit den Gewinnen komplett zurückkaufen...