Solange es 100%ig läuft, mind 60% schneller als eine 4090 ist und keine Probleme macht, ist es mir egal aus was die GPU besteht.
Mit 12288 könnte ein GB203 so schnell wie die 4090 sein, ausgehend von der 4080. Die 4090 hat zwar 16k Shader, aber scheint irgendwo ein Bottleneck zu haben.
Wenn die 5090 nun 2x GB203 hat, wären das fast doppelte 4090 Leistung.
Aber 600W will ich nun echt nicht reinballern, vorallem sagt ein anderes Gerücht nur 2 Slots für den FE Kühler.
Sagen wir aber, das man den Fortschritt in der Transistorgröße z.b. nicht in Leistung, sondern komplett in Effizienz gesteckt hat. Das könnte bei gleicher Leistung ~30% weniger Energie bedeuten. Die Leistungssteigerung kommt dann durch einen größeren Chip und den schnelleren VRAM.
Wären also nur noch rund 400W für die Karte. Eine optimierte 4080 muss ja auch keine 320W ziehen, sondern kann weniger. Also <350W für die 5090 wären durchaus möglich.
Ich halte von den Gerüchten nicht so viel, weil diese teilweise widersprüchig sind...
Wenn es sich schematisch tatsächlich um zwei GB203 handelt, die über einen eigenen Interconnect Layer verbunden sind, dann hat das auch die Nachteile einer solchen Lösung. Es ist eben nicht nur alles doppelt, sondern es sind dann zwei getrennte Bausteine, jeder mit 256Bits an den Speicher angebunden (und nicht einer mit 512 Bit), jeder mit eigenem Cache usw., und nur über eine - wenn auch schnelle - Sst miteinander verbunden.
Das wäre der Fall bei SLI, aber die Lösung von Nvidia ist kein SLI.
Apple macht es genauso mit dem Ultra Chip.
Egal was kommt, würde mich freuen, wenn Nvidia die Karte in Computex anteast.