Mit Blick auf den Stromverbrauch der RTX 3000er Karten, verstehe ich jetzt auch, warum NVIDIA so wenig VRAM verbaut. Der Speicher kostet einfach Strom. Alleine die 12GB Variante der 3080 verbraucht 30 Watt mehr.
Wenig ist relativ...
Aber das ist wohl kaum der einzige Grund. Was man nicht hat kann man auch nicht verbauen...
Zudem müsste Nvidia aufgrund der Architektur bei 16GiB ein 256bit breiten Bus nehmen - ist nicht immer optimal.
Die Frage ist doch, wenn so ein Monster wirklich das Licht der Welt erblickt, ist eine Luftkühlung mit Sicherheit dann nicht mehr möglich. Oder wollen die dann eine 5 Slot Kühlung rausbringen?
Noch interessanter: Was wenn nicht? Wasserkühlung als Pflichtprogramm?
Und was soll die bei 900W alleine für die GPU kosten? 500€? 700€?
Wenn man ~100-150W pro 120mm rechnet wären das zwei bis drei 360er eher mehr...
Alleine der Kühler der 3090 FE kostet schon gute 150$ in der Herstellung - wird gemunkelt.
Damit schafft man grenzwertig 450W, hat man ja gesehen. 350W sind mit dem Ding gut zu kühlen.
Aber selbst bei 600W... Doh! Wenn man da nicht was richtig "Sportliches" in sachen Lüftkühlung
veranstaltet, weiß ich echt nicht was die da was aus dem Hut zaubern wollen.
Und die 30er FE Kühler sind schon ein ganz schöner Sprung nach vorne gewesen.
Ach kommt, als ob ich hier das Problem bin!?
Es sind die Hersteller, hier Nvidia, die es nicht in den Griff bekommt Hardware zu entwickeln mit einem zeitgenäßen Verbrauch.
Das hat nicht nur was mit Nvidia zu tun, sondern auch mit TSMC & Co. Optimierungen sind eine Sache,
das Meiste an Leitungsoptimierung holt eher der Fertigungsprozess raus.
Und da hapert es bekanntermaßen bei allen seit Jahren. Weil die immer feineren Fertigungsprozesse
langsam an die Grenzen der Physik und des bezahlbar Machbaren stoßen...