AW: Nvidia Ampere & AMD Navi: Micron bemustert GDDR6-RAM
Der Verbrauch interessiert mich insofern, das mehr Watt auch mehr Abwärme bedeuten. Schonmal versucht nen 350 Watt Monster leise zu kühlen ? Mit Luft ? Die 20€ tun nicht weg, meine Ohren umso mehr.
Gesendet von meinem BLN-L21 mit Tapatalk
Mehr Verbrauch=
größerer Kühler (somit teurere Karte oder es geht mehr Geld für etwas drauf, das eigentlich nicht in Performance resultiert)
größere Abwärme - entweder wärmeres Zimmer oder (und) auch mehr Lautstärke
größere Umweltverschmutzung: Strom kommt ja eh aus der Steckdose
größere Wahrscheinlichkeit auf früheres HW ableben
größere Abwärme IM Gehäuse - somit sind alle anderen Komponenten wärmer
kostet übers Jahr gesehen mehr. Ist vernachlässigbar, weils uns eh so gut geht. Aber wenns 20-30€ im Jahr sind, sind es beim nächsten Grafikkartentausch auch wieder 100€ (je nachdem wann man tauscht auch evtl mehr).
So ehrlich sollte man dann schon sein zu sagen, dass man eigentlich 100€ mehr bezahlt als der Preis der dort steht. Auch wenn 30€ im Jahr nicht viel erscheinen hat man unter Umständen eine 100€ teurere GPU gekauft. Das zum Thema Preis/Leistung
usw usf.
Effizienz hat eben seine Vorteile.
Leistungstechnisch hat AMD es seit dem GK110 nicht mehr geschafft mitzuhalten.
Technisch gesehen hinken sie im GPU-Bereich schon seit Februar 2013 hinterher - das sind auch schon fast 5 Jahre. Die letzte AMD-Karte die NVidia wirklich zucken ließ war die HD7970... das war das letzte Mal, wo AMD das Topmodell von NV (damals die GTX580) klar schlagen konnte.
Nur fällts hier weniger auf, weil sie wenigstens im P/L-Bereich immer recht konkurrenzfähig waren.
Tatsächlich war die 7970 bei der Einführung eher enttäuschend und selbst von Nvidia kam damals ein "wir hätten mehr erwartet". Man hat den Highend-Chip ja dann wenig später auch mit dem vergleichsweise günstigen der 680er geschlagen
Das einzige Problem von HBM war dass er nicht in ausreichenden Stückzahlen gebaut werden konnte.
In allen anderen Dingen (Bandbreite, Effizienz, Platzbedarf, Strombedarf, Controllerkomplexität, PCB-Komplexität, Leitungslänge,...) ist er GDDR weit überlegen. Das weiß auch NV weswegen auf den Serverkarten auch HBM2 drauf ist (TitanV usw.). Nur ist das Zeug derart schleppend produziert worden und ist entsprechend so teuer gewesen, dass es im normalen Consumermarkt ein Griff ins Klo war. Hier hatte NV tatsächlich den besseren Weitblick.
Das ganze ist aber eine rein wirtschaftliche Sache, technisch gesehen ist HBM Welten besser. Wenn das zeug mal günstig und in großen Mengen hergestellt wird werden wir in den nächsten Jahren nach und nach GDDR sterben sehen. Klar dauert das im Mittleren/unteren leistungsbereich 10+ Jahre, sofern aber nicht noch irgendwas weltbewegendes passiert schätze ich, dass 2030 keine Grafikkarte mehr mit GDDR verkauft wird. Dann haste Grafikkarten von der Größe einer Handinnenfläche wo GPU, ein HBM-Stapel, zwei MosFets und ein bissl Kleinkram drauf ist. Die Nano von AMD hat ja schon gezeigt wies aussieht.
Im idealfall ja, aber der ist leider nicht. Das Herstellungsverfahren ist vielleicht auch teurer, weiß ich nicht. Jedenfalls aber der Interposer. Aber jede Technologie kostet am Anfang halt mehr.
Eine GPU in der Größenordnung um die 500 mm^2 herzustellen kostet grobe 120-150$ das Stück bei ganz guten Yields. Kommen noch 175 für den HBM dazu, 10 für die Mosfets, 20 für PCB und Kleinteile, 30 fürn Kühler und nochn bissl Kleinkram für Verpackung usw. - da biste bei ganz groben 400$ Herstellungskosten für ne VEGA-Karte.
"Verdienen" würde man also schon ab vielleicht 350€ rum, das Problem ist dass du dann die ganzen Leute, Vertrieb, R&D usw. noch nicht bezahlt hast... von daher sind die 500€ für bei den Gesamtkosten ins Plus zu kommen gar nicht so unrealistisch.
Und dann sieh dir NV dagegen an. Die benutzen 50$ GDDR statt HBM und der GP104 der Konkurrenz zur Vega ist nur rund 300mm^2 groß was grobe 50$ pro Stück kostet. Da kommste bei deutlich unter 200$ pro Karte raus. Wenn man da wie oben das drumherum noch mitrechnet macht NVidia spätestens ab 250€ pro GTX1080 (oder 350€ pro 1080Ti) massiv Schotter. Bei den Preisen wie sie im Handel sind ist dann schnell klar, warum die Kurse von AMD irgendwo bei 10 Dollar rumeiern seit nem Jahr und Nvidia von 100 auf 200 Dollar gelaufen ist.
Ja, das Argument habe ich schon oft gebracht, aber dann kommt von manchen, die das nicht verstehen wollen trotzdem "Wichtig ist nur das gute Preis/Leistungsverhältnis".
Das in deinem Fall pro NV Karte 10-20x mehr übrig bleibt ist eine andere Sache.
So extrem ists nicht. Ein hochgezüchteter GDDR5(X)-Stein verbraucht unter Last grob 5W, bei den üblichen 8 Steinen biste da bei grob 40W die für den Speicher draufgehen.
Ich weiß nicht wie viel HBM braucht aber klar weniger das stimmt. Wenns sagen wir die Hälfte ist sparste hier Größenordnung 20 Watt ein, keine 80.
Das wird aber extremer werden da HBM weitaus besser skalierbar ist, sprich wenn HBM3 (?) dann mit 4 oder 8 oder gar 16 GB pro Stack kommt kannste leicht beispielsweise 32 GiByte vRAM verbauen mit 4 Stacks oder 16GB mit 2 Stacks. Mit GDDR6 (?) brauchts dafür schon vermutlich 16 Steine - und dann stehen wirklich 80W gegen 20.
Das größte Problem ist nicht der RAM selbst, sondern der Speichercontroller, die 80W stimmen insofern schon knapp aber man muss halt den Speichercontroller mitrechnen. Außerdem stimmt die Skalierbarkeit von HBM zwar, aber auch nicht grenzenlos...
nVidia sieht langfristig Stromverbrauchsprobleme bei HBM-Speicher | 3DCenter.org