Nvidia Ampere & AMD Navi: Micron bemustert GDDR6-RAM

AW: Nvidia Ampere & AMD Navi: Micron bemustert GDDR6-RAM

Ende März kaufe ich neu, dann mal schauen was es wird, ich hoffe AMD hat bis dahin eine Roadmap heraus was kommt! Ansonsten wird es wohl 1070-1080 oder Ampere

Ampere soll angeblich erst Ende März offiziell vorgestellt werden.
Bis die dann im Markt sind(gute Customs, mit "normalen" Preisen) , vergehen schon mal ein paar Monate.

Dann hol' Dir gleich ne 1080, oder wart halt noch etwas länger.
Letzteres mach ich auch.

So eine GTX 1180 würde mir gut in den Kram passen. ;)
 
AW: Nvidia Ampere & AMD Navi: Micron bemustert GDDR6-RAM

Falls du nicht täglich 8+ Stunden zockst ist der Stromverbrauch sowas von irrelevant auf die Kosten aufgerechnet. Wir reden hier von <20€ pro Jahr bei täglich 12h Betrieb mit 2h Volllast in der selben Leistungsklasse.
Der Verbrauch interessiert mich insofern, das mehr Watt auch mehr Abwärme bedeuten. Schonmal versucht nen 350 Watt Monster leise zu kühlen ? Mit Luft ? Die 20€ tun nicht weg, meine Ohren umso mehr.

Gesendet von meinem BLN-L21 mit Tapatalk
 
AW: Nvidia Ampere & AMD Navi: Micron bemustert GDDR6-RAM

Eine GPU in der Größenordnung um die 500 mm^2 herzustellen kostet grobe 120-150$ das Stück bei ganz guten Yields. Kommen noch 175 für den HBM dazu, 10 für die Mosfets, 20 für PCB und Kleinteile, 30 fürn Kühler und nochn bissl Kleinkram für Verpackung usw. - da biste bei ganz groben 400$ Herstellungskosten für ne VEGA-Karte.

"Verdienen" würde man also schon ab vielleicht 350€ rum, das Problem ist dass du dann die ganzen Leute, Vertrieb, R&D usw. noch nicht bezahlt hast... von daher sind die 500€ für bei den Gesamtkosten ins Plus zu kommen gar nicht so unrealistisch.

Und dann sieh dir NV dagegen an. Die benutzen 50$ GDDR statt HBM und der GP104 der Konkurrenz zur Vega ist nur rund 300mm^2 groß was grobe 50$ pro Stück kostet. Da kommste bei deutlich unter 200$ pro Karte raus. Wenn man da wie oben das drumherum noch mitrechnet macht NVidia spätestens ab 250€ pro GTX1080 (oder 350€ pro 1080Ti) massiv Schotter. Bei den Preisen wie sie im Handel sind ist dann schnell klar, warum die Kurse von AMD irgendwo bei 10 Dollar rumeiern seit nem Jahr und Nvidia von 100 auf 200 Dollar gelaufen ist.

Stimmt alles außer, die Tatsache, das es egal ist wie viel eine einzelne Aktie Wert ist, da du auch einfach 10 Milliarden Aktien ausgeben kannst und , wenn eine davon nur ein paar € Wert ist, ist das Unternehmen trotzdem extrem viel wert, ich würde da eher die Marktkapitalisierung als Beispiel nehmen ;)
 
AW: Nvidia Ampere & AMD Navi: Micron bemustert GDDR6-RAM

Der Verbrauch interessiert mich insofern, das mehr Watt auch mehr Abwärme bedeuten. Schonmal versucht nen 350 Watt Monster leise zu kühlen ? Mit Luft ? Die 20€ tun nicht weg, meine Ohren umso mehr.

Gesendet von meinem BLN-L21 mit Tapatalk

Mehr Verbrauch=
größerer Kühler (somit teurere Karte oder es geht mehr Geld für etwas drauf, das eigentlich nicht in Performance resultiert)
größere Abwärme - entweder wärmeres Zimmer oder (und) auch mehr Lautstärke
größere Umweltverschmutzung: Strom kommt ja eh aus der Steckdose
größere Wahrscheinlichkeit auf früheres HW ableben
größere Abwärme IM Gehäuse - somit sind alle anderen Komponenten wärmer
kostet übers Jahr gesehen mehr. Ist vernachlässigbar, weils uns eh so gut geht. Aber wenns 20-30€ im Jahr sind, sind es beim nächsten Grafikkartentausch auch wieder 100€ (je nachdem wann man tauscht auch evtl mehr).
So ehrlich sollte man dann schon sein zu sagen, dass man eigentlich 100€ mehr bezahlt als der Preis der dort steht. Auch wenn 30€ im Jahr nicht viel erscheinen hat man unter Umständen eine 100€ teurere GPU gekauft. Das zum Thema Preis/Leistung
usw usf.
Effizienz hat eben seine Vorteile.
Leistungstechnisch hat AMD es seit dem GK110 nicht mehr geschafft mitzuhalten.
Technisch gesehen hinken sie im GPU-Bereich schon seit Februar 2013 hinterher - das sind auch schon fast 5 Jahre. Die letzte AMD-Karte die NVidia wirklich zucken ließ war die HD7970... das war das letzte Mal, wo AMD das Topmodell von NV (damals die GTX580) klar schlagen konnte.

Nur fällts hier weniger auf, weil sie wenigstens im P/L-Bereich immer recht konkurrenzfähig waren.
Tatsächlich war die 7970 bei der Einführung eher enttäuschend und selbst von Nvidia kam damals ein "wir hätten mehr erwartet". Man hat den Highend-Chip ja dann wenig später auch mit dem vergleichsweise günstigen der 680er geschlagen
Das einzige Problem von HBM war dass er nicht in ausreichenden Stückzahlen gebaut werden konnte.
In allen anderen Dingen (Bandbreite, Effizienz, Platzbedarf, Strombedarf, Controllerkomplexität, PCB-Komplexität, Leitungslänge,...) ist er GDDR weit überlegen. Das weiß auch NV weswegen auf den Serverkarten auch HBM2 drauf ist (TitanV usw.). Nur ist das Zeug derart schleppend produziert worden und ist entsprechend so teuer gewesen, dass es im normalen Consumermarkt ein Griff ins Klo war. Hier hatte NV tatsächlich den besseren Weitblick.

Das ganze ist aber eine rein wirtschaftliche Sache, technisch gesehen ist HBM Welten besser. Wenn das zeug mal günstig und in großen Mengen hergestellt wird werden wir in den nächsten Jahren nach und nach GDDR sterben sehen. Klar dauert das im Mittleren/unteren leistungsbereich 10+ Jahre, sofern aber nicht noch irgendwas weltbewegendes passiert schätze ich, dass 2030 keine Grafikkarte mehr mit GDDR verkauft wird. Dann haste Grafikkarten von der Größe einer Handinnenfläche wo GPU, ein HBM-Stapel, zwei MosFets und ein bissl Kleinkram drauf ist. Die Nano von AMD hat ja schon gezeigt wies aussieht.
Im idealfall ja, aber der ist leider nicht. Das Herstellungsverfahren ist vielleicht auch teurer, weiß ich nicht. Jedenfalls aber der Interposer. Aber jede Technologie kostet am Anfang halt mehr.
Eine GPU in der Größenordnung um die 500 mm^2 herzustellen kostet grobe 120-150$ das Stück bei ganz guten Yields. Kommen noch 175 für den HBM dazu, 10 für die Mosfets, 20 für PCB und Kleinteile, 30 fürn Kühler und nochn bissl Kleinkram für Verpackung usw. - da biste bei ganz groben 400$ Herstellungskosten für ne VEGA-Karte.

"Verdienen" würde man also schon ab vielleicht 350€ rum, das Problem ist dass du dann die ganzen Leute, Vertrieb, R&D usw. noch nicht bezahlt hast... von daher sind die 500€ für bei den Gesamtkosten ins Plus zu kommen gar nicht so unrealistisch.

Und dann sieh dir NV dagegen an. Die benutzen 50$ GDDR statt HBM und der GP104 der Konkurrenz zur Vega ist nur rund 300mm^2 groß was grobe 50$ pro Stück kostet. Da kommste bei deutlich unter 200$ pro Karte raus. Wenn man da wie oben das drumherum noch mitrechnet macht NVidia spätestens ab 250€ pro GTX1080 (oder 350€ pro 1080Ti) massiv Schotter. Bei den Preisen wie sie im Handel sind ist dann schnell klar, warum die Kurse von AMD irgendwo bei 10 Dollar rumeiern seit nem Jahr und Nvidia von 100 auf 200 Dollar gelaufen ist.

Ja, das Argument habe ich schon oft gebracht, aber dann kommt von manchen, die das nicht verstehen wollen trotzdem "Wichtig ist nur das gute Preis/Leistungsverhältnis".
Das in deinem Fall pro NV Karte 10-20x mehr übrig bleibt ist eine andere Sache.
So extrem ists nicht. Ein hochgezüchteter GDDR5(X)-Stein verbraucht unter Last grob 5W, bei den üblichen 8 Steinen biste da bei grob 40W die für den Speicher draufgehen.
Ich weiß nicht wie viel HBM braucht aber klar weniger das stimmt. Wenns sagen wir die Hälfte ist sparste hier Größenordnung 20 Watt ein, keine 80.

Das wird aber extremer werden da HBM weitaus besser skalierbar ist, sprich wenn HBM3 (?) dann mit 4 oder 8 oder gar 16 GB pro Stack kommt kannste leicht beispielsweise 32 GiByte vRAM verbauen mit 4 Stacks oder 16GB mit 2 Stacks. Mit GDDR6 (?) brauchts dafür schon vermutlich 16 Steine - und dann stehen wirklich 80W gegen 20.
Das größte Problem ist nicht der RAM selbst, sondern der Speichercontroller, die 80W stimmen insofern schon knapp aber man muss halt den Speichercontroller mitrechnen. Außerdem stimmt die Skalierbarkeit von HBM zwar, aber auch nicht grenzenlos...
nVidia sieht langfristig Stromverbrauchsprobleme bei HBM-Speicher | 3DCenter.org
 
Zuletzt bearbeitet:
AW: Nvidia Ampere & AMD Navi: Micron bemustert GDDR6-RAM

Falls du nicht täglich 8+ Stunden zockst ist der Stromverbrauch sowas von irrelevant auf die Kosten aufgerechnet. Wir reden hier von <20€ pro Jahr bei täglich 12h Betrieb mit 2h Volllast in der selben Leistungsklasse.

Es geht nicht um die Kosten des Stromes.

Es geht darum dass der Strom, der vom vRAM weniger verbraucht wird von der GPU mehr verbraucht werden kann im gleichen Karten-TDP-Segment.

Anders gesagt wenn bei einer 1080Ti HBM drauf wäre der 40W weniger verbraucht als der GDDR könnte die GPU bei gleichem Kartenverbrauch durch die Bank 200 MHz höher takten. ;)

Das Herstellungsverfahren ist vielleicht auch teurer, weiß ich nicht. Jedenfalls aber der Interposer.
Der Interposer kostet 25$. Frag mich nicht wo die Quelle war, darüber gabs/gibts aber nen Bericht in dem das erwähnt wird.
So extrem teuer ist das also nich (ich hatte da auch mehr erwartet).

Stimmt alles außer, die Tatsache, das es egal ist wie viel eine einzelne Aktie Wert ist, da du auch einfach 10 Milliarden Aktien ausgeben kannst und , wenn eine davon nur ein paar € Wert ist, ist das Unternehmen trotzdem extrem viel wert, ich würde da eher die Marktkapitalisierung als Beispiel nehmen
zwinker4.gif
Ja klar, war blöd formuliert - es ging mir darum dass die einen ihren Wert verdoppelt haben und die anderen nicht^^
 
Zurück