Bei den momentanigen nVidia-Preisen bin ich mir ziemlich sicher, dass die durchaus einen 600mm^2 Chip profitabel auf den Gaming-Markt bringen könnten
Ob GDDR5X hier allerdings so eine gute Idee ist weiß ich nicht. Speicherdurchsatz ist in hohen Auflösungen schon sehr wichtig, und HBM ist hier eben einfach schneller.
Hmm.
GDDR5X wirkt natürlich jetzt mal enttäuschend, vielleicht stimmts ja eh nicht. Aber es gibt eine Reihe an Gründen warum GDDR5X:
Die Bandbreite reicht völlig auf, immerhin ist man da doch deutlich über HBM1 wenn man ordentliche Taktraten fährt. Zweitens ist es wohl wesentlich günstiger, drittens, und das ist fast entscheidend, kann man in einem Jahr oder mehr nochmal eins drauflegen - eben mit HBM2.
Es ist aber eh fraglich, ob sich HBM durchsetzen wird. Es gibt nunmal schon eine wesentich günstigere Speichervariante, die ihre Aufgabe (fast) ebensogut erledigt.
eDRAM und ähnliche Technologien hatten schon immer mal wieder eine glorreiche Zukunftsprognose und wurden dann von der Realität eingeholt. Kann sein, dass auch HBM ein Nischenprodukt bleibt.
Wenn die Kosten nicht drastisch sinken in den kommenden 2 Jahren, wird es schwierig abgesehen vom absoluten Highendmarkt und Profimarkt viele Abnehmer zu kriegen. Darunter gibts immer noch GDDR5X und GDDR5, sowie DDR4 für Lowend
Hinzu kommt noch das hier:
Deine Stromersparnis bei HBM , die du hier heran ziehst, hat mit HBM2 aber nicht mehr viel am Hut.
Den Stromverbrauch von GDDR5X habe ich in deinem Fred auch schon hinterfragt - keine Ahnung wie der jetzt ist?
nVidia sieht langfristig Stromverbrauchsprobleme bei HBM-Speicher | 3DCenter.org
Es kann also sein, dass HBM auch bald das Ende der gesetzten Ziele erreicht hat und bald wieder nur eine eher schlechtere Lösung sein wird. Auch wenn man, wie Alki ausführt, mit geringerem Takt das in den ersten 2-3 Jahren abfangen kann wird HBM bald wieder eingeholt sein.
Es ist ein weiterer Grund, warum die einzige Ersparnis der geringere Energieverbrauch bei reduzierter Bandbreite/Taktrate und das am Chip kleinere Speicherinterface ist - und somit nur bei absoluten Highendchips was bringt. (Theoretisch auch bei allen APUs aber dafür ist as Ding halt zu teuer. Eine APU im Laptop mit 8-16GB HBM wäre schon fein, aber wohl unbezahlbar. Höchstens in den nächsten Konsolen denkbar (in 4-5 Jahren, nach der "Neo" usw)
Wozu sollte Nvidia eine GP102 bringen wenn es keine Konkurenz zu GTX 1080 gibt.
1) Der chip würde wenn dann erst 2017 kommen - bis dahin gibt es auch Vega.
2) Im Moment belegt man die Preise um 350-600€ Wenn man jetzt weitere Karten auflegt bis 1000€ hat man einen noch höheren Preisbereich abgedeckt - und verdient sich dumm und dämlich pro Chip (Marge)
Vor März 2017 würde ich nicht mit einem GP102 Ableger rechnen.
Frühestens.
Wenn man sich überlegt wie lange es schon bei der ersten Titan gedauert hat vom Tapeout bis er den Markt betreten hat... schon bei Release der kleinen Karten damals war die Rede vom großen Chip - und dennoch hats auch ein Jahr gedauert. Nvidia steht absolut nicht unter Druck, die werden warten bis man oben noch eins draufsetzt, sonst kommen sich die 1080 Käufer ein bisschen gelackmeiert vor
Und was bringt dir das?
Ich verstehe nicht was alle mit HBM wollen, in der Praxis bringt es nichts (sieht man ja bei AMD), außer eben der Platzvorteil auf dem PCB.
Selbst GDDR5 limitiert nicht, GDDR5X ist mehr als schnell genug.
Nicht umsonst ist VRAM-Übertaktung absolut sinnfrei geworden, es bringt einfach nix.
Ob HBM oder GDDR5X, hauptsache das Ding ist schnell.
Du hast recht: Der Speicherbandbreitenvorteil ist verschwindend gering.
HBM hat aber 2 weitere Vorteile:
1)das Speicherinterface ist wesentlich kleiner, ein Chip wird dadurch entweder kleiner/stromsparender oder man verpasst ihm nochmal 20% mehr Einheiten.
2)HBM selbst benötigt wesentlich weniger Strom, so auch das kleinere Speicherinterface am Chip
3)das Ausnutzen von HBM wird nicht in der ersten Generation richtig funktionieren. Erst über die Jahre wird man lernen den Chip anzupassen, die Speicherbandbreite zu nutzen - auch den Treiber anzupassen
4)AMD selbst brachte es sehr wohl was: mit GDDR5 wäre Fury min 40-50Watt heißer geworden (wenn das RAM auch mitgerechnet worden wäre), es hätte einen größeren Chip benötigt und nicht nur dadurch wäre man auch langsamer geworden
nVidia ist aber sicher nicht bereit, Dir die GPU für lausige 750€ zu überlassen.
Nvidia versucht immer mehr "der Mercedes unter den Grafikkarten" zu werden. Oder wie Apple.
Daran ist nichts schlechtes, aber man muss halt auch sagen, dass für die meisten User der Preisaufschlag uninteressant ist.
Am Anfang 100%ig aber später wird es genauso eine erschwingliche Version geben. Nvidia macht seit Jahren genau das
gleiche und dazu muss man kein Wahrsager sein um das zu behaupten.
Mhm und völlig unabhängig ob Nvidia es seit Jahren machen würde, wäre es nur logisch:
ein großer Chip hat nunmal eine geringe Ausbeute, weil immer irgendwo Fehler sind die einzelne Einheiten betreffen. Um aber nicht 2 von 3 Chips wegwerfen zu müssen verkauft man diese teildeaktivierten Chips nochmal als 1080TI
Edit: bin grade erst draufgekommen, dass Nvidia ja erst einen Chip präsentiert hat (auf 2 Karten) und nicht wie bei AMD die ganze Zeit schon von 2 Chips die Rede war. Sprich irgendeinen Chip bringt man heuer auf jeden Fall noch, die Frage ob es die kleinere oder die größere Lösung ist