Ich kenne keine einzige Nachricht, dazu das sich eine 400 Watt AMD Karte selbst "entlötet", warum? Die GPU wurde mit einem Interposer vom PCB entkoppelt. Damit machen die Lagen der Energieversorgung kaum Probleme, dafür ist der Aufbau instabiler, bzw. lässt sich nicht ein so hoher Anpressdruck generieren, was die Hardware im Taktverhalten bei hoher Energiedichte limitieren kann.
Ich hatte übrigens ein Laptop mit der GT840m, war öfter kaputt. GPU wurde mehrfach getauscht. Warum? Lotproblem?
Ob man die braucht oder nicht, hatte ich bereits zeigt. Die Antwort ist klar "ja" und auch AMD sieht das ja so.
Die Antwort ist, dass du und einige wenige mehr, legen "in Hardware beschleunigt" als fixed Function aus, um es mit Nvidia gleich zu stellen. Die tun ja genau das Gleiche...um mehr geht es dir/euch nicht. Ob das so ist, wissen wir aber nicht.
Mal damit beschäftigen:
Unified shader model - Wikipedia
Wenn man in der Instructionspipeline ein fixes Processing spart, spart man auch gleichzeitig Strom oder kann die freigewordene Rechenleistung bei gleichem Energieverbrauch für anderes einsetzen. Es wird dort übrigens super beschrieben. Es geht vor allem um ein effizientes Balancing, bei höherem Workload (auch im Worstcase) und das ist davon abhängig, was eine GPU in einem bestimmten Softwareumfeld leistet. Das tut sie nur, wenn man ihr die nötige Energie zuführt, wobei sie davon alles in Abwärme umwandelt.
Nvidia hatte zuletzt und mit TSMC immer den Vorteil, dabei weiter in die Fläche (mehr Waferfläche) gehen zu können (bei expliziet angepasstem Verfahren FFN), um höhere Leckströme zu vermeiden. Das Negative an diesem Modell ist, dass es kostenintensiv ist. Denn irgend jemand muss den Wafer bezahlen.
Es ist auch falsch zu behaupten, AMD wolle mit Bignavi seine Marge weiter steigern, sie wollen vor allem die derzeitige Marge von 50% halten (mehr teilte man den Investoren nicht mit, soweit bekannt waren die zufrieden, weil man den Anteil steigern will, Highend haben sie ja bisher nichts und vermutlich wird das auch gekauft wenn der Preis passt). Ich glaube das man daher mehr Spielraum hat als Nvidia, was die Einführungspreise angeht. GA102 ist deutlich größer als Bignavi (+100-200mm²). Du meinst Nvidia schenkt dir das?
Sie haben also 100-200mm² Spielraum bei der Waferfläche und 10% Spielraum bei der Bruttomarge. Letztlich bedeutet ein kleineres GPU-Die auch eine höhere Yieldrate, wobei sie schon mit Vega20 ausreichend Erfahrungen gesammelt haben dürften. Wie man am GA100 sieht, ist der Vollausbau bei Nvidia derzeit kaum zu bekommen. Alle bisherigen A100 sind teildeaktiviert.