AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure
Mich fasziniert immer noch, wie viele hier enttäuscht sein können.(...)
An dem Posting ist soviel völlig korrekt und teilweise fast schon brillant, doch auch so viel im Argen:
Es fängt alles damit an, dass Nvidia diejenigen waren, die Maxwell fertig gebracht haben. Gleicher Prozess, doppelte Performance pro Watt und damit bei den 250-Watt-Karten doppelte Performance. Allein schon deshalb war nicht allein durch die 12nm-Ankündig alles klar, so wie du es darstellst. Etwas unter +50% Perf/Watt wurde im Vorfeld für gut möglich gehalten und dank der offiziellen TDP-Angabe auch von Nvidia untermauert. Doch dann ist es rausgekommen, Nvidia macht einen auf Intel und nutzt neuerdings Fake-TDPs, nachdem sie in den Jahren davor klar auf Realo-TDP-Schiene waren.
Wieso die Karten teurer geworden sind, weiß niemand mit Gewissheit. Es gibt viele Aspekte, die in der Wagschale liegen: Ram-Preise, gereifte Fertigung, große Chips, kein verdoppelter Ram, Melkvidia, kein HBM, Miningschutz, Entwicklungskosten, AMD Vega, Finanzierung eines neuen Großprojektes, HQ-PCB-Design, Apple (just trolling), Investorenforderungen, ...
...unterm Strich ist klar: Man weiß es eben wirklich nicht. Auch klar ist aber, dass sich seit der 680 eine Linie durch die Produktpolitik Nvidias zog, das Preisgefüge nach oben zu verschieben. Ob reingedichtet oder geplant ist eine gute Frage, ich bin allerdings schwer davon überzeugt, dass alles geplant ist. (alles übrigens ganz im Stile deines nicht schwarz-weiß-malen Grundsatzes)
Ob ein verbreiteter und zu GDDR6 geporteter GP102 die bessere Legacy-Karte geworden wäre wage ich zu bezweifeln. Auf die gleichen ~280 Watt Real-TDP limitiert gehe ich davon aus, dass er ziemlich genau bei der gleichen Performance und Effizienz gelandet wäre. Allgemein sollte auch nicht vergessen werden, dass die gute Kühlbarkeit wahrscheinlich auch mit an den vielen aktuell ungenutzen Einheiten im Chip liegen. Mal schauen, was die Langzeitreviews bringen werden.
Interessant wird später übrigens noch werden, ob Nvidia die Effizienz von Turing durch das Schummel-Anheben um 20 Watt und das offizielle Anheben um 10 Watt eigentlich erst so enttäuschend gemacht hat, oder ob sie sich nicht gut runterlimitieren lässt.
Ziemlich sicher die bessere Legacy-und Zukunfts-Karte wäre meinen Spekulatius nach übrigens ein HBM-Turing. Aber bei HBM wollte Nvidia ja aus irgendwelchen Gründen ja nur halbherzig einsteigen. Vielleicht, um dann die 7nm-Generation als absoluten Bringer zu präsentieren, wer weiß.