AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure
An dem Posting ist soviel völlig korrekt und teilweise fast schon brillant.
Sehr schmeichelhaft. Bis jetzt hätte ich wunderbar geschlafen
, doch auch so viel im Argen:
Es fängt alles damit an, dass Nvidia diejenigen waren, die Maxwell fertig gebracht haben. Gleicher Prozess, doppelte Performance pro Watt und damit bei den 250-Watt-Karten doppelte Performance.
Doppelte Performance? Bist du dir da sicher? Das hab ich anders in Erinnerung. Die Effizienz ging sicher hoch, gerade deshalb fand ich Maxwell beeinddruckend. So viel Leistung für so wenig Verbrauch (etwa die 970). AMD hat selbst im neueren 14nm Prozess diese Werte nicht erreicht - also in einem 5 Jahre moderneren Prozess.
Allein schon deshalb war nicht allein durch die 12nm-Ankündig alles klar, so wie du es darstellst. Etwas unter +50% Perf/Watt wurde im Vorfeld für gut möglich gehalten und dank der offiziellen TDP-Angabe auch von Nvidia untermauert.
20% bringt der Prozess, BIS ZU wohlgemerkt. der Rest müsste also über die Architektur kommen. Wo hier 50% herkommen sollen, vorallem wenn ein Teil der Transistoren für neue Features draufgeht? Ich hab im BEST Case 50% erwartet. Und die sinds in einigen Fällen auch fast geworden (4K bei manchen Spielen). Average Case 30%
Doch dann ist es rausgekommen, Nvidia macht einen auf Intel und nutzt neuerdings Fake-TDPs, nachdem sie in den Jahren davor klar auf Realo-TDP-Schiene waren.
Die TDPs sind etwa in dem Rahmen gestiegen wie PCGH auch den tatsächlichen Verbrauch getestet hat AFAIR.
Wieso die Karten teurer geworden sind, weiß niemand mit Gewissheit.
Naja eigentlich schon. Man lässt Pascal - die günstig zu fertigen sind und immer noch Abnahme finden - im Rennen und setzt einen Drauf. Neue Features für Early Adopter. Wer will kann also die alte Generation kaufen oder die noch schnellere neue.
Wer 3000€ hat muss sich nun keine Volta kaufen, sondern kann sich um dasselbe Geld 2 2080 Tis kaufen. Nicht alles wurde teurer, manches wurde günstiger.
Vielleicht kommt ja auch noch ein 900mm² Monster mit HBM
(glaub ich erstmal nicht, dann eher in 7nm)
Es gibt viele Aspekte, die in der Wagschale liegen: Ram-Preise, gereifte Fertigung, große Chips, kein verdoppelter Ram, Melkvidia, kein HBM, Miningschutz, Entwicklungskosten, AMD Vega, Finanzierung eines neuen Großprojektes, HQ-PCB-Design, Apple (just trolling), Investorenforderungen, ...
Nvidia verlangt halt was die Kunden bezahlen. Der 75% Marktanteil (oder so) gibt ihnen halt leider recht.
...unterm Strich ist klar: Man weiß es eben wirklich nicht. Auch klar ist aber, dass sich seit der 680 eine Linie durch die Produktpolitik Nvidias zog, das Preisgefüge nach oben zu verschieben. Ob reingedichtet oder geplant ist eine gute Frage, ich bin allerdings schwer davon überzeugt, dass alles geplant ist. (alles übrigens ganz im Stile deines nicht schwarz-weiß-malen Grundsatzes)
Stimme voll zu. Wenn man besonders spitzfindig sein will hat den Stein sogar AMD ins Rollen gebracht: die 5850 hab ich am Releasetag um 180€ bekommen. Eine Woche später kam die Ankündigung von Nvidia, dass man vor dem neuen Jahr keine neuen Produkte (also den Counter zur R5870) vorstellen werde. Der Listenpreis der 5850 wurde von knapp 200 auf 270 hochgezogen, der der 5870 auch um über 100. AMD weiß also genauso wie Preistreiberei funktioniert. Wenngleich man hier auch verteidigend argumentieren könnte, dass sie die Nachfrage vorne und hinten nicht befriedigen konnten (der 40 nm Prozess kam nicht in Schwung) und die Karten ausverkauft waren nach einer Woche.
Ziemlich sicher die bessere Legacy-und Zukunfts-Karte wäre meinen Spekulatius nach übrigens ein HBM-Turing. Aber bei HBM wollte Nvidia ja aus irgendwelchen Gründen ja nur halbherzig einsteigen. Vielleicht, um dann die 7nm-Generation als absoluten Bringer zu präsentieren, wer weiß.
HBM wäre natürlich noch besser gewesen: geringerer Verbrauch da kleineres SI. Aber auch GDDR6 ist schon recht "cool". HBM wäre halt noch teurer. Vielleicht bringt man aber eine Titan mit HBM. Ich weiß aber nicht, ob das in 12nm noch sinn macht, wie groß soll der Chip noch werden?
"Komfortabel" war speziell auf Vega 10 bezogen, weil die neuen Karten dort das Preisgefüge nicht tangieren. Das war evtl. etwas missverständlich ausgedrückt. Man ist halb nicht durch Turing gezwungen die Vega Karten günstiger zu machen.
Man sollte auch im Hinterkopf behalten, das AMD alles was man an Vega produziert hat, auch quasi non stop dank mining an den Mann gebracht hat. Dadurch ist Vega ungeachtet aller anderen Umstände trotzdem ein finanzieller Erfolg.
Stimme insgesamt zu.Aber was ist jetzt damit? Mining Boom ist vorbei? Ob Vega ein Erfolg ist weiß ich nicht. Es wurde mit sicherheit weniger Produziert als man könnte. Vermutlich weil man die Karten nur mit geringem Gewinn verkaufen konnte (Chipkosten hoch, HBM kosten hoch). Die Spatzen pfiffen von den Dächern, dass man Produktionsschwierigkeiten hat (unterschiedliche HBM Bauhöhe) und auch bewusst wenig produziert, weil man bei 500$ keinen Gewinn macht.