AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure
[...]
Da macht die Unterscheidung nach technischen Daten wesentlich mehr Sinn.
Wenn man sich mal die technischen Daten anschaut, dann hat man eine massive Steigerung zwischen der GTX580 und der GTX680 (3 mal mehr ALUs und 2 mal mehr Shadereinheiten) bei gleicher Transistoranzahl. Die Leistungssteigerung zwischen GTX580 zu GTX680 fiel mit 28,19% auch größer aus als die 18,91% zwischen GTX480 zu GTX580. Die darauffolgenden Generationen GTX680 zu GTX980 und GTX980 zu GTX1080 fielen mit jeweils über 60% noch wesentlich üppiger aus:
Anhang anzeigen 988134
Perf/Watt, Perf/mm² und Perf/€ sind die einzigen Vergleichsmetriken die zum Schluss Sinn ergeben.
3x mal ALUs sagen mir schließlich nichts, wenn ich nicht über den Takt Bescheid weiß und GFLOPs als FMA-Ops x Takt sagen mir am Ende auch nicht die Wahrheit, weil es nur beschränkt mit der praktischen Performance zu tun hat.
Und ALUs = Shadereinheiten, in der Tabelle stimmt es mit Textureinheiten.
Apropo Tabelle, die ist ansonsten voller Fehler.
Der GP104 ist ~314mm² groß (1070(Ti)/1080), der GP102 ~471mm² und der GP100 ~610mm².
Es gibt auch keinen die size Unterschied beim GK110, die sind alle ~561mm² groß.
Der GM200 (980Ti) besitzt eine Chipgröße von ~601mm.
Und woher kommen die Leistungssteigerungen in Prozent?
Eine geschrumpfte DIE bei einem Sprung von 40nm auf 28 nm ist wohl zu erwarten.
Die UR-Titan war NVIDIAs erste Karte die den semiprofessionellen Markt bedienen sollte. Sie war gar nicht für Gamer vorgesehen.
Die GTX780 und 780Ti sind nur noch beschnittene TITANs. Alle Ti-Modelle danach wurden auf den Markt geworfen um fehlerhafte Chips nicht entsorgen zu müssen, sondern weiterzuverwerten und diese an Enthusiasten zu verkaufen. In der Pascal-Generation haben sie es dann auf die Spitze getrieben. Erst werfen sie einen beschnittenen Quadro Chip als neue Titan X auf den Markt, dann folgt die 1080Ti die nur einen defekt im Speicherinterface aufweist. Und weil diese von der Leistung einer Titan X entspricht, wird nochmal der Vollausbau als Titan XP nachgeschoben.
Und dein Kategorienvergleich ist schon nach 2 Generationen hinfällig. Bei Keppler mag er noch passen, aber ab Maxwell sind die HighEnd-Chips für den Endverbraucher nicht mehr zu verwenden, das diese als GM100 und GV100 nur noch für den professionellen Markt in Clustern eingesetzt werden. Möchte mal sehen wie du diese Prozessoren ohne Grafikausgänge fürs Gaming einsetzt. Denn nach deinem Selbstverständnis und der Kategorieneinteilung müssten das ja Gaming CPUs sein.
Ich für meinen Teil vergleiche lieber die Leistungs und Effizenzsteigerungen der jeweiligen Generationen. Den im Endeffekt ist es das was für mich als Gamer zählt und an dem ich ausrichte, was ich zu zahlen bereit bin. Und hier hat NVIDIA in jeder Generation seit der GTX480 (mit beachtlichen Leistungssteigerungen in den letzten beiden Generationen) abgeliefert.
Es stellt nur keine Regel dar, dass ein neuer Fertigungsnode dafür verwendet wird die Chipgröße massiv zu senken, entsprechend war das nicht zu erwarten.
Und der Kepler vs. Fermi-Vergleich ergibt bezüglich der Kategorisierung schon Sinn.
Ein über 500mm² großer Chip, mit einem hohem FP64-Verhältnis, künstlich gedrosselt für den Konsumenten.
Nvidia hat nur die Handhabung bezüglich Einführung und Preis geändert.
Es gibt keinen GM100-Chip, nur einen GM200 und der wurde ja als 980Ti verkauft.
Den GV100 kann man als Titan V für eine Arsch voll Kohle kaufen und ist aktuell die schnellste GPU im Gaming und besitzt Display-Ausgänge.
Den GP100 konnte man nicht über einen Shop für Einzelhandelskunden kaufen, sondern höchstens als GP100 Quadro-Version mit Display-Ausgängen.
Und Gaming
CPUs stellen die alle natürlich nicht da.
Und naja, wie gesagt, Nvidias Marge ist ständig gestiegen (61,9% Bruttomarge in Q4!) und die Gaming-Sparte stellt den größten Umsatzfaktor dar.
Entsprechend muss ich mir den Kopf nicht mit Mühe und Not zerbrechen indem ich die Chipgröße vergleiche, die UVP/den Straßenpreis, die Inflationsrate, den Zeitrahmen, Produktionskosten usw.
Ich weiß das Nvidia mehr Gewinn rauspresst im Vergleich zu früher und das ich als Kunde relativ weniger bekomme, als damals.
Ganz so simpel ist es natürlich auch nicht, aber die Perspektive kommt auch auf einen Punkt mit deutlich weniger Faktoren die man krude in Relation ziehen muss und sehr unterschiedlich ausfallen.