AW: TSMC: Neue Fabrik, 3-Nanometer-Prozess soll spätestes 2023 anlaufen
Die Grafiken sind garantiert nicht maßstabsgetreu aber 10% halte ich auch für viel zu wenig. Die Turing-Shader sind ein bisschen schneller als die Pascal-Variante, gestehen wir ihnen mal großzügig zu dass sie 10% mehr Platz verbrauchen könnten pro Shader. Ein imaginärer TU102 der einfach nur ein GP102 mit den neuen Shadern ist, und zwar wie gehabt 3840 davon wäre dann 518 mm^2 groß. Jetzt haben wir aber 754mm^2 vor uns. Platz, für rechnerisch 5590 Shadereinheiten oder um im Schema zu bleiben 5760 Stück.
Klar weiß man als Außenstehender nicht, wie viel Cachestrukturen und Umgebungsparameter geändert werden müssen um die Auslastung sicherzustellen und wie viel sowas thermisch verbrauchen würde bzw. welchen Takt man da noch gehen kann um in den 250-300W zu bleiben - aber es wären nunmal faktisch 50% mehr Shader als eine TitanXP oder über 70% mehr Shadereinheiten als eine GTX1080Ti aktiv hat.
Für mich ist klar, dass NVidia mit den Tensor/RTX-Cores sehr viel Rasterizer-Leistung "verschenkt" hat die ein solch riesiger Chip hätte haben können (egal obs jetzt 30, 40 oder 50% sind). Und diese Entscheidung dahingehend ist garantiert nicht gefallen weil man ja tolles Raytracing bieten will und die superinnovative Firma ist (das ist die offizielle Marketingversion) sondern schlicht weil man keinen Druck hatte und sich nicht selbst die eigenen Karten wegschießen möchte bzw. sich die Luft für eine 3000er Generation nehmen will.
Wenn AMD einen Navi kaufbar gehabt hätte der so schnell wie eine aktuelle RTX2080Ti ist kannste dir sicher sein dass wir kein RTX gesehen hätten und es hätte eine GTX2080Ti mit 5000+ Shadern gegeben die AMD wieder wegföhnt. Aber so nen Navi gibts halt nicht. Dann kann man so Spielereien bringen die höchstens mittel- bis langfristig erfolgversprechend sind.
@Schaffe: Wie kommst du auf 10%? Die Grafiken, die im Internet zu finden sind, sagen was ganz anderes. Allerdings weiß man nicht, ob die nicht bloß schematisch, also nicht maßstabsgetreu sind.
Die Grafiken sind garantiert nicht maßstabsgetreu aber 10% halte ich auch für viel zu wenig. Die Turing-Shader sind ein bisschen schneller als die Pascal-Variante, gestehen wir ihnen mal großzügig zu dass sie 10% mehr Platz verbrauchen könnten pro Shader. Ein imaginärer TU102 der einfach nur ein GP102 mit den neuen Shadern ist, und zwar wie gehabt 3840 davon wäre dann 518 mm^2 groß. Jetzt haben wir aber 754mm^2 vor uns. Platz, für rechnerisch 5590 Shadereinheiten oder um im Schema zu bleiben 5760 Stück.
Klar weiß man als Außenstehender nicht, wie viel Cachestrukturen und Umgebungsparameter geändert werden müssen um die Auslastung sicherzustellen und wie viel sowas thermisch verbrauchen würde bzw. welchen Takt man da noch gehen kann um in den 250-300W zu bleiben - aber es wären nunmal faktisch 50% mehr Shader als eine TitanXP oder über 70% mehr Shadereinheiten als eine GTX1080Ti aktiv hat.
Für mich ist klar, dass NVidia mit den Tensor/RTX-Cores sehr viel Rasterizer-Leistung "verschenkt" hat die ein solch riesiger Chip hätte haben können (egal obs jetzt 30, 40 oder 50% sind). Und diese Entscheidung dahingehend ist garantiert nicht gefallen weil man ja tolles Raytracing bieten will und die superinnovative Firma ist (das ist die offizielle Marketingversion) sondern schlicht weil man keinen Druck hatte und sich nicht selbst die eigenen Karten wegschießen möchte bzw. sich die Luft für eine 3000er Generation nehmen will.
Wenn AMD einen Navi kaufbar gehabt hätte der so schnell wie eine aktuelle RTX2080Ti ist kannste dir sicher sein dass wir kein RTX gesehen hätten und es hätte eine GTX2080Ti mit 5000+ Shadern gegeben die AMD wieder wegföhnt. Aber so nen Navi gibts halt nicht. Dann kann man so Spielereien bringen die höchstens mittel- bis langfristig erfolgversprechend sind.