E
-ElCritico-
Guest
Es fehlt nicht an Leistung, die Karten wurden bis an die Kotzgrenze hochgezüchtet. Nvidias Angaben stimmen einfach nicht bzw. sind Werbelügen: Nicht die ganzen Shading Prozessoren wurden verdoppelt, sondern nur die darin enthaltene FP32-Einheit, und zwar exklusiv auf Kosten der parallelen INT32-Berechnung. Das ist großartig fürs Machinelearning, die Grafik erfordert aber das entsprechende Verhältnis an TPUs und TMUs.
Zu m Vergleich:
RTX 2080Ti hat 272 TMUs, 88 ROPs, 68 SM-Einheiten
RTX 3080 hat 272 TMUs, 96 ROPs und ebenfalls 68 SM-Einheiten
Die TMU-Anzahl ist genau gleich, geringfügig mehr ROPs, Ampere hat aber auch verbesserten L1 Cache gegenüber Turing. Das heißt, der Vorteil würde nur in richtig shaderlastigen Spieleengines und in genau denen, die fast ausschließlich auf die FP32 und nicht auf die INT32-Einheiten setzen rüberkommen.
Das Umschreiben von Engines ist sehr kostenintensiv für die Entwickler, den Vorteil würden nur die RTX 3000-Besitzer spüren, die wahrscheinlich nicht mal 1% der User ausmachen würden. Die Konsolen, die Radeonkäufer etc. würden davon gar nicht profitieren, d.h. es lohnt sich nicht.
Was wir hier haben, ist eine auf Machine-Learning optimierte Architektur, die als Gamerkarte vermarktet wird, damit die Gamer die Entwicklungskosten für den professionellen Nvidia-Zweig mitbezahlen
Zu m Vergleich:
RTX 2080Ti hat 272 TMUs, 88 ROPs, 68 SM-Einheiten
RTX 3080 hat 272 TMUs, 96 ROPs und ebenfalls 68 SM-Einheiten
Die TMU-Anzahl ist genau gleich, geringfügig mehr ROPs, Ampere hat aber auch verbesserten L1 Cache gegenüber Turing. Das heißt, der Vorteil würde nur in richtig shaderlastigen Spieleengines und in genau denen, die fast ausschließlich auf die FP32 und nicht auf die INT32-Einheiten setzen rüberkommen.
Das Umschreiben von Engines ist sehr kostenintensiv für die Entwickler, den Vorteil würden nur die RTX 3000-Besitzer spüren, die wahrscheinlich nicht mal 1% der User ausmachen würden. Die Konsolen, die Radeonkäufer etc. würden davon gar nicht profitieren, d.h. es lohnt sich nicht.
Was wir hier haben, ist eine auf Machine-Learning optimierte Architektur, die als Gamerkarte vermarktet wird, damit die Gamer die Entwicklungskosten für den professionellen Nvidia-Zweig mitbezahlen