Eigentlich nicht. Anscheneind fällt dir das lesen wieder mal schwer, aber es gibt das Wort "dürfte" in meiner Aussage. Es ist am Ende eine Mutmaßung meinerseits das Wörtchen war daher bewusst gewählt
. Du stellst es bei dir aber als Fakt dar. Außerdem gab es mal ein Control mit DLSS "1.9" was ausdrücklich nicht auf Tensor Cores lief.
Aber damit du vielleicht verstehst was ich bei der Performance meine:
What's the best GPU for Deep Learning? The 2080 Ti. We benchmark the 2080 Ti vs the Titan V, V100, and 1080 Ti.
lambdalabs.com
Das deckt sich recht gut mit dem was ich mit NN bisher erlebt habe. Die TC sind zwar schneller aber eben oft nicht so krass wie es das Marketing gerne erzählt.
Die Faktenlage sagt zu meinen Aussagen garnichts, du solltest weniger interpretieren. Die Faktenlage könnte genauso heißen:
- Nvidia ist in der Forschung führend und nutzt ML
- Intel ist in der Forschung vorne mit dabei und nutzt ML
- AMD ist in dem Bereich unbedeutend und nutzt kein ML
Und hier kommen wir dazu was man aus den Fakten macht. Intel muss dedizierte Einheiten verbauen wenn man Nvidia im KI Bereich wieder angreifen will und das die dann zwangsweise im Consumerbereich landen ist da genausowenig verwunderlich. Dazu bringt Intel anders als AMD viel Know-How aus der Forschung etc. mit da hat man ganz andere Möglichkeiten bei der Implementierung. Das man dann die speziell entwickelten dedizierten Einheiten verwendet ist dann auch klar. Aber es ist kein Beweis dass das ganze nicht auch ohne geht.
Nur das du Quadros+GeForce hast. Und bei ersterem sind Tensor Cores eben interessant. Rate mal weshalb wir diese nun auf den GeForce Karten haben. Die Chipfläche hätte man sicher bei den GeForce gespart hat aber im Zuge der Quadros keinen Sinn gemacht. Nvidia hat dann die Tensor Cores aber sinnvoll in das Consumer Segment eingesetzt und das war eine guter Schachzug.