Es sind nur 36 und 76%. Wobei, wenn man die RTX 3090 (die ja der Nachfolger der RTX 2080Ti ist) nimmt, dann sind es 97% und deine Rechnung stimmt. Bis auf die kleine Tatsache, dass zwischen der GTX 1080Ti und RTX 3090 knapp 4 Jahre liegen.
Es sind also eher 40% in zwei Jahren oder 18% pro Jahr. Das ist weniger als ein fünftel der früheren Steigerungen oder auf 10 Jahre gerechnet knapp ein zweihundertstel des früheren Fortschritts (was Exponentialrechnung doch so alles bewirkt).
Und dafür hat es nur 4 Jahre gebraucht, ja großartig...
Die Leistung verdoppelt sich nicht alle 2 Jahre, sondern die Strukturdichte. Siehe Moorsches Gesetz.
de.wikipedia.org
2080Ti= 18,6 Mrd. Transistoren bei 754mm² = 24,7 Mio Transistoren pro mm² + Tensor&RT Kerne
3090 = 28,3 Mrd. Tranistoren bei 628mm² = 45 Mio. Transistoren pro Quadratmillimeter + mehr Tensor&RT-Kerne
entspricht etwa einer verdopplung...
Die Leistungssteigerung von 40% ist nicht korrekt, da sie nur die Rasterisierungsleistung misst, ein grosser Teil der Chipfläche von RTX Karten wird aber von den RT und Tensorkernen belegt, welche aber bei Rasterisierungs Spielen überhaupt nicht genutzt werden. Ausserdem muss die Auflösung hoch genug sein, da moderne Karten entsprechend viele Streamingprozessoren sowie ALU´s besitzen welche nur dann ihre Leistung enfalten wenn die Auslösung hoch genug ist.
Wenn man also ein Benchmark nimmt welches auch sämtliche Strukturen so einer GPU nutzt sieht das ganze auch anders aus.
Am besten geht das aktuell mit Cyberpunk2077, da dieses Spiel sowohl RT als auch DLSS in vollem Umfang beherrscht.
Bei 4K mit Psycho RT und Quality DLSS liegt eine 3090 etwa 80% vor einer 2080Ti.
Wenn ich aber CSGO in 1080p zocke brauch ich mich nicht wundern, da sowohl die Streamingprozessoren/ALU´s wegen der niedrigen Auflösung, als auch die Tensor und RT Kerne nichts zu tun haben. Somit liegen 50% der Chipfläche unbenutzt.