...und das weiß man erst seit der RTX 2080?
Nein, das gab es schon ziemlich lange.. selbst als die Karten noch nicht mal 1 MEGA Byte an RAM hatten.
Und Nvidia war im Vergleich meist etwas knausriger mit VRAM - auch wenn sie es zu Zeiten der ersten 3D Beschleuniger noch nicht waren.
Machte es nicht "nur" einfacher mehr Leistung ohne großen Stress zu generieren?
Also z.B. mehr Mhz. => Riva TNT - TNT 2, Pro, Ultra
Schaut man sich heute die Leistungssplus an sind die Sprünge auch (teilweise) sehr groß.
RTX 3090 ti - RTX 4090
Die Sprünge in der Fertigung sind daggegen sehr klein.
Heutzutage kann man natürlich deutlich mehr Transistoren pro Chipfläche unterbringen.
Allerdings waren die Sprünge für mehr Transistoren auf der gleichen, oder gar weniger Chipfläche deutlich größer.
Die heutigen Chips sind schlicht um ein Vielfaches größer, als früher und der Chip der 4090 ist deutlich größer, als der einer 3090.
Von der GTX 980 zur GTX 1080 schrumpfte der Chip um 84 mm²... bei gleichzeitig 2 Mrd. Transistoren mehr auf dem Die.
ATI/AMD: https://www.techpowerup.com/forums/threads/major-ati-amd-die-size-comparison.247252/
www.techpowerup.com
Dabei gab es den Sprung von 28 nm auf 16 nm.
Der Chip der 2080 war dann gleich um 231 mm² größer... der Fertigungsprozess schrumpfte nur auf 12 nm.
Aber auch dieser Schritt half beim Unterbringen von mehr Transistoren.. immerhin fast eine Verdoppelung.
Wobei da auch viel RT "Ballast" bei war, der eigentlich nie ernsthaft genutzt werden konnte, bevor die Karte schon wieder fast veraltet war.
Der Chip der 2080 TI hatte 11,4 Mrd. Transistoren mehr als der Chip der 1080.. und war mehr als doppelt so groß und dabei kam am Ende ein Rasterizing Plus von 30-50% raus.
Dank aktuellen 5 nm Produktion ist der Chip der 4090 wieder deutlich kleiner - Um über 100 mm" - , als der der 2080 TI.
Dafür ist mal Eben Faktor 7 an Transistoren auf dem Chip.
Dabei ist die 4090 ohne RT (und DLSS) nur 60% schneller als eine 2080 TI.
Also knapp 30% Steigerung pro Generation seit der 2080 TI.
Die Sprünge zwischen den Generationen waren rund um Anfang der 2000er noch im Bereich von 50%+
Die Geforce 256 kam im Jahr 1999 raus und wurde in 220 nm gefertigt.
Die Geforce 2 kam etwas verteilt über 2000 und 2001 raus und wurde in einem Mix aus 180 nm und 150 nm gefertigt.
Die Geforce 2 Ultra schlug die Geforce 256 in aufwändigeren Szenarien um 152% (Unreal Tournament Benchmark in 1280 x 1024).
In Quake 3 Arena war es mit maximalen Details bei gleicher Auflösung ein ähnliches Ergebnis (Hier 154% Plus).
Hier ein alter Computerbase Artikel aus 2021 dazu:
Die Nvidia GeForce 2 Ultra war nicht nur das Spitzenmodell der GeForce-2-Serie, sondern auch die erste Grafikkarte im Test auf ComputerBase.
www.computerbase.de
Damals gab es allerdings auch deutlich rasantere Entwicklungen im Bereich DirectX.
der grossteil der waren in aller welt sird in china oder asien hergestellt. jetzt nach dem alle ihre produktion super billig dorthin verlagert haben, fällt ihnen auf das sie so die neue weltmacht erschaffen haben. das mögen die oberheinis im westen nicht,deswegen wollen sie china von der ki abkoppeln. deswegen gibt es leistungsgeminderte modelle für china um ihre ki entwicklung zu verlangsamen.
diejenenigen die diesen plan gemacht haben, haben aber noch nicht verstanden das china ständig millionen neue highendfachleute ausbildet. wenn wir 1000 neue fachleute im highend ki oder anderswo ausbilden sind es im selben zeitraum in china um faktor 100 oder 1000 mehr im selben zeitraum. die diskrepnz ist da schon deutlich zu sehen und deshalb haben die jetzt langsam auch panik. das wird nicht klappen, ist wie mit russland, wenn wir china jetzt ausklammern werden sie demnächst mit eigenentwicklungen daher kommen die unser zeug schlagen.
Der war gut...
1) Ist die Arbeitslosigkeit unter jungen, gut ausgebildeten Chinesen aktuell extrem...
2) Kann ich aus eigener Erfahrung sagen, dass die Engineering Ergebnisse von Kollegen aus dem Reich der Mitte meist eher... so Mittel waren... und das ist noch wohlwollend ausgedrückt. Da ist sehr viel Blendwerk bei.