Abgesehen davon, daß die Punkte in der Rangliste keinerlei Rückschluß auf den tatsächlichen Verbrauch geben, sollte man schon wenigstens den Grafik Score nehmen um Punkte pro Watt zu errechnen.
Mein Bedienfehler by night, nicht auf das Pulldown geachtet.
3090Ti =11331 / 450W = 25,18 Punkte-pro-Watt
3090 =10286 / 350W = 29,39 p/w
3080 TI=10044 /350W = 28,6 p/w
3080-12G =9352 / 350W = 26,72 p/w
3080 = 8902 / 320W = 27,8 p/w
3070Ti =7404 / 290W = 25,5 p/w
3070 = 6810 / 220W = 30,95 p/w
3060Ti =5766 / 200W = 28,8 p/w
3060 =4107 / 170W = 24,1 p/w
Es ist allerdings schon davon auszugehen, dass bei einem Benchmark das Powerlimit ausgeschöpft wird, zumindest ist das bei mir so, wenn ich Timespy laufen lasse.
Das folgende wäre ein Vergleich der 60er Serien, an dem man sieht, das Nvidia eher stagniert und mehr Leistung nur noch mit mehr TDP erzeugen kann, oder bewusst die Chips so anlegt, dass sie eben mehr TDP brauchen. Vielleicht sind die Chips so billiger zu produzieren und geringere Effizienz ist egal, weil die geht eh auf Last der Stromrechnung des Kunden. Wer im Kontext eine "60er Kunden" denkt, der muss mit steigendem Verbrauch rechnen.
4060 = 6000 = 240W = 25 p/w
3060 = 4107 / 170W = 24,1 p/w
2060 = 3519 / 160W = 21,9 p/w
1060 = 1920 / 120W = 16 p/w
960 = 1024 / 120W = 8,5 p/w
Wir können aber auch Preispunkte vergleichen, wobei man mir hier verzeihen möge, dass ich den 500€ Punkt nehme und der 3070 ihren UVP erlaube. Oben sind ja alle 30er Karten, da kann sich jeder die Spalte austauschen und selbst Schlüsse ziehen.
3070 (~500€) = 6810 / 220W = 30,95 p/w
2070 (~500€) = 4320 / 175W = 24,6 p/w
1070Ti (~450€+) = 3152 / 180W = 17,5 p/w
980 (~550€) = 2091 / 165W = 12,6 p/w
Hier sehen wir dennoch deutlich, dass wenn man (ungefähr) das gleiche Geldscheinbündel in die Hand genommen hat, man mit jeder Generation mehr Leistung pro Watt bekommen hat und zusätzlich noch mehr Leistung oben drauf, weil die Karte mehr Watt verbrannt hat. Wir sehen das beim Sprung von 1070 auf 2070, da ist die TDP fast gleich und der Zuwachs in der Leistung der Karte entspricht dem Zuwachs der Effizienz. Bei der 3070 ist das anders, nicht nur, dass die effizienter ist und allein daher schon bei 175W schneller wäre als die 2070, sie bekommt auch noch 45W obendrauf die sich im finalen Ergebnis bemerkbar machen.
Das ist das Problem bei diesen Leaks, sie zeigen dass die neuen Nvidia Karten schneller sind, weil sie mehr TDP besitzen, aber der Zuwachs in der Effizienz von einer Generation zur nächsten bleibt scheinbar aus.
4060Ti = 8600 = 280W = 30,7 Punkte pro Watt
4060 = 6000 = 240W = 25 Punkte pro Watt
Ja, für eine Karte die 8600 Punkte ausspuckt, sind die 280W Verbrauch ein Zuwachs in der Effizienz gegenüber einer 3080 die dafür 320W braucht. Bei der 3060 mit ihren 240W für eine Leistung knapp unterhalb einer 3070 mit 220W fällt es schwer von Fortschritt zu sprechen. Wobei ich bereit bin zu akzeptieren, dass vielleicht der Speicher einfach keine vernachlässigbare Größe mehr ist, weil dessen Verbrauch vielleicht stärkere Auswirkungen hat, dadurch dass der RAM auch viel mehr am Limit operiert als früher. Aber der Sprung von der 2060 mit 6GB auf die 3060 mit 12GB hat eigentlich gezeigt, dass sowas einer Effizienzsteigerung nicht im Weg stehen muss. Als schnelle Ausrede sollte man den RAM daher auch nicht akzeptieren.
Vielleicht (und dafür werde ich vom Imperium wohl als Techketzer verbrannt) war der Samsung Node gar nicht so schlecht und der neue TSMC ist gar nicht so viel besser wie immer getan wird. Nvidia sieht sowas bestimmt als erstes von der Perspektive Ausbeute und Herstellungskosten und vielleicht war das der größte Mangel an Samsung und nicht, dass deren Zahl vor den Nanometern die falsche war.
Aber bitte nicht falsch verstehen, als Kunden wollen wir einfach viel Leistung für wenig Geld und Nvidia will viel Output an Leistung für wenig Chipfläche, weil je kleiner die Chipfläche ist umso besser, weil TSMC wird pro Wafer bezahlt, nicht pro geliefertem Chip. Wenn mehr Chips auf ein Wafer passen, dann ist das mehr gut. Das ist dann der Mechnismus, warum die Effizienz der RTX40 Serie scheinbar zum Teufel gegangen ist. Nvidia fährt alles total am Anschlag und das macht sich negativ bemerkbar. Das sieht man in der Aufstellung an Chims wie dem GA102, der als 3080 eine andere Effizienz hat als in der 3090 Variante oder der 3090Ti. Auch hier, je mehr man das Limit pusht umso mehr Effizienz verliert man wieder.