Selbst GCN war schon richtig stark bei hohen Auflösungen und etliche Jahre später, wo 4K zum guten Ton gehört, bringt man Architekturen, die genau das nicht mehr bieten, statt einfach mal dabei zu bleiben was man kann und nur die Schwachstellen zu stützen?
Eigentlich ist das so, dass jede neue Rasterizing-Architektur die Effizienz und/oder Skalierung pro Shadereinheit auf ein neues Level hebt und man mit den darauffolgenden Iterationen auf der Architektur dann "über die Runden kommt". Bis zu dem Punkt, an dem die Effizienz nicht mehr akzeptabel ist, oder man mit zusätzlichen Shadereinheiten zu wenig Leistung einfährt. Dann ist wieder eine neue Architektur dran. Das hängt natürlich auch von der Konkurrenz ab.
Bitte auch nicht vergessen, dass der CPU-Overhead der GCN-Karten zu hoch war, was mittlerweile gelöst wurde, und worin AMD aktuell sogar vor Nvidia kommen konnte.
Und man muss geschichtlich auch berücksichtigen, dass GCN zu einem Zeitpunkt aktuell war, als Raja Koduri zu Intel gewechselt ist, weil AMD die Investitionen in die GPU-Sparte mehrere Jahre lang extrem niedrig halten musste, um Zen zu entwickeln und weiterzuentwickeln. Wie man sieht ist es noch immer so, dass manche Produkte dann doch eingestellt und nicht vollendet werden, um die Leute auf ein anderes Produkt zu fokussieren.
Es hinzubekommen, dass die GPU-Sparte während dieser Zeit keinen Schaden nimmt, ist also eigentlich für AMD schon als großer Erfolg zu werten, und der liegt vermutlich auch gerade daran, dass AMD in der Shader-Skalierung damals schon vorne dran war und somit diese Reserven überhaupt übrig hatte.
Wenn man sich das also alles in einem Gesamtkontext anschaut, hat AMD vermutlich aus der Situation das beste herausgeholt (denn ohne GPU-Stagnation kein Zen und somit auch nicht diese APUs), auch wenn das heute bedeutet, dass sie bei den GPUs technisch leicht hinter Nvidia gelangt sind, und sie jetzt da wieder aufholen müssen. Aber irgendwo muss man mit dem Aufholen ja anfangen und man sollte es dann auch richtig machen, auch wenn man anderswo sparen muss.
Aber wenn wir stattdessen von High-End-Gaming reden, dann läuft Ryzen 7000 mit 1,3 V unter Vollast, 1,4 bis 1,5 V im Boost, während eine Radeon 7000 laut Raff mit 0,8 bis 0,9 V arbeitet.
Ich denke, wenn die Karte mit 0,8 bis 0,9V arbeitet, ist sie echt nahe dem Sweetspot (was gerade bei GPUs wegen der Parallelisierbarkeit recht sinnvoll ist) und vermutlich in dem Moment auch vom Powertarget begrenzt.
Tatsächlich laufen beide aktuellen AMD-Architekturen, also CPU und GPU meinen Informationen nach mit ca. 600 bis 1.200mV, wenn man bei den CPUs nur die Ryzen Mobile berücksichtigt und die CPUs für Desktoprechner weglässt (wo man ja im Extremfall einen Kern besonders hochprügelt).
Wenn man bereit ist, für das Gesamtpaket Leistung bei einzelnen Komponenten zu opfern, und nur 1V bereitstellt, wäre man in einem sehr effizienten Betriebsbereich, den man meiner Vermutung nach auch kühlen könnte. Je nach Effizienz der Spannungswandlung muss man sich natürlich auch überlegen, ob man nicht vielleicht einfach den überschüssigen Strom direkt in Wärme umwandelt und ableitet statt irgendwie teuer herumzutransformieren - gerade dann, wenn die CPU ohnehin unter 3W läuft.