Die Effizeinze is so Lala.
Wie schon jemand erwähnt hat, sieht man das auch gut an der Nano
So lange man den chip kühl hält und den takt niedrig lässt, sind sie recht Effizient. und das kommt direkt von den elektrischen Eigenschafften von Silizium und cmos Technologie.
Mosfets (das was aktiv Schaltet und damit auch rechnet) verbrauchen den Hauptteil des Stroms beim Umschalten.
Um einen Mosfet schneller zu schalten, muss der gate-Anschluss schneller aufgeladen werden - man benötigt einen höheren Strom - was zu mehr verlust an allen Leiterbahnen führt.
Und mit höherer Temperatur brauchen Mosfets länger zu schalten und verbeauchen dadurch mehr Strom.
Beides zusammen führt dazu, dass man für höhere Leistung viel mehr Strom braucht.
Nvidia GeForce GTX 1060 Efficiency & Over/Underclocking Results
hier kann man schön sehen wie der Stromverbrauch viel stärker als die Rechenleistung steigt.
Ich würde ja genre zustimmen, nur Apple hat schon öfters nen ziemlichen griff in die ******** gemacht mit der GPU wahl.
Wenn zB eine mobile-version einer AMD GPU in ein 5k Desktop arbeitet und zu schwach ist, diesen zu befüttern - und gleichzeitig sogar noch schlechtere effizienz und höheren preis als das damalige Nvidia Gegenstück.