Es ist generell beeindruckend welche Effizienz moderne Chips so hinlegen wenn man Betriebspunkte wählt die dafür sehr günstig sind. Selbst der als saufender Chip verschriene Raptorlake wird sehr effizient wenn man ihn passend konfiguriert, acuh wenn man damit natürlich nicht die Rekordwerte eines X3D erreicht.
Wir sind allgemein stark beeinflusst um nicht geblendet zu sagen davon, dass die Werkseinstellungen im ständigen Konkurrenzkampf meist hart an der Obergrenze gewählt werden obwohl das aus Effizienzsicht eine Vollkatastrophe ist.
Du kannst dir einen Monster-PC mit 14900KS und RTX4090 bauen (um mal die härtesten Stromfresser aktuell zu wählen) und damit 600-700W beim Zocken verballern, mit OC für ne Handvoll mehr fps noch mehr. Oder du stellst die CPU auf 100W PL2 + UV und die GPU auf 2,4 GHz bei 0,85v oder sowas ein und hast 90% der Spieleleistung mit gefühlten 300 statt 600W.
Das Spielchen mit nem dahingehend optimierten 7800X3D und ner RTX4080@UV und man kann sich problemlos eine sehr performante Zockermaschine bauen, die insgesamt (!) mit 200-250W im Mittel problemlos auskommt. Nur sowas verkauft sich einfach schlecht da die breite Masse der Leute nur auf fps und nicht auf Watt (pro fps) schaut.