Eindeutig ist da nix, denn viele glauben das mittlerweile tatsächlich.
Der Punkt ist auch, dass Witze über heiße Chips und Leistungsaufnahmen einen Kilometerlangen Bart haben. Es gibt praktisch nichts, was von Pentium4 über AthlonFX bis zu Rocketlake (oder dasselbe bei Grafikkarten) als billige Herdplattenwitze noch nicht gemacht wurde. Was daran ärgerlich ist ist einfach, dass es inhaltlich in den meisten Fällen auch falsch ist/war.
Wenn ich heute nen 14900K mit nem 7950X vergleiche dann ist im Idle und bei geringen Teillasten der Intel sparsamer, bei mittleren Lasten (etwa Spiele) der AMD sparsamer und bei Vollast beide etwa gleich (innerhab aller Specs betrieben). Welches System am Jahresende mehr Kilowattstunden auf der Uhr hat ist im Wesentlichen nur davon abhängig wie das Nutzerprofil des Benutzers ist. Aber diese Zusammenhänge sind nicht in einen einzelnen Balken zu quetschen und erzeugen weniger Aufmerksamkeit (=Geld) im Netz als "14900K frisst 472drölf Watt [mit unlimited-Settings unter dicker Wakü in Prime95 die ersten 2 Sekunden]".