Im Grunde haut auch kein Prozessor hunderte Watt raus. In der Spitze vielleicht kurzzeitig, wenn man alle Schleusen im Bios öffnet, aber das ist für 5% Gewinn völliger Nonsens.
Ich habe mich jüngst genau darum gekümmert, da ich den 10700 noch gar nicht so lange habe. Mir war ja bewußt, daß ich mich verbrauchstechnisch von einem 4670 kommend auf den 8Kerner verschlechtere. Ist aber alles halb so wild.
Igor(slab) hatte kürzlich in einem Bericht zu einem emulierten 12400 auch Werte der Leistungsaufnahmen diverser Prozessoren gepostet, die sich je nach Spiel zwischen ~50w (5600x) und 125w einpendelten (5950x oder 11900k). Jeder mit einem etwas "normalerem" Modell wie meinem 10700 wird sich bei rund 100w wiederfinden. Ich wahrscheinlich noch darunter, da immer auf 60fps begrenzt, Kerne langweilen sich alle vor sich hin, trotz aller Einschränkungen im Bios. Das soll nicht heißen, daß es nicht ein gewaltiger Unterschied ist, ob 50 oder 100 Watt (objektiv ist das aus rationalen Gesichtspunkten ein Schlag in die Fresse für Intel). Aber ich hab's für mich als Intel-only-User (mein letzter AMD war ein Barton aus 2002 oder so) derart begründet, das es bei soundsovielen Spielstunden im Jahr vielleicht 30€ Unterschied sind. 5 Schachteln Kippen, 2x Kino, einmal halb voll tanken, es war mir wurscht.
Aber auch, weil der eigentliche Fresser ganz woanders hockt, nämlich als Graka senkrecht in einem Slot. Hier sind 400w Leistungsaufnahme bei den Spitzenmodellen auch nicht mehr weit weg, keine Ahnung, ob die 3090 das schon "geschafft" hat.
Unter'm Strich: Für deine Ansprüche da, Diablo, Briefmarken-Auflösung, im Grunde würde ich dir raten, kauf' dir egal was, Hauptsache, das Spiel läuft vernünftig. Für euer Anwendungsgebiet liest es sich eben so, als würde die Kiste eh dermaßen selten in Betrieb sein, daß es egal ob CPU 1 oder 2 eh kaum zu einem Unterschied größer 10€ pro Jahr kommen würde.