Also die Test sind richtig von PCGH aber spätestens wenn du höhere Auflösungen erreichst und bei 4K dann ankommst, kommt es bei allen CPU‘s aufs gleiche raus. Wir befinden uns dann im GPU Limit der eine früher 4060 der andere Später 4090!
Ich kann nur von mir sprechen! Ich habe den 13700K Spiele Fallout 4, Dying Light 2, Cyberpunk und Cites Skyline wie RDR2 und komme mit meiner CPU im Schnitt auf 70-80Watt mit Ausschlag auch mal auf 110 Watt bei Cyberpunk, aber auch nicht ständig sondern eher peaks.
Ich habe auch von Dave bei Dying Light 2 das Savegame geladen und versucht diese angeblichen 214 Watt zu bekommen wie er mir in seiner Excel zeigte nicht mal das habe ich erreicht sondern nur 115 Watt und das in 720p!! Gehe ich auf 4K befinde ich mich wieder im GPU Limit und verbrauche zwischen 70-75 Watt.
Hier mal Bilder aus meinem DL 2 Game (720P und Grafik auf Low) also keine GPU Last bzw. wenig und CPU muss was machen!
So jetzt stell das ganze auf 4K und wie in meinem Fall 60FPS das ist meine Auflösung die ich spiele und die FPS mir auch ausreichen, befinde ich mich bei 50-65 Watt oder siehe den Verbrauch bei
@IICARUS bei mehr FPS bei Shooter z.B. ( was ich aber nicht spiele)
Edit; Jetzt lass die halt 100 Watt nehmen im Worst Case und du spielst pro Tag 7 Tage die Woche 5 Stunden, sind das:
7x5x100w=3,5KW pro Woche mal 52 Wochen ca 70€
Jetzt AMD mit den 65 Watt
7x5x65w =2,2KW pro Woche mal 52 Wochen ca. 46€
Differenz= 24 Euro im Jahr! Obwohl ich wirklich gerne jeden Tag das ganze Jahr 5 Stunden spielen würde ist das nicht möglich
also wäre es noch viel geringer aber wie du siehst 24€ im Jahr ist ein Witz und für mich kein Kaufargument denn sonst müsste ich wenn es mir nur um Effizienz geht den 13700T mit 35 Watt kaufen!