Und das hast du grade für dich selber definiert und für den Rest der Mesnchheit als gültig erklärt?Der Sweet Spot für Silizium liegt bei 3...4 GHz, alles über 4 GHz ist Overclocking.
Warum nicht gleich 2 GHz oder noch weniger - das ist noch sweeter und noch effizienter als 3 GHz (vergleiche auch Basistakt von T, H, U,... Modellen)?
Das hat für den normalsterblichen Nutzer ohne speziellen Workload bis heute nicht an Richtigkeit verloren. Für einen normalen Spieler ohne Highend-Hardware der nahezu immer im GPU-Limit hängt ists noch "schlimmer", da hier eine CPU selbst wenn sie doppelt so schnell ist ggf. Null Auswirkungen auf die Gesamtperformance haben kann.Ich kann mich noch gut an die ct-Artikel erinnern, wo drin stand, dass sich unter 50% Mehrleistung ein CPU Upgrade nicht lohnt, weil man das in der Praxis eh nicht spürt.
Andersrum kann eine CPU auch wenn sie nur 30% schneller ist als die ersetzte bei jemandem, der zeitkritische Arbeiten hat und damit Geld verdient am Tag 2,5 Stunden mehr effektive Arbeitszeit bedeuten (was die CPU bei einem 8h-Task früher fertig wäre).
Es gibt bei den ganzen Geschichten einfach keine Pauschalen Aussagen die für alle gelten. Weder was den Takt angeht, noch zu irgendeiner "Konvergenz" oder zu wie viel Mehrleistung sich "lohnt".
Das einzige, was man zweifellos schreiben kann ist, dass die effektiven Performancesprünge pro Zeiteinheit natürlich heutzutage kleiner ausfallen als vor 20 Jahren einfach weil alles was es an "low-hanging-fruits" gegeben hat schon lange abgeerntet ist.