Nö, nur der Pentium 4 war bei 4 GHz am Ende. Generell gilt halt: je mehr Transistoren, desto geringer die Grenzfrequenz der Schaltung.
Ich würde das eher so formulieren: Je länger der kritische Pfad zum Durchschalten braucht, desto niedriger die mögliche Taktfrequenz.
Wenn einzelne Transistoren nicht so schnell schalten könnten, hätten wir wohl in der Netzwerktechnik schon lange ein Problem.
Das ist eigentlich auch genau der Grund, warum Netburst-CPUs so hoch takten konnten. Eine lange Pipeline, was im Endeffekt nichts heißt, als mehr, kürzere Einzelschritte mit Puffern dazwischen, so dass die kritischen Pfade kurz bleiben.
Lange, oder besser, vielstufige Pipelines erhöhen die mögliche Taktfrequenz, haben aber massive Nachteile, wenn wegen einer falschen Branch-Prediction wieder aufgeräumt werden muss. Solange die immer richtig liegt, ist alles super. Deswegen war Intel auch so hinterher, das gut hinzukriegen und sie haben da zu der Zeit auch große Fortschritte gemacht. Und immer, wenn stumpf gerechnet wurde, waren die Netburst-CPUs auch eigentlich recht fix. Aber sobald oft bedingte Sprünge vorkamen, sind sie eingebrochen.
Hat halt eine Weile gedauert, bis man eingesehen hat, dass man die Sprungvorhersage nicht gut genug hinkriegt, um die hohen Zeitverluste beim Versagen ausgleichen zu können. Außerdem ist man vermutlich noch physikalisch an Grenzen gestoßen, die man bis dahin noch nicht erahnt hatte. Ideal gerechnet wären die 10 GHz wohl eher kein Problem gewesen: ideal wächst die mögliche Taktfrequenz prinzipiell linear mit der Anzahl der Stufen der Pipeline. Da kann man mal sehen wie weit ideal und reell auseinanderliegen können.