Ich wundere mich, warum man nach dem Prescott, der eigentlich kein Fortschritt gegenüber dem Northwood war (geringere Pro MHZ Leistung, gleicher Takt-pro Takt verlustleistung aber etwas höherer Takt als der noch da zu in 130 nm gefertigte Northwood), nicht eben wieder zum Northwood Design zurück ging, dem mehr Cache verpasst hat und die kleineren Prozesse ausgenutzt hat. Ein "Northwood" ähnlicher Core in 45 nm wäre sicher nahe an dem 10 Ghz Ziel gewesen... denke ich. Außer es gäbe ein Problem mit den Pipelines
Die kurze Northwood-Pipeline hätte solch hohe Taktraten nicht ermöglicht, deswegen wurde ja der Prescott eingeführt. Im Extrem-OC (wie erwähnt: Kühlung ist das A&O bei Netburst) kam der Northwood afaik kaum auf 5 GHz, der Prescott auf über 7. (und Cedar Mill hat mit der gleichen Pipeline sogar die 8 geknackt).
Berechtigt wäre aber die Frage, wieso man, nachdem das Taktrennen aufgegeben wurde, die Smithfield und Presler nicht vom Northwood abgeleitet hat. Denn 3,4 GHz hat der schon in 130nm erreicht, wäre in 90nm also sicherlich ebensowenig ein Problem gewesen, wie 3,6GHz in 65nm. Das die anderen da auch 5-6GHz hätten machen können, wollte man ja eh nicht nutzen, war also kein Nachteil und wie der Galatin bewiesen hat, sind die zusätzlichen Transistoren für die Prescott-Pipeline in zusätzlichem Cache besser und vor allem effizienter angelegt.
Aber vielleicht waren die Prescott-Nachfolger zum Zeitpunkt des umschwenkens schon zu weit in der Entwicklung vorrangeschritten, um konsequent auf Northwood&niedrige Taktraten umzustellen. Imho müsste da auch recht zeitnah der Entschluss gefallen sein, die Core-Architektur in den Desktop zu drängen, womit jede zusätzliche Investition in Netburst sinnlos wurde.
War mir klar, das du damit kommst. Aber diesmal wollte ich nicht mehr den Käpten Blaubär geben und habe deshalb vorher mal gespickt:
Mist, pwnd.
Weiß jemand, warum sie dann den PII oder spätestens den Katmai nicht auch einfach voll getaktetem Cache spendiert haben?
Ich dachte bislang immer, dass das an der externen Bauweise gescheitert ist, aber was beim PII-Overdrive funktioniert, sollte auch beim normalen Modell möglich sein - und das Ergebniss wäre Tualatin-Performance anno99 gewesen
wie wäre es mal mit einem spezial zur effizienz von CPU.
Test mit PPro und einen i7 oder C2Q. Mich würde schon Flops/Watt oder ähnliches mal interessieren
Wenn du überhaupt ein Programm findest, das auf den alten läuft und die neuen nenneswert auslastest, würde das Ergebniss von Anfang an feststehen:
Ein i7 hat definitiv keine schlechtere pro-Takt-Leistung als ein PPro, kommt aber bei <4 fachen Verlustleistung auf >8fache des Taktes...
Interessant wäre vielleicht ein Verlaufsdiagram über die Zeit - wie schwankte die Performance/Watt?
So mit einem ersten Höhepunkt (besonders schlecht) beim Pentium Pro, dann bis zum Tualatin immer niedriger=besser werdend, dann die Williamette Katastrophe, wieder Besserung bis kurz vor Northwood,...
Aber ich glaube, das ist sehr viel Arbeit für ein schönes Diagram