News Endlich: Intels 10-GHz-CPU ist zum Greifen nah!

Ich denke, dass die neuen Intel CPUs nicht mehr so hoch takten werden. Dieser Takt wurde primär durch die Architektur und die Reife des Fertigungsprozesses begünstigt.
Architektonisch begünstigen eigentlich hauptsächlich vielstufige Pipelines eine hohe Taktbarkeit. Wenn die also nicht verkürzt werden sollen, sollte der Takt mit kleineren Strukturen eigentlich eher weiter steigen.
 
Naja, nah dran!?

Nicht so viel näher an 10GHz als der alte Rekord aus 2013 mit nem AMD FX-8370 bei 8722.8MHz.

Das dauert dann bis 10GHz noch ein paar Jahre!

😂
Ich bin zwar auch ein großer Fan von Haarspalterei, die Formulierung "zum Greifen nah" ist hier aber vollkommen richtig und erlaubt es, sich das schön bildhaft vorzustellen. :-)
Ähm sorry, aber Nein!

8,7GHz in 2013
9,1GHz in 2024

Das ist nich nah dran!
 
Ähm sorry, aber Nein!

8,7GHz in 2013
9,1GHz in 2024

Das ist nich nah dran!
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

=)

MfG
Raff
 
Architektonisch begünstigen eigentlich hauptsächlich vielstufige Pipelines eine hohe Taktbarkeit. Wenn die also nicht verkürzt werden sollen, sollte der Takt mit kleineren Strukturen eigentlich eher weiter steigen.
Ja, stimmt!

Die Erfahrung lehrt uns aber das neue Architekturen meist so viel effizienter sind, das der Halbleiter Hersteller das Augenmerk damit gleichzeitig auf eine höhere Energieffizienz legt.

Apple M1-M3, AMD Zen

Die gestapelten Caches erfordern ebenfalls weniger Abwärme und mehr Effizienz.

Ist also eher unwahrscheinlich, das die nächsten Generationen die 10GHz knacken werden. Deshalb hatten die alten Rekorde ja auch so lange Bestand!
 
Der Pentium 4 Cedar Mill ließ sich recht Problemlos auf 5GHz takten, das war nicht das Problem. Das gigantische Problem war einfach, dass AMD von Anfang an es wie damals Cyrix bei 686+ gemacht hat und ein eigenes Rating verwendete, dass die Leistungsfähigkeit widerspiegelt. Damit war der eigentliche Hauptvorteil des P4, hohe Taktarten, auf Kosten der Leistung, entwertet. Ein Athlon 64 4000+ hört sich einfach besser als, als ein Pentium 4 3,8GHz, auch wenn der Athlon nur mit 2,4GHz getaktet hat. Hätte AMD die CPUs mit ihrer realen Taktfrequenz beworben, dann wäre der P4 psychologisch haushoch überlegen gewesen.

Cedar Mill war nur ein Lückenfüller, nachdem Intel die ursprünglichen Netburst-Pläne längst aufgegeben aber aus für mich bis heute unerklärlichen Gründen keinen Desktop-Core-Duo fertig hatte. Gegen die ebenfalls gerateten Athlon XP konnte sich der Pentium 4 ab Northwood dagegen zuvor gut beweisen (Williamette war genauso ein Schuss in den Ofen wie viel später Rocket Lake und das aus den gleichen Gründen), da gab es keine psychologischen Probleme. Aber danach kamen halt handfeste, als der 90-nm-Prozess von Prescott zum einen nicht wie erwartet skalierte und zum anderen die Kundschaft auf einmal nach sowas wie "Verlustleistung" fragte.

Solche Forderungen waren neu und konnten von Netburst per Definition nicht bedient worden – diese Architektur wurde für die Kunden konzipiert, welche die minimal höhere Leistung eines Athlons gegenüber einem Pentium III gefeiert hatten unter vollkommener Ingoranz des oft mehr als doppelt so hohen (!) Stromverbrauchs bei AMD. 3-4 Jahre später hieß es dann auf einmal, 115 W TDP wären absolut unbrauchbar für Heimanwender und Intel stand mit runtergelassenen Hosen da. Respektive mit einer Architektur, die bei Tejas mutmaßlich auf 200 W hatte skaliert werden sollen. (Und noch eine Runde später beim 10-GHz-Nehalem dann vermutlich auf 300 W.) Stattdessen hat man die ursprüngliche Entwicklungslinie abgebrochen und sinnloser Weise versucht, Cedar Mill und Presler bei konstanter Leistung sparsamer zu machen.
 
Zuletzt bearbeitet:
Wird interessant was da die neuen Prozesse so bringen (18A, 14A und 10A). Im Moment tritt man ja mit dem für 2016 geplanten 10nm Prozess an (ja gut, es ist 10+++ +, also 10nm Super Fin Enhanced (and again enhanced) alias Intel 7 an, wobei auch schon wieder in der 2. Gen also 7+?
Der Prozess ist also schon recht reif.
Ob es mit den neuen Prozessen weiter vorwärts geht werden wir sehen. Vor allem mit Backside Power Delivery und GAA/Nanosheet sowie generell kleineren Transistoren tut sich da wieder einiges, das zwar am Papier zuerst mal "besser" ist (weitaus höhere Transistordichte), aber eben auch erst mal reifen muss.
 
Cedar Mill war nur ein Lückenfüller, nachdem Intel die ursprünglichen Netburst-Pläne längst aufgegeben aber aus für mich bis heute unerklärlichen Gründen keinen Desktop-Core-Duo fertig hatte.

Im Gegensatz zu AMD kann es sich Intel einfach leisten zwei verschiedene Produktlinien zu entwickeln, von denen vornherein absolut klar ist, dass eine davon wohl absolut überflüssig und damit massig rausgeschmissenes Geld, ist. Der Pentium 3 wurde mit dem Tualatin ja auch noch weiter entwickelt. Daraus wurde dann das, was in den Laptops als Centrino bekannt werden sollte und daraus der Core2Duo.

Cedar Mill war damit kein Lückenfüller, denn danach wäre es beim P4 mit Tejas weitergegangen, der schon als Pentium 5 gehandelt wurde (der Name ist irgendwie ironisch, da er quasi "der Fünfte fünf" bedeutet). Wenn das mit dem Core2Duo, aus welchen Gründen auch immer, nichts geworden wäre, dann hätte man damit weiter machen können.

AMD hat diesen Luxus leider nicht, die müssen immer auf eine Karte setzen. Ein Phenom III wäre wohl die bessere Wahl gewesen und wenn Ryzen nichts geworden wäre, dann hätte AMD nichts weiter als den Excavator gehabt.

Gegen die ebenfalls gerateten Athlon XP konnte sich der Pentium 4 ab Northwood dagegen zuvor gut beweisen (Williamette war genauso ein Schuss in den Ofen wie viel später Rocket Lake und das aus den gleichen Gründen), da gab es keine psychologischen Probleme.

Das Problem ist einfach, dass der Entwicklungsgrund, die hohen Taktfrequenzen, quasi keine Rolle mehr gespielt haben. Athlon XP 2400+ hört sich einfach besser an, als Athlon XP 2,0GHz. Da half dann auch der Hinweis auf "echte GHz" nicht mehr so viel.

Beim Verkaufen ist immer sehr viel Psychologie mit drin und ein Produkt muß sich im Kopf einfach "richtig anfühlen". Man könnte z.B. auch einfach die Version des Displayports in den Namen der Graka integrieren. das würde z.B. die RTX 4090 abwerten. Sie wäre zwar immer noch die schnellste Karte, aber RTX 4090 DP 1.4a gegen RX 7900XTX DP 2.1 hört sich einfach schlechter an, als wenn man den Fakt wegläßt. Es würde permanent eine Verbindung zu "diese Karte ist veraltet" schaffen, auch wenn die eigentliche Funktion nur für wenige wirklich interessant ist.

Wir Menschen sind für solche Dinge leider sehr, sehr anfällig. Die wenigsten Kaufentscheidungen werden absolut rational getroffen.

Solche Forderungen waren neu und konnten von Netburst per Definition nicht bedient worden – diese Architektur wurde für die Kunden konzipiert, welche die minimal höhere Leistung eines Athlons gegenüber einem Pentium III gefeiert hatten unter vollkommener Ingoranz des oft mehr als doppelt so hohe Stromverbrauch (!) bei AMD. 3-4 Jahre später hieß es dann auf einmal, 115 W TDP wären absolut unbrauchbar für Heimanwender und Intel stand mit runtergelassenen Hosen da. Respektive mit einer Architektur, die bei Tejas mutmaßlich auf 200 W hatte skaliert werden sollen. (Und noch eine Runde später beim 10-GHz-Nehalem dann vermutlich auf 300 W.) Stattdessen hat man die ursprüngliche Entwicklungslinie abgebrochen und sinnloser Weise versucht, Cedar Mill und Presler bei konstanter Leistung sparsamer zu machen.

Netburst wurde für Kunden gefertigt, denen nur die Taktrate wichtig war. Ich habe es selbst vielfach erlebt. Der Athlon war beim selben Takt etwa 10% schneller, als der Pentium 3. Das hat aber niemanden interessiert, bei CPUs waren für die Leute gleich, nur der Takt hat interessiert. Auch bei der GHz CPU war der Hype groß, da hat es auch kaum einen interessiert, dass der Athlon T-Bird mit 950MHz schneller war, als der P3 1GHz - da konnte man die stärkere CPU für wesentlich weniger Geld bekommen. Auch interessant war das Komplett PC Angebot: 32MB RAM, grottiges Board, miese HDD, aber ein "Gigahertz" P3 war verbaut. Der Gipfel war, dass sich jemand ein Dualsockel Board gekauft hat und dann zwei Cyrix III mit je 667MHz eingesetzt hat. Nach seiner Logik war das wesentlich besser, als die ganzen GHz PCs*. Ich habe ihm dann die Benchmarks gezeigt, einen hat mein alten Pentium II 300 fertig gemacht, für zwei brauchte es dann meinen Pentium III 500, um sein System in die Schranken zu verweisen. Seine Laune war danach extrem mies.

Das alles führte zur Entwicklung des P4, wenn die Leute Takt wollen, dann geben wird ihnen Takt ohne Ende.

Der Verbrauch hat die Leute sowieso nicht groß interessiert und wenn die P4 etwas schneller gewesen wären, dann hätte darüber auch kaum einer gesprochen. Wir reden dann auch von, aus heutiger Sicht, sehr geringen Beträgen. Prescott hat sich meines Wissens 120W genehmig, das Athlon 64 Gegenstück hingegen knapp 90W.

Ich erinnere mich gerade an ein ct Spezial, mit dem man sich einen "Gigahertz PC" ganz einfach aus zwei Celeron 500MHz selbst bauen konnte. Die neuesten Boards hatten da allerdings eine Sperre, die das verhindern sollte, allerdings konnte man die mit ein paar Widerständen aushebeln. Der ct lag damals ein Kit, mit den passenden Widerständen, Drähten und Schrumpfschläuchen zum selberlöten, bei.[/QUOTE]
 
Die Erfahrung lehrt uns aber das neue Architekturen meist so viel effizienter sind, das der Halbleiter Hersteller das Augenmerk damit gleichzeitig auf eine höhere Energieffizienz legt.
Ist also eher unwahrscheinlich, das die nächsten Generationen die 10GHz knacken werden. Deshalb hatten die alten Rekorde ja auch so lange Bestand!
Naja, nach dem Netburst-Debakel hat man gemerkt, dass man die Probleme, die überlange Pipelines mit sich bringen, mit mehr Takt und einer besseren Sprungvorhersage nicht kompensiert bekommt. Ich denke an diesem Punkt wird ein Umdenken von möglichst langen Pipelines und möglichst viel Takt zu einem Sweetspot der Pipelinelänge aus möglichem Takt und IPC stattgefunden haben, das bis heute anhält. Die Taktraten sind zu diesem Zeitpunkt stark gefallen, seitdem aber, wohl eben wegen feineren Herstellungsprozessen, wieder kontinuierlich gestiegen. Von daher denke ich schon, dass das maximal mögliche auch weiter steigen wird, auch wenn selbst das alltäglich mögliche an vielen Stellen zugunsten von höherer Effizienz limitiert wird.
 
Dann sind wir ja nicht mehr so weit von diesen Bild entfernt :fresse:

_0a2e05da-14b5-447e-bbb6-eea26ab28885.jpg
 
Wird interessant was da die neuen Prozesse so bringen (18A, 14A und 10A). Im Moment tritt man ja mit dem für 2016 geplanten 10nm Prozess an (ja gut, es ist 10+++ +, also 10nm Super Fin Enhanced (and again enhanced) alias Intel 7 an, wobei auch schon wieder in der 2. Gen also 7+?
Der Prozess ist also schon recht reif.
Ob es mit den neuen Prozessen weiter vorwärts geht werden wir sehen. Vor allem mit Backside Power Delivery und GAA/Nanosheet sowie generell kleineren Transistoren tut sich da wieder einiges, das zwar am Papier zuerst mal "besser" ist (weitaus höhere Transistordichte), aber eben auch erst mal reifen muss.

Soweit ich mich erinnere, hat Intel seit "7"/Enhanced Super Fin keine Fertigungsverbesserungen mehr beansprucht. Wenn man die Urform von Cannon Lake mitzählt, sind sie also bei "10 nm+++".

Im Gegensatz zu AMD kann es sich Intel einfach leisten zwei verschiedene Produktlinien zu entwickeln, von denen vornherein absolut klar ist, dass eine davon wohl absolut überflüssig und damit massig rausgeschmissenes Geld, ist. Der Pentium 3 wurde mit dem Tualatin ja auch noch weiter entwickelt. Daraus wurde dann das, was in den Laptops als Centrino bekannt werden sollte und daraus der Core2Duo.

Cedar Mill war damit kein Lückenfüller, denn danach wäre es beim P4 mit Tejas weitergegangen, der schon als Pentium 5 gehandelt wurde (der Name ist irgendwie ironisch, da er quasi "der Fünfte fünf" bedeutet). Wenn das mit dem Core2Duo, aus welchen Gründen auch immer, nichts geworden wäre, dann hätte man damit weiter machen können.

AMD hat diesen Luxus leider nicht, die müssen immer auf eine Karte setzen. Ein Phenom III wäre wohl die bessere Wahl gewesen und wenn Ryzen nichts geworden wäre, dann hätte AMD nichts weiter als den Excavator gehabt.

Tejas stand in der Roadmap direkt hinter Prescott, ursprünglich sogar als 90-nm-Design, und Cedar Mill wurde nicht dazwischen geschoben, sondern hat Tejas ersetzt. Vielleicht verwechselt du den erschienenen Cedar Mill mit dem ebenfalls gecancelten (oder nie existierenden) Cedarmill – das war einigen Gerüchten zu Folgen eine geplante Dual-Core-Variante von Tejas, ähnlich wie man Prescott zu Smithfield verdoppelt hat. Allerdings war letzterer schon der erste Versuch, abweichend von den ursprünglichen Netburst-Plänen mehr Leistung bei gleichem/leicht niedrigerem Takt zu bieten. Zwischen einer Entscheidung "wir brauchen einen Dual-Tejas, um mehr Power bei vertretbarem Verbrauch zu bieten" (=> Cedarmill) und Kurswechsels "brauchen was anderes als Tejas, um den Verbrauch zu senken" (=> Cedar Mill) wird also kaum genug Zeit für echte Entwicklungsarbeit an ersterem gewesen sein. Stattdessen kamen halt Cedar Mill und Presler als letzte Netburst-Generation, bei der man den Fokus voll auf Sparsamkeit legte (und sogar auf einen zweiten Anlauf für den "ersten 4 GHz Prozessor" verzichtete, der damit wirklich leicht möglich gewesen wäre), ehe 9 Monate später Core 2 Duo übernahm. Im Prinzip waren die Pentium 4 600er wenig mehr als ein 65-nm-Pipecleaner, zur Marktverfügbarkeit wurden schon die ersten Conroe-Benchmarks geleakt, der ein weiteres halbes Jahr großen Rückstand auf AMD ersparte.

Die Pentium-M-Entwicklungslinie, die relativ schnell alle Pentium-III-Erben außer des 3-fach superskalaren Grundschemas über Board geworfen hat, war übrigens nicht überflüssig neben Netburst oder umgekehrt. Wie bereits geschrieben war der steigende Stromverbrauch der Pentium 4 größtenteils geplant. Intel ging davon aus, dass sich Desktop-User nicht daran stören, solange die Lautheit erträglich bleibt und die BTX-Boxed-Kühler wären mit 200 W oder sogar 300 W besser fertig geworden, als ihre Sockel-423-Pendants mit dem 72 W Williamette oder gar ihre 50-mm-Sockel-A-Zeitgenossen auf dem genauso heißen 1400C. Intel war aber von vorneherein klar, dass solche Chips in mobilen Notebooks keine Chance hätten. Anstatt diesen aussichtsreichen Markt an z.B. Transmeta zu verschenken, hat man dem Pentium 4M für Desktop-Replacements den auf lange Akkulaufzeiten optimierten Pentium M zur Seite gestellt. Als Desktop-Fallback war der nie geplant; es war gewissermaßen Glück im Unglück, dass die neuen Desktop-Wünsche recht nah an dem lagen, was man für den Mobile-Markt ohnehin erwartet und vorbereitet hatte.

Bzw. für AMD war es halt Pech. Deren CPU-Zukunft basierte mit Bulldozer nämlich ebenfalls auf einer Power-durch-Takt-Verbrauch-interessiert-eh-keinen-Architektur und statt mit den Gewinnen aus dem Opteron-, Athlon-XP- und -64-Erfolg ein eigenes Mobile-Design als dritten Angriff auf Intel zu finanzieren, kaufte man lieber ATI auf und legte sich mit Ex-Traumpartner Nvidia an. Eine Entscheidung, die ich bis heute für noch kurzsichtiger als den Grundgedanken von Netburst halte, aber zum Glück hat AMD ja dennoch überlebt – und nebenbei noch den am längsten amtierenden CPU-Takt-Rekordhalter hervorgebracht, auch wenn Bulldozer sein 10-GHz-Versprechen genauso aufgeben musste, wie Netburst. (Ich würde bis heute gerne wissen, was herauskäme, wenn man die ursprünglichen Architekturpläne der beiden einfach mal in in z.B. 45 oder 32 nm ausbelichtet und ihnen 500 W lässt. Also genau den Takt-Best-Case ausprobiert, der 2000 für 2010 erwartet wurde.)

Naja, nach dem Netburst-Debakel hat man gemerkt, dass man die Probleme, die überlange Pipelines mit sich bringen, mit mehr Takt und einer besseren Sprungvorhersage nicht kompensiert bekommt. Ich denke an diesem Punkt wird ein Umdenken von möglichst langen Pipelines und möglichst viel Takt zu einem Sweetspot der Pipelinelänge aus möglichem Takt und IPC stattgefunden haben, das bis heute anhält. Die Taktraten sind zu diesem Zeitpunkt stark gefallen, seitdem aber, wohl eben wegen feineren Herstellungsprozessen, wieder kontinuierlich gestiegen. Von daher denke ich schon, dass das maximal mögliche auch weiter steigen wird, auch wenn selbst das alltäglich mögliche an vielen Stellen zugunsten von höherer Effizienz limitiert wird.

Durch den Wechsel auf heterogene CPUs hat man heute neue Optimierungsmöglichkeiten. Solange nur ein Kerndesign verbaut wurde, musste das ein Kompromiss aus effizientem Durchsatz in der Breite für immer mehr parallel benötigte Rechenleistung sein und aus minimaler Latenz für nicht paralellisierbare Prozesse. Das könnte mittelfristig erneut für eine deutliche Absenkung des Taktpotentials sorgen: Kürzere Pipelines reduzieren den Durchsatz pro Takt massiv, weil weniger Verarbeitungsstufen gleichzeitig werkeln. Aber wenn die große Masse an Aufgaben ohnehin von z.B. einer E-Core-Armada übernommen wird, ist das kein Problem und man braucht nicht mehr zu versuchen, mit viel Aufwand und Ineffizienz eine (mittel-)lange Pipeline so hoch zu takten, dass Ergebnisse trotzdem mit akzeptabler Latenz vorliegen. Stattdessen könnte man gezielt Kerne mit extrem kurzen, wahnsinnig komplexen und deswegen schlecht taktbaren Architekturen bauen. Ein 5-Stufer bei 3 GHz liefert Ergebnisse schneller als ein 10-Stufer bei 6 GHz und in Gegenwart von 3-GHz-E-Clustern dürfte ersterer viel leichter im Verbrauch optimiert werden können. Das er nur halb so viel Durchsatz wie der 10-Stufer packt und möglicherweise genauso viel oder sogar mehr Transistoren benötigt, spielt dagegen eine immer kleinere Rolle, wenn man den Anteil von Caches an der Gesamtfläche bedenkt.
 
Zuletzt bearbeitet:
Ich bin zwar auch ein großer Fan von Haarspalterei, die Formulierung "zum Greifen nah" ist hier aber vollkommen richtig und erlaubt es, sich das schön bildhaft vorzustellen.

MfG
Raff
Äh, ne, Raff, da täuscht du dich.
Das bleibt vorerst reines, fiktives Wunschdenken.
Höchst instabile 9,1Ghz unter Extrembedingungen sind Meilen weg von 10Ghz.
"Greifbar nahe" wären 9,8 mit Prime95 und AVX an.
Also wenn der nächste Run mit einer noch besseren CPU das packen könnte.
Wir haben 20 Jahre von 4Ghz bis reale 6Ghz gebraucht.
Also schön den Ball flach halten. :-P
Ich werde die echten 10Ghz zum Kaufen wohl nie mehr zu Gesicht bekommen.
Das 3-Liter-Auto wurde uns auch in den 90ern versprochen, wo sind wir jetzt?
Meiner schluckt immer noch 7 statt 5,5 oder so, damals war ich bei 8. Wow.
Ach ja, die Einhaltung der Klimaziele und die Eindämmung des Klimawandels ist laut Regierung auch wieder "greifbar nahe". Habe ich heute noch gelesen. Ähnlich positive Einstellung. haha ^^ ;-)
 
10Ghz. Unvorstellbar. Mein erster PC hatte 8MHz und lief mit einem 8088er. Als dann später 166 und 200 MHz kamen waren das (gefühlt) brutale Taktraten. Meine Güte, wie hat sich die Technik weiter entwickelt. 🤔
 
Zurück