PCGH.de: PCGH-Retro: Intels 10-Gigahertz-Irrtum

Zu Zeiten des Pentium 4 entschied ich mich erstmalig für eine AMD CPU. Es war der Athlon XP 2200+ seinerzeit, der später durch den für mich sehr guten XP 2500+ Barton abgelöst wurde :hail:. Somit war mein letzter Intel Prozessor ein Pentium III mit 667 Mhz. und mit verlaub, der war auch schon Mist.
 
Zuletzt bearbeitet:
Man man hier sind ja einige P4 Liebhaber untwerwegs ^^

Es ist wohl sehr schwer loszulassen....

Ich bin froh das wir Multicore haben, ich glaube auch das der P4 10Ghz schafft,
doch dann denk ich immer an Elektromigration, also schön du hast einen P4 mit 10 Ghz aber für wie lange???

Cya Yakup
 
Ich gurkte erst mit einem netten P2 450MHz rum.. mit ner TI4200 drinne.. hach Wolfenstein.. ich hab dich geliebt :D

Mein Dad hatte nen P3 667MHz. P4 war dan angebrochen und mein Bruder und ich entschieden uns dan aus Kostengründen für den Athlon XP 2000+.. Der würde später durch nen 2500+@3200+ ersetzt. Und da war dan auch schon die P4 Serie vorbei und ich entschied mich für meinen betagten E6300 (boa war ich aus haus, als ich son vergleich mit dem 3200+ machte) xD

Mein Coison hatte aber ne Zeit lang nen P4 2.4GHz den wir promt auf die 3GHz brachten... kurz darauf wurde die CPU geklaut..lol
 
, was Intels CEO Andrew Grove am 18. November 1996 bei seiner Rede auf der Comdex in Las Vegas verspricht: In 15 Jahren, also im Jahre 2011, sollen Intels schnellste Prozessoren mit 10 Gigahertz arbeiten und aus einer Milliarde Transistoren bestehen.

Doch bei dieser Prognose bleibt es nicht - Intel wird sogar noch optimistischer: Sechs Jahre später, auf dem IDF in Tokyo, verspricht Intels Cheftechniker Pat Gelsinger, Prozessoren würden schon im Jahre 2010 auf 15 GHz kommen. Die Pentium-4-Architektur sollte für immerhin 10 GHz gut sein, der kommende Prescott bereits auf 5 GHz kommen, sein Nachfolger auf 6 GHz; der 15-GHz-Chip hingegen sollte auf einer neuen Architektur basieren.
Wer weiß, wo die CPUs jetzt werkeln ... F 302, BC 304 ;)
 
Tja, der p3 667Mhz (kp, welche Produktbezeichnung) scheint ja recht häfig vertreten gewesen zu sein... ich hatte auch einen ^^ im Damals noch guten Aldi-rechner ...
Dann kam der AMD Athlon XP 1800+, der war überragend, und hat sogar in gefühlter Lesitung meinem anschließendem P4 mit 3,4 ghz und HT das Wasser reichen können...
Der P4 war mist, dafür der Sprung zum Core 2 umso größer!
 
Könnte Intel net mal aus Spaß (wie beim Atom^^) alte Architekturen auf moderne Fertigungsprozesse schrumpfen und an Übertakter verteilen?^^ Vllt schafft ja ein 22nm Netburst die 10GHz^^
 
Wenn ein 90 nm Netburst 7 GHz schafft und ein 65 nm 8 GHz, dann würde ich von einem 22er aber mindestens 13-15 verlangen. Wir haben ja auch nicht mehr 2010 ;)
 
Wir werdens wohl nie erfahren^^

Aber wer weiß wie erst die Visheras bei modernen Fertigungsprozessen abgehn werden... *hust*^^
 
naja 4 Kerne mit je 3 Ghz sind 12 Ghz...... und bis 2010 werdens auch noch 15....... lol
und AMD brachte 2013 den Centurion mit 5 Ghz, bei Bulldozer-Architektur wären das ja "8" Kerne, also 40 Ghz...
Das hätte man Marketingtechnisch viel besser ausschlachten müssen :D

(und ja, mir ist bewusst, dass sich das nicht so umrechnen lässt)
 
Zuletzt bearbeitet:
Oh, ein Retrothread :o

Angefangen hab ich mit nem AMD 486er mit 40MHz(!) der dann irgendwann durch einen Pentium 2 400 angelöst wurde(beide PCs bekam ich von meinem Vater der sich jeweils einen neuen holte, entsprechend veraltet war die Hardware schon als ich den PC bekam). Der erste neue PC hatte dann einen sehr guten Athlon XP 2800+ drin der dann durch einen AMD 64 4000 ersetzt wurde. Als dann die Multicore-Zeit anbrach hab ich schnell gemerkt das ein Singlecore bei vielen Spielen schnell überfordert war, irgendwie lief alles gehemmt. Sein Nachfolger wurde dann ein Intel Core 2 Duo E8400 der vor einem Jahr durch einen Core i5-3470 ersetzt wurde. Wenn es die ersten 8-Cores mit >3GHz und genug Cache zu einem vertretbaren Preis gibt, rüste ich wieder auf. Wir sehen uns dann in 3 Jahren oder so ^^
 
und AMD brachte 2013 den Centurion mit 5 Ghz, bei Bulldozer-Architektur wären das ja "8" Kerne, also 40 Ghz...
Das hätte man Marketingtechnisch viel besser ausschlachten müssen :D

(und ja, mir ist bewusst, dass sich das nicht so umrechnen lässt)

Ich überlege gerade, an sich könnte man doch dies sogar umrechnen?
Falls ein Programm alle Kerne perfekt nutzt und 100% auslastet (Renderprogramme), dann steigt ja Leistung linear mit jedem zusätzlichen Kern. Auch steigt die Leistung linear bei Taktanhebung. Wenn doppelt so oft in der Sekunde geschalten wird, können auch doppelt soviele Instruktionen durchgeführt werden, daher sollte ein 4x4Ghz Prozessor doch genauso schnell sein, wie ein 1x16Ghz Prozessor. Natürlich nur unter der Annahme einer idealen Auslastung, aber Werbetechnisch könnte man dies doch auschlachten? ^^
(natürlich ist Ghz-Wettstreit eh vorbei, daher würde das nichts bringen, aber naja)
 
Artikel schrieb:
die Taktfrequenz als Gradmesser der Performance hat ausgedient
Das hindert Amd heutzutage nicht mit einem 5GHz-Heizkörper anzukommen, der natürlich Acht Kerne hat *Hust-Grins*
Der die Kunden zugegebenermaßen erfolgreich täuscht, indem sie glauben das sie allen Intel Gegenstücken überlegen sind :fresse:
Wer nicht auf den Kopf gefallen ist merkt recht schnell, das Amd einige Generationen denen von Intel hinterherhinkt.
Also was lernen wir daraus, Taktfrequenz als Gradmesser ist schon lange überholt, aber bei einigen Firmen und Käufern aber noch lange nicht, die große Zahlen brauchen um sich größer zu machen ;)
Marketing hat gegenüber der Vernunft gesiegt, zumindest bei manchen.
 
Auch steigt die Leistung linear bei Taktanhebung. Wenn doppelt so oft in der Sekunde geschalten wird, können auch doppelt soviele Instruktionen durchgeführt werden, daher sollte ein 4x4Ghz Prozessor doch genauso schnell sein, wie ein 1x16Ghz Prozessor.

Nein tut er eben nicht. Die Speicherlatenz ist ein absolute Größe (in ns) und die verbessert sich eben nicht.
Selbst der Cache ist wesentlich langsamer als der CPU-Takt (braucht ca. 10-15 TaktÄquivalente zum Laden eines "Treffers") und auch das Verschieben eines Ergebnisregisters in den ALU-Eingang braucht 2-3 Takte.

Aber die Werbefuzzis haben eben nie Rechnerachitektur studiert, sondern das (Un)Vermögen des menschlichen Geistes komplexe Dinge zu erfassen und in schillernden Bildern zu "abstrahieren" ;) . Darin sind sie aber gut.
 
Ja, nach 12 Jahren kann man das dann auch endlich zugeben. Damals habt ihr immer nach Ausreden gesucht, warum die lahmen überteuerten NV-Modelle doch die richtige Wahl seien!

Najo: "Nur wo Einsicht ist, beginnt die bleibende Besserung." (Georg Sticker)
Aber ich versteh euch auch, denn: "Zuviel Einsehen schadet dem Ansehen." (E.H.Bellerman)
 
auf PCGH-Nachfrage, dass beim Bulldozer in Form des Orochi-Chips nicht etwa 2 Milliarden sondern "nur" etwa 1.200 Millionen der kleinen Schaltkreise vorhanden sind.

Nicht zu 100% richtig. Weil ein Schaltkreis aus mehreren Bauteilen besteht ... richtig sollte es lauten "sondern "nur" etwa 1.200 Millionen der kleinen Transistoren vorhanden sind.

:huh:
 
ist die Transistorenzahl, von AMD mit rund 2 Milliarden angegeben. Doch wie es scheint, hatte man sich da etwas verzählt. Nachdem Intel bereits die Schaltungsanzahl der Sandy-Bridge-Prozessoren von 995 Mio. auf 1,16 Mrd. korrigierte,
Die paar Transistoren ... .
Man kann sich ja mal verzählen, bei den viele Teilen. :D
Die Strichliste war ziemlich lang.

Schade, daß AMD das Marketing vernachlässigt.
Schon beim Athlon hätte ich Thors Hammer rausgeholt und Intel geprügelt.

Wenn die Entwicklung so weiter geht und Intel noch was in der pipiline hat, wird es wieder das dunkle Zeitalter der CPUs geben.
 
Hach ja. Gerne erinnere ich mich an die Zeiten zurück, als AMD mit dem K6 erstmals Intel das fürchten lehrte. Auch IBM mit dem Cyrix hat damals noch mitgespielt. Wir alle können nur innigst darauf bauen, dass AMD sich nicht dauerhaft geschlagen gibt. Sonst erleben wir, wie damals ja auch schon beinahe, neben stetig steigenden Preisen auch noch Stillstand in der Entwicklung.

Gut - dann müsste man sich auch nicht mehr wünschen manche Maulhelden würden die Bezeichnung "Integer-Core" mal in ihrer Bedeutung erfassen.

Was mich auch immer wieder verwundert, dass gerade Spieler sich bedenklich wenig darüber aufregen, dass sie geradezu gezwungen werden sollen, eine nicht benötigte Grafikeinheit zu bezahlen. Den preispolitischen "Fehler", den Intel mit dem Xeon E3 gemacht hat indem es dem Kunden diese Wahl überlassen hat, haben sie ja inzwischen "ausgebügelt".
 
Zurück