IBM mit 500-GHz-Chip und British Telecom will Patentanspruch auf Hyperlinks (PCGH Retro, 20. Juni)

Wieso steht eigentlich nicht der Redakteur im Impressum sondern nur PCGH?

500GHz ... und da bekommt es Intel nicht gebacken die 4GHz Mauer zu durchbrechen :D Und "nur" 350GHz bei Zimmertemperatur ... was für ein Gigantisches Throtteln :what: Gibt es dazu mehr Infos? TDP/ vCore/ ... oder so wäre ganz Interessant.

Das sind keine echten Prozessoren, die sind alles andere als praxistauglich.
Diese Chips bestehen nur aus eine handvoll Transistoren und können nur ein paar Befehle verarbeiten.
Mehr eine Machbarkeitsstudie....
 
Das sind keine echten Prozessoren, die sind alles andere als praxistauglich.
Diese Chips bestehen nur aus eine handvoll Transistoren und können nur ein paar Befehle verarbeiten.
Mehr eine Machbarkeitsstudie....


genau genommen war es sogar nur 1 Transistor
Der EINZEL Transistor wurde mit einer 500GHz Sinuswelle angesteuert und hat dabei gerade noch geschaltet.
 
Zuletzt bearbeitet:
350 GHz, hm... ich denke mal die TPD sprengt jeden rahmen.
Ich denke werde mir das Thema mit der Cpu mal ein bisschen nachlesen.
 
Joaa ich bestell mir dann mal einen Prozessor mit 350 GHz und ein AKW direkt mal dazu, ich schätze mal das ich so ca 1. Milliarde Stromkosten im Jahr haben werde, dafür habe ich aber unglaubliche 1. Million FPS in jedem Spiel wenn nicht sogar noch mehr ;)
Und ich dachte Intel hatte die besten Prozessoren :O
 
Es handelt sich hierbei um einen einzelnen Transistor... also stellt euch einfach vor es ist 1 Lichtschalter der es schafft konstant 350.000.000.000 in der Sekunde an und wieder aus geschaltet zu werden.
Da ein 4770k 1.400.000.000 Transistoren hat die mit 3,5Ghz arbeiten ist er also 14 Millionen mal schneller als der IBM Chip ^^...naaatürlich ganz theoretisch gesehen. Trotzdem ist es ein netter Blick in die Zukunft. ;)
 
Es handelt sich hierbei um einen einzelnen Transistor... also stellt euch einfach vor es ist 1 Lichtschalter der es schafft konstant 350.000.000.000 in der Sekunde an und wieder aus geschaltet zu werden.
Da ein 4770k 1.400.000.000 Transistoren hat die mit 3,5Ghz arbeiten ist er also 14 Millionen mal schneller als der IBM Chip ^^...naaatürlich ganz theoretisch gesehen. Trotzdem ist es ein netter Blick in die Zukunft. ;)

Ich würd nen einzelnen Transistor nicht als Chip bezeichnen...
 
gabs nicht mal eine Aussage, dass bei 4Ghz Scluss ist? Oder hab ich das geträumt?

Nö, nur der Pentium 4 war bei 4 GHz am Ende. Generell gilt halt: je mehr Transistoren, desto geringer die Grenzfrequenz der Schaltung. Einen einzelnen Hetero-Bipolartransistor bekommt man gut mit solchen Frequenzen noch anständig geschaltet. Bei 4 Milliarden MOSFETs sieht die Geschichte schon anders aus. Schon alleine deshalb, weil ein MOSFET schon deutlisch früher in Sättigung geht. Zweistellige Gigahertz gehen theoretisch aber auch da.
Die IBM-Schaltung ist halt mit Sicherheit keine CPU, sondern sowas wie ein digitaler Entscheider oder so. Für die paar Transistoren kann man dann auch HBJTs nehmen, bei CPUs könnte man das aufgrund der Leistungsaufnahme schon vergessen. Keiner kann eine CPU mit 5 kW versorgen und ähnliche Mengen an Wärme abführen.
gRU?; cAPS
 
Nö, nur der Pentium 4 war bei 4 GHz am Ende. Generell gilt halt: je mehr Transistoren, desto geringer die Grenzfrequenz der Schaltung.

Ich würde das eher so formulieren: Je länger der kritische Pfad zum Durchschalten braucht, desto niedriger die mögliche Taktfrequenz.

Wenn einzelne Transistoren nicht so schnell schalten könnten, hätten wir wohl in der Netzwerktechnik schon lange ein Problem.

Das ist eigentlich auch genau der Grund, warum Netburst-CPUs so hoch takten konnten. Eine lange Pipeline, was im Endeffekt nichts heißt, als mehr, kürzere Einzelschritte mit Puffern dazwischen, so dass die kritischen Pfade kurz bleiben.

Lange, oder besser, vielstufige Pipelines erhöhen die mögliche Taktfrequenz, haben aber massive Nachteile, wenn wegen einer falschen Branch-Prediction wieder aufgeräumt werden muss. Solange die immer richtig liegt, ist alles super. Deswegen war Intel auch so hinterher, das gut hinzukriegen und sie haben da zu der Zeit auch große Fortschritte gemacht. Und immer, wenn stumpf gerechnet wurde, waren die Netburst-CPUs auch eigentlich recht fix. Aber sobald oft bedingte Sprünge vorkamen, sind sie eingebrochen.

Hat halt eine Weile gedauert, bis man eingesehen hat, dass man die Sprungvorhersage nicht gut genug hinkriegt, um die hohen Zeitverluste beim Versagen ausgleichen zu können. Außerdem ist man vermutlich noch physikalisch an Grenzen gestoßen, die man bis dahin noch nicht erahnt hatte. Ideal gerechnet wären die 10 GHz wohl eher kein Problem gewesen: ideal wächst die mögliche Taktfrequenz prinzipiell linear mit der Anzahl der Stufen der Pipeline. Da kann man mal sehen wie weit ideal und reell auseinanderliegen können.
 
gabs nicht mal eine Aussage, dass bei 4Ghz Scluss ist? Oder hab ich das geträumt?

Das wird (auch in diesem Forum) ständig wiederholt wie ein Mantra. Das macht es halt nicht wahrer.
Auch bei 10 Ghz ist nicht Schluss. Kommt aber auf die Komplexität der Architektur und auf den Prozess drauf an.
 
Den 815er Chipsatz habe ich mit einem 1,4 GHz in meinem Windows 2000/Windows 98 SE Retro PC. Mit SCSI Laufwerken und allem, was damals Spaß machte.
Bei Verwendung von W2K und W98SE sind die 512mb Limitierung nicht spürbar, keiner braucht da mehr.
Ein aktuelles Debian 12 läuft da auch noch drauf, alles nicht so verschwenderisch wie heute gängig.
Den 815er Chipsatz habe ich mit einem 1,4 GHz in meinem Windows 2000/Windows 98 SE Retro PC. Mit SCSI Laufwerken und allem, was damals Spaß machte.
Bei Verwendung von W2K und W98SE sind die 512mb Limitierung nicht spürbar, keiner braucht da mehr.
Ein aktuelles Debian 12 läuft da auch noch drauf, alles nicht so verschwenderisch wie heute gängig.
 
Zurück