x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Forscher orakeln über das Ende klassischer Prozessoren. Auf der Webseite thenextplatform.com glaubt man nicht an die Zukunft der x86-Technologie, wie wir sie kennen. Stattdessen sollen Prozessoren spezialisiert und/oder die bekannte Technik erweitert werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wäre doch ein interessanter Ansatz: wenn man zum Beispiel noch zusätzlich 1-2 freie Sockel hätte, die man nach belieben mit Physik- oder Deep Learning Kernen bestücken könnte. So wäre man jederzeit flexibel.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Das weiß man doch schon seit 40-50 Jahren: Spezialisten sind wesentlich schneller als Generalisten, können jedoch, abseits ihrer Aufgabe, üblicherweise nichts. Wenn die CPU schnell genug und ihre Rechenleistung billig ist, dann verschwinden diese Spezialprozessoren, die Sound- und Netzwerkkarten, sowie die USB Controller haben massiv Rechenaufwand an die CPU abgegeben und sind dadurch billiger zu fertigen.

Dennoch gibt es auch heute noch einen Haufen Spezialprozessoren, die uns das Leben erleichtern, die GPU ist derjenige, bei dem man es sich bewußt ist, dass da noch ein spezieller Videoprozessor drauf ist, das wissen schon weniger. In der CPU ist auch noch ein Spezialprozessor für AES verbaut, damit ist mein i7 3770 über 5 mal so schnell, wie mit Software. Auch Smartphones und Tablets wären so nicht denkbar, wenn es nicht Spezialprozessoren gäbe, die dort z.B. 4K Videos ermöglichen würden.

Irgendwann wird der Zeitpunkt gekommen sein, an dem man den Fertigungsprozess nicht weiter verbessern kann. Eine Weile wird man sich noch mit Gigantomanie behelfen können, aber spätestens beim Quadsockelsystem, mit vier 500W CPUs und 8 fach SLI/CF, jeweils mit Dual GPU Karten je 800W wird es problematisch, schon alleine, weil sich nicht jeder 3 Phasen Wechselstrom ins Zockerzimmer legen möchte. Irgendwann wird man dann auf verstärkt Spezialprozessoren ausweichen müssen.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Kopfschüttel :-)

Der 486 DX4 100 Mhz war ja schon der letzte reine x86er Prozessor, weil ab dem Pentium hielt ja schon RISC Einzug damit war der Pentium ja schon kein reiner x86 Prozessor mehr :-)
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wenn ich mir diesen Bericht so durchlese und etwas in der Vergangenheit bohre fällt mir da direkt ein Name ein: Commodore Amiga
Agnus, Denise und Paula, dazu noch der 68000er.
Seinerzeit war diese Technik Maßgebend :-)
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wenn ich mir diesen Bericht so durchlese und etwas in der Vergangenheit bohre fällt mir da direkt ein Name ein: Commodore Amiga
Agnus, Denise und Paula, dazu noch der 68000er.
Seinerzeit war diese Technik Maßgebend :-)
Oder im Atari Jaguar "Tom&Jerry". :)
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Ich hatte damals zu meinem 386 bereits einen mathematischen CoPro. No new news :D
Das die x86 iwa den Weg alles Natürlichen gehen, ist doch klar. Forschen tun die Wissenschaftler ja schließlich schon lange genug.
Gruß T.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Da bin ich auch mal gespannt wie das weiter geht. Gab es alles schon. Von den Spezialprozessoren zu den x86 Allroundern und nun wieder Kommando zurück. Dann kommen vielleicht irgendwann mal Quantencomputer und danach Bio Computer oder eine Kombination davon :D
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Die sollen das bisherige erst einmal soweit schrumpfen daß sie CPU, GPU und möglichst viel HBM Speicher auf einen Sockel packen. Auf das Mobo noch ein paar der neuen Samsung 1 TB Chips im RAID draufgetackert und man braucht nix größeres mehr als das ITX Format.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

IBM zeigt 100 GHz-Transistoren aus Graphen - Hardware-Infos

Big Blue ( IBM und nicht Intel!) zeigt es, wie das geht. Das Material und der Takt sind das Problem. Was hier vorgeschlagen wird, sind irgendwelche Frickeleien um die letzten 20-30% aus Silizium zu holen, bevor sie unbedingt die Fabriken umstellen müssen, also eher die Symptome zu behandeln, als das Problem zu lösen (mehr Takt bei gleich bleibender Leistungaufnahme). Silizium erlaubt höchstens 16Ghz Takt (praktisch und nicht nur auf einem Transistor), was auf einer Schaltung wie CPU (zu komplex) bis zu höchstens 8-9Ghz bedeutet.

MIT unveils graphene chip, could lead to 1,000 Gigahertz processors - Geek.com

MIT- Forschungsergebnisse dazu.

1000Ghz Intel/AMD Prozzi, der sehr wenig verbraucht => Zukunft.
 
Zuletzt bearbeitet:
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wobei es solche speziellen Schaltkreise für AVX doch schon auf den CPUs gibt.

Die Software muss es nur nutzen.

Und genau da liegt das Problem, bei software. Für die Entwickler ist es ne Zeit und ne kostenfrage. Es wird immer aufwendiger. Also brauchen immer Zeit zum optimieren. Damit software besser wird. Aber irgendwann übersteigt es nun mal der Kosten und Nutzen Verhältnis. Auch Zeit kosten entstehen. Und weil die Käufer auch nicht unbedingt mitmachen, wage ich dies zu bezweifeln. Ich sehe hier nicht so viele Möglichkeiten. Vielleicht klappt ja mal mit qbot. Oder dreidiminsiolaer plasma Würfel. Es gibt bestimmt noch andere vernünftige Alternativen. Nur welche, das weiß ich selber noch nicht


Achja ganz vergessen was ich noch meinte. Avx ist nicht der heilige gral. Für softwäre Entwickler bedeutet avx mehr Kosten, Zeitaufwand und viel Arbeit. Und wie stark mehr Leistung ist und ob es am Ende auch wirklich zu 100 % funktioniert, ist zudem noch ne andere Frage.
 
Zuletzt bearbeitet:
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

was für ein Sinnloses gelabere.
Ja, x86 wird es nicht ewig geben, derzeit sind halt die Konsumer Desktop/Laptop CPUs x64 (und damit auch x86 kompatible). Der Grund ist einfach - damit läuft alles. Es sind eben General-Purpose-CPUs. Es werden ja auch immer mehr Erweiterungen inkludiert - SSE, AVX, AES, USB, PCIe, h.264 und noch viele mehr. Es wird wohl ewig so etwas wie x86 CPUs geben - um allgemeine Programme ausführen zu können ist eine CPU die allgemein gehalten ist einfach am besten. Für Spezialfälle setzt man dann eben Spezialhardware ein. Für zB Physiksimulationen kommen oft große Rechennetzwerke mit Steuer- und Kontrol-CPUs zum Einsatz, die Hauptrechenleistung kommt dann aber von Vektorprozessoren - die sind für diese Aufgaben dann schon mal hundertfach schneller und effizienter, dafür wären sie aber trotzdem langsam wenn man BF5 spielen wollte.


IBM zeigt 100 GHz-Transistoren aus Graphen - Hardware-Infos

Big Blue ( IBM und nicht Intel!) zeigt es, wie das geht.
Lustig - da direkt in dem Artikel noch etwas schönes weiter vwerlinkt ist -2 THz Intel und 3 .3 THz AMD Transistor XD Und es ist egal aus welchem Material sie hergestellt werden - hier geht es um die grundlegende Architektur.
Aber damit hast du wenigstens etwas geschafft - Erheiterung über das Unwissen.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

IBM zeigt 100 GHz-Transistoren aus Graphen - Hardware-Infos

Big Blue ( IBM und nicht Intel!) zeigt es, wie das geht. Das Material und der Takt sind das Problem. Was hier vorgeschlagen wird, sind irgendwelche Frickeleien um die letzten 20-30% aus Silizium zu holen, bevor sie unbedingt die Fabriken umstellen müssen, also eher die Symptome zu behandeln, als das Problem zu lösen (mehr Takt bei gleich bleibender Leistungaufnahme). Silizium erlaubt höchstens 16Ghz Takt (praktisch und nicht nur auf einem Transistor), was auf einer Schaltung wie CPU (zu komplex) bis zu höchstens 8-9Ghz bedeutet.

MIT unveils graphene chip, could lead to 1,000 Gigahertz processors - Geek.com

MIT- Forschungsergebnisse dazu.

1000Ghz Intel/AMD Prozzi, der sehr wenig verbraucht => Zukunft.

Ach, die Graphen-Sau wird alle paar Jahre durch's dorf getrieben. Wenn, dann sind Graphen-Transistoren noch in weiter, weiter ferne. Wenn sie überhaupt kommen.
  • Der Hauptgrund, warum Silizium nach wie vor die Halbleiterbranche dominiert: man weiß genau, wie man es einsetzt und verarbeitet. Die Fabriken sind genau dafür ausgelegt, Silizium zu verarbeiten und die Halbleiterindustrie hasst neue Materialien wie der Teufel das Weihwasser - aus diversen Gründen. Unter Anderem, weil eine etwaige Kontamination eine Fabrik lahmlegt oder komplett unbrauchbar macht. Und die Teile kosten halt mal ein paar Milliarden. Es ist ein unfairer Vergleich, aber kein anderes Bauteil kann dem Si-Transistor aktuell das Wasser reichen, was Logik angeht. Einzelne Bauteile ja, aber niemals größere Schaltungen. Kannst du vergessen. Der Vergleich ist unfair, da in kein anderes Bauteil so viel Know-How reingeflossen ist, wie in den Si-Transistor, aber die Halbleiterindustie ist konservativ. Solange man den Si-Transistor nutzen kann, so lange wird er auch verwendet. Aktuell gibt es keine ausgereifte Alternative, die technologisch so weit ist, dass man ~10 Mrd. Transistoren auf der Größe eines Fingernagels unterbringen kann, das ganze durch die Bank mit 1 GHz+ taktet und dann für ~100 € bis 1000 € anbieten kann. Gibt es nicht. Wenn es das gäbe und es Vorteile bringen würde, würde Intel das auch machen. Geforscht wird mit Sicherheit an neuen Ansätzen, aber praxistauglich sind die mit Sicherheit noch nicht.
  • Auch in einem Si-Transistor sind mittlerweile Transitfrequenzen von 40 GHz möglich. Das ist nicht das Problem. Der Grund, warum man seit fast 20 Jahren irgendwo zwischen 1 und 5 GHz rumzappelt ist, weil der Transistor bei heutiger Logik eben nicht mehr die Schaltfrequenz limitiert. Auch Transistoren mit Transitfreqenzen von mehreren 1000 GHz werden daran nichts ändern. Ein einziger Transistor ist in der Hinsicht etwas ganz anderes, als eine fertige Schaltung, die 8 Metal Layers über dem Chip hat.
  • Graphen ist ein tolles Material, keine Frage, es bezieht seine interessanten Eigenschaften aber daher, dass es meistens eben "im Vakuum" betrachtet wird. Wenn man eine in 1. Näherung unendlich ausgedehnte Graphen-Folie hat, dann hat die abartige Elektronenbeweglichkeiten. Sobald man die aber dotiert, auf Substrate legt und, ganz wichtig, Wachstumsdefekte hat, sieht das ganze wieder komplett anders aus. Außerdem sieht es wieder anders aus, wenn sie eben nicht mehr unendlich ausgedehnt sind. Und auf heutige Transistoren, welche eben nur noch eine Gate-Fläche von einigen 100 nm² haben, trifft das eben nicht mehr zu.
    Und selbst wenn das doch alles klappen sollte - am Ende hat man wieder das Problem mit der Beschaltung, sodass ein heutiger Graphen-Chip, selbst unter idealen Bedingungen, wieder bei ~5 GHz raus käme. Die Leiterbahnen sind halt immer noch Kupfer mit SiO2-Isolierung, und daran kennt man aktuell keine Lösung. Armchair-CNTs wären eine Möglichkeit, aber die bekommt man ja nicht im Ansatz geordnet gewachsen, geschweige denn auf einem Substrat aufgewachsen.
gRU?; cAPS
 
Zuletzt bearbeitet:
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Klar so ein 6x86 ist nunmal nicht mehr zeitgemäß...:P

Was gibt es denn da zu oraklen, her mit der Militärtechnik.

..genug Blödsinn für heute verzapft.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

  • Auch in einem Si-Transistor sind mittlerweile Transitfrequenzen von 40 GHz möglich. Das ist nicht das Problem. Der Grund, warum man seit fast 20 Jahren irgendwo zwischen 1 und 5 GHz rumzappelt ist, weil der Transistor bei heutiger Logik eben nicht mehr die Schaltfrequenz limitiert. Auch Transistoren mit Transitfreqenzen von mehreren 1000 GHz werden daran nichts ändern. Ein einziger Transistor ist in der Hinsicht etwas ganz anderes, als eine fertige Schaltung, die 8 Metal Layers über dem Chip hat.
Sorry, dass ich auf den Rest des Textes nicht eingehe, weil das allgemein bekannt ist. Was du mit "eben nicht mehr" ausführst, ist die Zustandsveränderung ohne metastabile Zustände hervorzurufen. Die Limitierungen dort sind Strombedarf, Hitze und kosmische Strahlung. Genau da setzt Graphen an: Der Verbrauch ist erheblich geringer, Hitzeentwicklung in Folge ebenso, kosmische Strahlung unverändert (habe noch keine Paper darüber gesehen). Nein, es wird nicht bei 5GHz stecken bleiben und die Fabs umstellen müssen sie sowieso.
was für ein Sinnloses gelabere.
Ja, x86 wird es nicht ewig geben, derzeit sind halt die Konsumer Desktop/Laptop CPUs x64 (und damit auch x86 kompatible). Der Grund ist einfach - damit läuft alles. Es sind eben General-Purpose-CPUs. Es werden ja auch immer mehr Erweiterungen inkludiert - SSE, AVX, AES, USB, PCIe, h.264 und noch viele mehr. Es wird wohl ewig so etwas wie x86 CPUs geben - um allgemeine Programme ausführen zu können ist eine CPU die allgemein gehalten ist einfach am besten. Für Spezialfälle setzt man dann eben Spezialhardware ein. Für zB Physiksimulationen kommen oft große Rechennetzwerke mit Steuer- und Kontrol-CPUs zum Einsatz, die Hauptrechenleistung kommt dann aber von Vektorprozessoren - die sind für diese Aufgaben dann schon mal hundertfach schneller und effizienter, dafür wären sie aber trotzdem langsam wenn man BF5 spielen wollte.



Lustig - da direkt in dem Artikel noch etwas schönes weiter vwerlinkt ist -2 THz Intel und 3 .3 THz AMD Transistor XD Und es ist egal aus welchem Material sie hergestellt werden - hier geht es um die grundlegende Architektur.
Aber damit hast du wenigstens etwas geschafft - Erheiterung über das Unwissen.
Artikel schrieb:
they have announced an experimental graphene chip which they claim could result in practical systems in the 500 to 1,000 gigahertz range.
Das hast du wohl verpasst
kaffee.gif
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wäre doch ein interessanter Ansatz: wenn man zum Beispiel noch zusätzlich 1-2 freie Sockel hätte, die man nach belieben mit Physik- oder Deep Learning Kernen bestücken könnte. So wäre man jederzeit flexibel.

Mit derartigen Strukturen haben Computer angefangen und sich nicht ohne Grund davon verabschiedet. Spezialisierte Chips sind zwar auf ihrem jeweiligen Gebiet schneller. Aber wenn sich das Gebiet ändert sind sie wertlos und es gibt viel weniger Nachfrage nach ihnen, weil nur wenige Leute Bedarf an einem derartigen Spezial-Chip haben. Dementsprechend steht weniger Budget zur Verfügung, die Entwicklung braucht länger und liefert weniger effiziente Ergebnisse. Mit Ausnahme des Grafikrenderings haben deswegen x86 und ARM in den letzten drei Jahrzehnten beinahe alle Marktbereiche erobert, die früher mit ASICs bedient wurden – und die GPUs sind mittlerweile ihrerseits Multi-Talente mit weitreichenden Fähigkeiten. Selbst Physik und Deep Learning werden eben mehrheitlich nicht von spezifischen Beschleunigern berechnet, obwohl es dies durchaus gab respektive gibt. Und selbst in Bereichen, in denen spezialisierte Schaltkreise unverzichtbar sind, werden diese immer häufiger in universell nutzbaren FPGAs nachgestellt – selbst die Ansteuerung von Displays ist heute bekanntermaßen keine reine ASIC-Domäne mehr.

Meiner Meinung nach sollte man in der Diskussion zumindest klar zwischen "x86" und "klassischen" respektive universell einsetzbaren Prozessoren unterscheiden. Ersteres wurde schon oft totgesagt und wird doch immer weiter aus Kompatibilitätsgründen mitgeschleift. Die Rechenleistung wird dabei schon lange nicht mehr mehrheitlich über die klassischen x86-Funktionen erbracht. Wer heute viel zu berechnen hat, nimmt SSE oder AVX; Xeon Phis stellen keinen klein Teil der Top500-Supercomputer-Rechenleistung bereit. Prozessoren mit diesen Erweiterungen sind aber immer noch universell einsetzbar und keine spezialisierten Schaltkreise und neue Erweiterungen für KI-Anforderungen werden bereits implementiert. Ob x86-Erweiterungen dabei das rennen machen oder zum Beispiel CUDA müssen wir abwarten. Aber auch eine GPU ist ganz klar kein spezialisierter Beschleuniger für neuronale Netzwerke, sondern offensichtlich universell einsetzbar.

Davon abgesehen gibt es wohl kaum etwas universelleres als neuronale Netze selbst. Wo früher Spezial-Chips für die Bildauswertung entwickelt wurden, übergibt man die Aufgabe heute einem universellen KI-Gerüst, dass auf universeller Hardware läuft. :-)


Spezialisierte CPUs? Kennt man das nicht auch schon von RISC Prozessoren?:)

RISC-Befehlssätze arbeiten zwar in der Theorie anders als x86, aber beide sind universell einsetzbar und nicht spezialisiert.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

RISC-Befehlssätze arbeiten zwar in der Theorie anders als x86, aber beide sind universell einsetzbar und nicht spezialisiert.
Achso ok. Dachte nur mal sowas in der Richtung gelesen zu haben weil ja die früheren Konsolen u.a. damit ausgestattet waren.
Auch Workstations von "Silicon Graphics". :)
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Äußerst selten habe ich so einen kompletten Blödsinn gelesen. Alle genannten Anzeichen (Stagnation der Leistungsverbesserung, Ausstieg von GloFo aus 7nm) sind eindeutig auf marktstrategische Gründe zurückzuführen und nicht darauf, dass die x86-Architektur bald tot wäre.

Die meisten Programme lasten die aktuellen Prozessoren nicht ausreichend aus. Und selbst dann schlummert meistens in der Grafikkarte noch eine unglaubliche Rechenleistung (gerade auch im Bezug auf die Radeon VII), die genutzt werden will. Dass Server mit Speziellen CoProzessoren rechnen, ist schon längst Alltag - häufig wird hier die Leistung von Grafikkarten sehr sinnvoll eingesetzt.

Es wird einen Wandel geben, bei dem mehr Prozessorarchitekturen auf den Markt drängen und Programme auch für mehr Architekturen verfügbar sein werden, weil auch die eingesetzten Programmiersprachen immer plattformunabhängiger sind und weil die x86-Architektur bei beiden Herstellern das Problem mit sich bringt, dass man einen Chip mit auf der CPU hat, dessen Funktionen man nicht genau kennt. Das alles wird ein Grund dafür sein, dass der PowerPC und ARM in den Markt reindrängen können, wenn auch nur langsam.

Erst Quantencomputer könnten die x86-Architektur als Alltagsrechner ablösen. Wenn die Leistung extrem steigt, werden die Leute ihren x86-Rechner freiwillig austauschen. Aber mit Zen 2 sehen wir erst mal sehr viele Kerne und eine extreme Leistungssteigerung zu niedrigen Preisen - insofern kann die x86-Architektur sich auch selbst Konkurrenz machen und benötigt noch keine Quantencomputer...
 
Zurück