Derzeit im Trend ist die Aussage, dass die aufwendigeren Grafikprozessoren besser als die 'tumben' CPUs funktionieren und mehr können und daher in naher Zukunft möglicherweise die CPU ablösen werden.
Sagt wer?
Was ist an einer universal einsetzbaren CPU denn "tumb"?
Zusätzlich werden sie dabei auch die Physikberechnung auf neue (nämlich ihre eigenen) Beine stellen.
Was Prozessoren schon länger auf den Konsolen (Xbox 360 -> Xenon, PS3 -> "Cell") machen. Zwar nicht so leistungsfähig wie der PhysX-Chip aber immerhin.
Wird die GPU zukünftig die Aufgaben einer CPU mit übernehmen, oder ist es besser beide getrennt zu halten? ...
Das hängt vom Einsatzgebiet ab.
Es ist unsinnig in einem Embedded-Computer einen x86, ARM oder MIPS Prozessor ersetzen zu wollen, gegenüber einer aufwändigen GPU, deren Untereineiten Bilder filtern, glätten. Das sind alles Transistoren, die zusätzlich elektrische Leistung verbraten.
Da könnte das Gegenbeispiel eines sparsamen Intel-Prozessor "Silverthorne" einen Meilenstein für x86-Prozessoren setzen ... und
auch in Zukunft noch weiter skalieren.
Auch jetzt noch gibt es Alternativen zum Einsatz von
GPUs zum Numbercrunchen. Das sind zum Beispiel die NEC-Vektorprozessoren. Diese Vektorprozessoren sind zwar in vielem vergleichbar hochparallel ausgelegt ... aber sie haben nicht den Transistorenballast, die eine GPU für ihren speziellen Zweck -> Computergrafik braucht.
Die NEC-Vektorprozessoren haben zudem eine unglaublich hohe Speicherbandbreite mit extrem viel RAM pro Knoten bei kurzer Latenzzeit zu bieten. Hier punkten die GPUs nur noch mit ihren vergleichsweise günstigen Hardwarepreis.
Auf der anderen Seite sind dann
spezielle Multicores wie der Tilera, oder auch die Klassiker von
Clearspeed. Massiv parallele CPU-Architekturen, die sich in mancher Hinsicht auch mit
DSPs vergleichen lassen.
Und zusätzlich haben wir da noch die Gattung der
FPGAs. Diese können sehr effizient (wenige) Algorithmen sehr schnell in Hardware berechnen, die sonst per CPU 10x, 20x oder gar 200x langsamer sind. Das können aktuelle GPUs zwar auch ... aber mit wesentlich mehr Transistoren und damit auch deutlich höheren Strombedarf.
Eines darf man nicht übersehen bei GPUs. Sie sind heute unglaublich komplex und alles andere als schlank. Sobald sie nicht mehr mit ihrer massiv parallel ausgerichteter Architektur glänzen können, da sind um so mehr andere Alternativen sinnvoll.
Erschwerend kommt hinzu, dass der
Instruktionssatz bei GPUs nicht wirklich offen liegt. Auch hier können Prozessoren und etablierte Traditionsprodukte (siehe Beispiele) punkten.
Die Frage: "Besser Skalieren" muss auch berücksichtigen, für welchen Einsatzbereich denn diese Halbleiter eingesetzt werden. Und da sind auch in Zukunft effektive genügsame (-> Strombedarf) Alternativen zu GPUs da.
Eine CPU-Stärke ist zudem auch noch zu berücksichtigen. Sie können in vielen Einzeldisziplinen jeweils immer von spezialisierter Logik geschlagen werden.
Ist der CPU-Einsatzzweck aber universal, haben alle CPU-Schmieden immer wieder die Micro-Architekturen mit Streaming-Einheiten, DSP-Funktionalität, Gleitkomma-Ergänzungen, Kryptologie-Einheiten (Power6, z6/
z10, Niagara 2,
Rock) etc. so weit aufgebohrt, dass sie in Teilbereichen ihren ASIC-, FPGA-, DSP-Kollegen gehörig auf die Pelle gerückt sind.
Und das Ende ist noch nicht absehbar. Der CPU-Trend geht zur Zeit in Richtung Hybride-Micro-Architekturen ("Cell", "Fusion"). Da wächst dann das zusammen, was bislang getrennt war ...
mitunter auch Schaltlogik von GPUs ...
MFG Bobo(2008 )