Warum ist der GPU-Takt nicht auf CPU-Takt Niveau?

SilentKilla

BIOS-Overclocker(in)
Guten Abend Community,

komischerweise ist mir grad beim Stargate gucken und bei einem gemütlichen Glas Barcadi-Cola, die im Titel des Threads gestellte Frage aufgekommen.

CPU als auch GPU befinden sich mittlerweile in einem gleich feinen Fertigungsprozess. Die Art der MOSFET-Transistoren (metal-oxid semiconductor field effect transistor) dürfte sich im Grundaufbau nicht groß unterscheiden. Zumindest denk ich mir das als angehender E-Technik Ingenieur im 5. Trimester.

Lediglich die Vernetzung der Transistoren und zugehörigen Bauteile bestimmen doch die Funktion eines Mikrochips.

Der Aufbau eines Transistors allerdings gibt seine Schaltzeiten vor. Wie ich aus einer Vorlesung mitgenommen habe, müssen die Chiphersteller zu allerlei Tricks greifen, um brauchbare immer schneller werden Transistoren zu bauen.

Ich kann mir kaum vorstellen, dass sich die Transistoren von CPU und GPU gundlegend unterscheiden. Zumal die GPU mehr und mehr zu einer CPU heranwächst. Wobei sie immernoch sehr spezialisiert ist.

Auch die Anzahl der Transistoren ist in etwa gleich.

Nun zu meiner Frage: stimmen meine Annahmen, dann find ich es schon eigenartig, dass sich die Taktfrquenzen derart unterscheiden.

Gibt es unter euch vllt einen Elektroingenieur, der da besser Bescheid weiß, als ich?

mfg
SilentKilla
 
Du siehst ja dass es nicht nötig ist GPUs höher zu takten da sie so schon genug Leistung haben also werden sie auch nicht großartig für hohe Taktraten frisiert abgesehen von der irrsinnig hohen Abwärme. Aber du siehst auch das sehr viel von der Architektur abhängt daran dass sich Intel Prozessoren problemlos bis an die 4GHz takten lassen (das schaffen auch die 65nm!) und AMD Prozessoren schon bei 3,2GHz (ich mein auch hier die 65nm) schlapp machen und die Phenoms generell nicht höher als 2,6GHz wollen!

Hoffe das beantwortet deine Frage!
 
eine GPU ist darauf ausgelegt viele Berechnungen parallel auszuführen. Die CPU berechnet eher sequentiell. Eine GPU erzielt die Leistung durch Parallelisierung und nicht nur durch Rechengeschwindigkeit. Hab keine Ahnung ob meine Ausführungen richtig sind....^^

gruß Max
 
hat etwas mit der nutzung zu tun, soweit ist das richtig....

eine gpu muss im grundee genommen hauptsächlich gleitkomma rechnungen durchführen und zwar möglichst schnell, effektiv und genau. dadurch kommt sie mit weniger takt und vor allem wenigen befehlssätzen aus.

eine cpu muss im grunde genommen alles mögliche rechnen können und zwar am besten gleichzeitig. darum braucht die cpu wesentlich mehr takt und unmengen an befehlssätzen....

natürlich lässt sich die effizienz einer gpu auch mit mehr takt steigern, dazu sind wir ja im oc-forum^^, allerdings gibts da ein paar probleme bei:
-Temperatur...
-stromversorgung
-platz für letztere
-bandbreite des systembusses(bzw des pci-x busses)

diese probleme lassen sich nur teilweise lösen, oder wie willst du zb einen ifx-14 auf ne graka bekommen um die wärme abzuführen?
die stromversorgung is auch ne so ne sache, da du ja eine bestimmte menge leiterbahnen aufs pcb bekommen musst.

naja und der systembus...was bringt es, eine graka auf das niveau einer cpu (vom takt her) zu heben, wenn sie nicht schnell genug mit daten versorgt werden könnte...

was mich nur wundert, ist warum gpus noch nicht als dualcore gefertigt werden, was ja die folgestufe von cf und sli wäre....nur effizienter...

mfg
 
was mich nur wundert, ist warum gpus noch nicht als dualcore gefertigt werden, was ja die folgestufe von cf und sli wäre....nur effizienter...

mfg


Erstmal vielen Dank für den interessanten Post! :)

@ Dual GPUs:

Wie du schon sagst, GPUs berechnen parallel, also sind genau genommen ja schon "mehrere Recheneinheiten" auf einem Chip.
(Zb. die 320 Steamprozessoren bzw. die Shader)

Warum man mehrere GPUs an sich nicht auf einen Chip bringt, hängt glaube ich mit der Komplexität so einer GPU zusammen.
 
OK, und was ist mit dem Shader-Takt der ist ja bei meiner 8800GT schon bei 1700Mhz ist. Dieser errechnet sich bei Nvida durch GPU-Takt *2,5. Sind es wirklich 1700Mhz oder ist das nur eine Rechnung wie FSB 1600 = 400Mhz?
 
CPUs haben als ganzes längere Produktzyklen - es kommen mit der Zeit einfach überarbeitete Versionen desselben Floorplans heraus (sog. Steppings), welche dann durch Optimierung bessere Schaltgeschwindigkeiten erlauben. Dadurch und durch die geringere Parallelität können CPUs mit einem hohen Anteil an sogenannten Full Custom Transistoren geschaffen werden. Bei diesen wird zu großen Teilen manuell eine optimale Platzierung der einzelnen Schaltungen erreicht. Natürlich wird auch hier der riesige Cache bsw. dupliziert, aber die Recheneinheiten, Load/Store usw. sind schon "handgemacht".

GPUs haben eine viel kürzere Lebensdauer und einen massiv höhere Parallelität. Hier können und müssen die Designer mit vorgefertigten Blöcken (AND-Gate, Auffangregister etc.) arbeiten, um den Designzyklus einhalten zu können. Zusätzlich sind diese "Bausteine" (Bibliotheken, Libaries, Libs) meist auch noch an einen bestimmten Prozess gebunden (meist bei TSMC). Da gibt's dann optische Shrinks, bei denen diese Libs gleich bleiben (von 65 auf 55nm bsw.) und neue sog. Full Nodes (von 90 auf 65nm), bei denen sie sich ändern. Außerdem gibt's noch das Problem, dass die vielen parallelen Einheiten auch die Datenwege untereinander benötigen. Je mehr Einheiten, desto schwieriger wird's, alle untereinander optimal zu verbinden. Da gibt's dann Probleme, einen schnellen, sog. kritischen Pfad hinzubekommen. Dieser gibt die maximale Signallaufzeit auf dem Chip an und begrenzt die Taktfrequenz.


Ein gutes Beispiel sind Nvidias neueste Chips: Hier haben die Designer bei den ALUs zu einen hohen Anteil an Custom Logic gegriffen und können dementsprechend diese Teile des Chips vergleichsweise hoch takten (und kommen schon langsam in CPU-Bereiche), während der Rest noch immer mit vergleichsweise langsamer Taktung arbeitet.
 
Zuletzt bearbeitet:
@Captain Future,

ich versteh wirklich nur Bahnhof :(
selbst wenn ich alles googeln wuerde kaeme ich auf keinen Gruenen Zweig DAS zu verstehen.

bestimmt hast Du recht, nur...man komm ich mir dumm vor!
 
Aber ein Problem bleibt auch die Stromversorgung. ein GPU kann mit nicht so viel Strom wie ein CPU versorgt werden und außerdem ist die Leistung, zum Beispiel, eines RV600 über dreimal so hoch wie bei einem CPU.
 
Aber ein Problem bleibt auch die Stromversorgung. ein GPU kann mit nicht so viel Strom wie ein CPU versorgt werden und außerdem ist die Leistung, zum Beispiel, eines RV600 über dreimal so hoch wie bei einem CPU.
Bislang kann die Grafikkarte bis zu 300 Watt bekommen (wobei ich auch 375 Watt durchaus möglich sehe mit 2x8-PCIe-Connector). Zu dem, was eine CPU bekommt und schluckt ist da noch etwas Luft.

Was beim Vergleich unterschiedlicher Architekturen die "Leistung" (falls du nicht die Wärmeverlustleistung meinst - was aber genau deinem ersten Satz widersprechen würde...) mit dem Takt zu tun hat, ist mir schleierhaft. Spätestens seit dem Pentium 4 sollte doch jeder wissen, dass es nicht auf die Taktrate ankommt, sondern auf die Kombination von IPC, Takt und Wärmeverlustleistung.
 
Zuletzt bearbeitet:
Zurück