Wieso gibts sowas eig nicht?

Crenshaw

Software-Overclocker(in)
Ja hallo Forum,

Ich hab ne eher merkwürdige Frage:

Wieso gibt es eigentlich keine mehrkernigen Grafikkarten? :D Ich stell mir das irgendwie lustig vor, so ne Dualcore Grafikkarte zu haben ;)

Geht das einfach Aufgrund der Architektur nicht oder ist einfach keiner genial genug darauf zu kommen :ugly:

MfG

Crenshaw
 
Crenshaw schrieb:
Ja hallo Forum,

Ich hab ne eher merkwürdige Frage:

Wieso gibt es eigentlich keine mehrkernigen Grafikkarten? :D Ich stell mir das irgendwie lustig vor, so ne Dualcore Grafikkarte zu haben ;)

Geht das einfach Aufgrund der Architektur nicht oder ist einfach keiner genial genug darauf zu kommen :ugly:

MfG

Crenshaw

Das ist Afaik gar nicht nötig, da Grafikkarten mehr Rechenleistung haben als manche CPU :schief:
 
Wär trotzdm geil! :D

@JackOnell: Was meinst du damit? Dual Gpu Grafikkarten oder wie? Kenn kein Hyperthreading o.Ä. für Gpus :D

@quanti Echt? Das sind doch eher "Rechenabteilungen" die eben alle unterschiedliche feste Aufgaben haben?
 
Wär trotzdm geil! :D

@JackOnell: Was meinst du damit? Dual Gpu Grafikkarten oder wie? Kenn kein Hyperthreading o.Ä. für Gpus :D

@quanti Echt? Das sind doch eher "Rechenabteilungen" die eben alle unterschiedliche feste Aufgaben haben?

Ein wenig von meinem Post und der anderen aber ohne Hypert..........
und glückwunsch zur Tausend :bier:
 
@quanti Echt? Das sind doch eher "Rechenabteilungen" die eben alle unterschiedliche feste Aufgaben haben?

Nein, die (Shadercluster) machen alle dasselbe, massiv parallelisiert. Demnach bildet ein Grafikkern gewissermaßen das gleiche Mutlithreading-Schema ab, wie ein normaler Multicore-Prozessor - beide Arten enthalten redundant Recheneinheiten, die sich im Verbund um eine Aufgabe kümmern, mit dem Unterschied des Anwendungsszenarios, Art der Recheneinheiten, Befehlssätze.

Zu guter Letzt...

Ein Grafikkern, bspw. einer GTX 570, erzeugt bereits fast doppelt soviel Abwärme, wie ein 990X. Pack zwei davon unter einen IHS, und du hast ein Konglumerat aus Silizium, das

a) jede Spezifikation sprengt
b) sich mit den anvisierten Leistungswerten nicht mehr entsprechend kostengünstig kühlen lässt oder

c) gar nicht zu bändigen ist.

Du hast Interesse, setz dich doch einfach mal mit dem Thema auseinander. :) Dann wird dir sicher vieles klarer. ;)
 
Zuletzt bearbeitet:
Das bringt es eigentlich ziemlich gut auf den Punkt. :D Genau das hat Intel mit Larrabee ja beispielsweise durchgezogen.
 
@quanti Echt? Das sind doch eher "Rechenabteilungen" die eben alle unterschiedliche feste Aufgaben haben?

Jede "Rechenabteilung" ist ein eigenen Kern, der alles hat, was ein Kern so braucht.
Daher besteht eine GPU eigentlich aus sehr, sehr vielen Kernen, die eben eine einzige Sache extrem gut können, aber halt auch nur die, sonst können die nichts.
Und deshalb ist die GPU bei einer bestimmten Sache der CPU meilenweit überlegen, aber sonst kann sie nichts.
 
aber halt auch nur die, sonst können die nichts.
Und deshalb ist die GPU bei einer bestimmten Sache der CPU meilenweit überlegen, aber sonst kann sie nichts.

Na ja, stimmt so nicht ganz. Mit den entsprechenden Treibern und Softwareschnittstellen sind die Shader der aktuellen GPU's quasi auch wie normale CPU-Kerne nutzbar (General Purpose Computation on Graphics Processing Unit , OpenCL, DirectCompute - Wikipedia, the free encyclopedia, | NVIDIA Developer Zone, ATI Stream Technologie). Ein sinnvolles Anwendungsbeispiel ist z.B. Folding@Home (Folding@home - Main). Sicher reicht die Effizienz von GPU's (in Grafikkarten für den privaten Markt) bzgl. Rechenaufgaben (momentan) nicht an die von CPU's heran. Das hat hauptsächlich den Grund, dass diese eben für andere Aufgaben spezialisiert sind (schnelle und qualitativ gute Darstellung von "bewegten Bildern"). Im Gegensatz dazu hat ja auch (bisher) eben wegen dieser Spezialisierung der hier schon erwähnte Larrabee von Intel als Grafikkarte noch "keinen Stich gesehen". Wenn man die Architektur abstrakt betrachtet, ist eine Grafikarte incl. der verbauten GPU und des VRAM's schon eine Art eigenständiger Computer, fehlen nur die Elemente für die statische Speicherung der Daten (Festplatte) und direkte Kommunikation mit dem Bediener (Tastatur , Maus).
 
Danke für die Antworten :daumen:

Mir gings eben darum warum es nicht mehrere "Kerne" gint die wiederrum alles können. Aber das scheint ja nciht nötig zu sein ;)

Danke für euer Fachwissen :hail:
 
Zurück