• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

KaiHD7960xx

Volt-Modder(in)
Wie wird sich die in der CPU intergirerte GPU lesitungstechnisch bemerkaber machen? Ist dies für den Spiele-Markt oder für den proffesionellen Markt gedacht. Ab wann könnten Spiele davon profitieren?

Besten Gruß & vielen Dank, :)

Kai
 
Hallo KaiHD7960xx,

die Intel Grafik in den kommenden Clarkdale und Auburndale Prozessoren folgt der Tradition der in den Chipsätzen integrierten Grafiken und befriedigt die Bedürfnisse der allermeisten PC-User. Sie unterstützt alle Windows-Desktop-Funktionen, beschleunigt die Wiedergabe von HD-Filmen bei bester Qualität und reicht für viele kleine Spiele zwischendurch.
Aufgrund des gegebenen Transistor- und Strombudgets kann die integrierte Grafik nicht mit den diskreten Grafiken konkurrieren und will es auch gar nicht.
High-end-Spieler werden nach wie vor zu einer schnellen diskreten Grafikkarte greifen und den erhöhten Stromverbrauch in Kauf nehmen.

Viele Grüße,

Christian Anderka
Intel
 

Fatal!ty Str!ke

PC-Selbstbauer(in)
Die Frage ist vielleicht etwas abwegig.
Aber wird es möglich sein, in einigen Jahren vielleicht einen Chip zu erstellen, der nicht nur eine CPU und eine GPU in einem DIE unterbringt, sondern einen Chip, der Funktionen einer CPU und einer GPU beherrscht und diese dynamisch je nach aktueller rechenaufgabe nutzen kann?


Also eine direkte Fusion. So als würde eine normale CPU 3D Grafik so effizient wie eine GPU berechnen können.

Schwer zu formulieren...

Besteht das Interesse bei Intel, an soetwas in absehbarer Zeit zu forschen? Oder ist das nur sience fiction?
 

Genghis99

PCGH-Community-Veteran(in)
Es gab schon immer Techniken für CPU-Grafik. Voxel ist z.B. eine, und sie ist auch nicht ineffektiv.

Eigentlich ist es nur eine Frage er möglichen CPU Leistung, wann man keine dezidierte Grafikeinheit mehr braucht.
 

Fatal!ty Str!ke

PC-Selbstbauer(in)
Voxel. Hat das nicht etwas mit Raytracing zu tun?

Jedenfalls fällt mir gerade ein, dass Intel ja auch an Raytracing arbeitet....
Somit wäre die Frage aus softwaretechnischer Sicht beantwortet.

@ Intel

Ob da nun entsprechend angepasste CPUs kommen könnten, die damit deutlich besser umgehen können muss dann aber wohl ein Intel mitarbeiter beantworten.

Im Grunde reicht es ja schon, wenn ich weis, dass Intel interesse an sowas hättet oder nicht. Mir ist klar, dass keiner Aussagen darüber machen kann, dass da was kommt oder wann es verfügbar sein könnte.
 

ruyven_macaran

Trockeneisprofi (m/w)
Voxel haben per se nichts mit Raytraycing zu tun, sondern lassen sich, genauso wie Polygone, ebenso mit Rasterisierung rednern. Das eine sind Elemente, aus denen eine 3d Szene modelliert wird, das andere sind Verfahren, daraus ein 2dimensionales Bild für den Monitor zu machen.
Es stimmt aber, dass das Verfahren jetzt in Zusammenhang mit Raytraycing wieder ausgegraben wird.
Der einfache Grund: Raytraycing ist zu bestehenden GPUs eh inkompatibel. Das Problem von Voxelgrafik, dass man die Leistung der GPU nicht nutzen kann und deswegen langsamer als Polygongrafik ist, besteht also sowieso. Gestalterisch sind Voxel aber für hochdetaillierte Grafiken, wie sie immer verbreiteter werden, eine sehr interessante Option. (Polygongrafik braucht pro Detail mindestens ein Dreieck mit 3 Eckpunkte mit je 3 Korrdinaten, dazu eine Farbe und eine Anweisung, dass diese den gesamten Polygon gleichmäßig füllt. Ein Voxel als kleinste Einheit kommt dagegen mit 3 Koordinaten und einer Farbe aus. Sobald man also im Schnitt unter 4 Pixel pro Dreieck hat, wird Polygongrafik ineffizienter als Voxelgrafik)

Aus der Inkompatibilität resultiert auch ~die Antwort auf die Frage:
Eine CPU-Einheit muss alles berechnen können.
Eine GPU ist deswegen bei gleicher Transistorzahl und Takt soviel schneller in ihrer Aufgabe, weil sie ziemlich viele Sachen gar nicht kann. Damit wird ein Hybrid aus GPU und CPU, der nur die Vorteile beider Systeme vereinigt, nahezu unmöglich. Man kann nur ein Zwischending entwickeln, d.h. einen Chip, der "ein bißchen" spezialisiert ist. Das endet von seiten der GPU kommend in großen, komplexen Chips, die nicht wirklich schneller Rendern, als andere (Nvidias G200 und GF100 haben einige Einheiten extra, die für Direct3d-Rendering gar nicht genutzt werden können), von seiten der CPU kommend endet es in Rechenwerken die doch wieder nur eine Erweiterungskarte sind. (Larrabee. Was die Leistung bringt, muss man abwarten)


Im Gespräch waren auch mal Chips mit verschieden spezialisierten Einheiten, von denen aber jeweils nur die gerade passensten aktiv sind. Sowas verschlingt aber sehr viel Transistoren und hat gegenüber heutigen Lösungen nur den Vorteil einer geringeren Temperaturentwicklung.
Bis auf weiteres ist die Produktion eines Chips aber teurer, als der Strom, den er Verbraucht.
 

Fatal!ty Str!ke

PC-Selbstbauer(in)
@ ruyven_macaran

Vielen Dank! Damit hast du ALLE Fragen, die ich im Kopf hatte perfekt und verständlich beantwortet. Jetzt versteh ich endlich richtig, warum genau die CPU so wichtig ist. Im grunde ist es ne CPU ja dann eigentlich schon das, was ich mir vorgestellt hatte. Ein Chip, der quasi "alles kann".

Und dass ein Chip, der alles kann nicht schneller sein kann, als ein Chip, der für eine Sache entwicket wurde (GPU) ist ja eigentlich aus logischer sicht völlig offensichtlich. Darauf hätt ich eigentlich kommen müssen...
 

poiu

Lötkolbengott/-göttin
@Fatal!ty Str!ke

CPU+GPU das gab es eigentlich schon zB bei denn Genode CPUs (vor AMD) und ich glaube auch bei Cyrix.
aber ich weiß nicht ob das auf einem DIE war!
 

ruyven_macaran

Trockeneisprofi (m/w)
wenn das so wäre wäre der chip unbezahlbar, ich gehe nämlich davon aus das er mehrere jahre läuft und strom verbraucht oO

Überleg dir mal, wie wenig der Chip verbraucht.
Die durchschnittliche Grafikkarte (d.h. nicht High-End. würde man nur für die Entwickeln, wären die Entwicklungskosten pro verkaufte GPU astronomisch) verbraucht vielleicht ihre 80W - die ganze Karte. Lass die GPU selbst 40W fressen, unter Vollast. Idle 15-20W, IGPs noch weniger. Lass sie im Schnitt (wir berücksichtigen viele Leute, die zwar einen Computer haben, aber nicht regelmäßig nutzen, dazu kommen Ferienzeiten,...) 50 Stunden pro Woche laufen, davon nur 10 unter Vollast (Bürorechner machen das dann nie) und die Kilowattstunde 10Cent kosten (internationaler Durchschnitt ist sicherlich noch deutlich niedriger). Dann sind wir bei 14 Cent Stromkosten pro Woche, die die GPU verursacht oder rund 7€ im Jahr.
Wie lange willst du sie nutzen, ehe du damit nenneswerte Summen erreichst?

CPU+GPU das gab es eigentlich schon zB bei denn Genode CPUs (vor AMD) und ich glaube auch bei Cyrix.
aber ich weiß nicht ob das auf einem DIE war!

Bei Geode bin ich mir nicht ganz sicher, Cyrix selbst hatte afaik nie komplette Systeme.
Via hat aber bereits kurz nach der Übernahme welche rausgebracht und baut sie afaik bis heute - allerdings werden da nur CPU und Chipsatz auf einem Substrat vereinigt. Das entsprechende Gegenstück wäre ein Clarkdale, dem noch den P55 mit unter den Heatspreader packt (wenn ichs mir recht überlege: komplett in 32nm sollte das kaum größer als ein So1366 werden, oder?).
Ein Vereinigung von Grafik, CPU und Northbridge auf einem einzigen Stück Silizium gab es afaik noch nie im PC-Bereich. Selbst Handys haben oft einen dedizierten Grafikbeschleuniger.
 
Oben Unten