Likes Likes:  0
  1. #1

    Pfeil Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    Wie wird sich die in der CPU intergirerte GPU lesitungstechnisch bemerkaber machen? Ist dies für den Spiele-Markt oder für den proffesionellen Markt gedacht. Ab wann könnten Spiele davon profitieren?

    Besten Gruß & vielen Dank,

    Kai

    • Bitte einloggen, um diese Anzeige auszublenden.
  2. #2

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    Hallo KaiHD7960xx,

    die Intel Grafik in den kommenden Clarkdale und Auburndale Prozessoren folgt der Tradition der in den Chipsätzen integrierten Grafiken und befriedigt die Bedürfnisse der allermeisten PC-User. Sie unterstützt alle Windows-Desktop-Funktionen, beschleunigt die Wiedergabe von HD-Filmen bei bester Qualität und reicht für viele kleine Spiele zwischendurch.
    Aufgrund des gegebenen Transistor- und Strombudgets kann die integrierte Grafik nicht mit den diskreten Grafiken konkurrieren und will es auch gar nicht.
    High-end-Spieler werden nach wie vor zu einer schnellen diskreten Grafikkarte greifen und den erhöhten Stromverbrauch in Kauf nehmen.

    Viele Grüße,

    Christian Anderka
    Intel

  3. #3
    Avatar von Fatal!ty Str!ke
    Mitglied seit
    10.12.2008
    Beiträge
    387

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    Die Frage ist vielleicht etwas abwegig.
    Aber wird es möglich sein, in einigen Jahren vielleicht einen Chip zu erstellen, der nicht nur eine CPU und eine GPU in einem DIE unterbringt, sondern einen Chip, der Funktionen einer CPU und einer GPU beherrscht und diese dynamisch je nach aktueller rechenaufgabe nutzen kann?


    Also eine direkte Fusion. So als würde eine normale CPU 3D Grafik so effizient wie eine GPU berechnen können.

    Schwer zu formulieren...

    Besteht das Interesse bei Intel, an soetwas in absehbarer Zeit zu forschen? Oder ist das nur sience fiction?
    >SysProfile< Gaming PC [Win7]
    CPU: Intel Core 2 Duo E8400 @ 2x 3,6 GHz @ EKL Groß Clock'ner GPU: Sapphire ATi Radeon HD 5850 1GB RAM: 8 GB TeamElite DDR2 800 MHz MB: GigaByte X38 DS4 HDD: 500 GB Samsung T166 LCD: 22" Samsung 223BW @ 1680x1050
    NoteBook - Acer Aspire 7738G [Win7]

  4. #4
    Avatar von Genghis99
    Mitglied seit
    20.10.2009
    Ort
    BNh Hessen.
    Beiträge
    1.801

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    Es gab schon immer Techniken für CPU-Grafik. Voxel ist z.B. eine, und sie ist auch nicht ineffektiv.

    Eigentlich ist es nur eine Frage er möglichen CPU Leistung, wann man keine dezidierte Grafikeinheit mehr braucht.

  5. #5
    Avatar von Fatal!ty Str!ke
    Mitglied seit
    10.12.2008
    Beiträge
    387

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    Voxel. Hat das nicht etwas mit Raytracing zu tun?

    Jedenfalls fällt mir gerade ein, dass Intel ja auch an Raytracing arbeitet....
    Somit wäre die Frage aus softwaretechnischer Sicht beantwortet.

    @ Intel

    Ob da nun entsprechend angepasste CPUs kommen könnten, die damit deutlich besser umgehen können muss dann aber wohl ein Intel mitarbeiter beantworten.

    Im Grunde reicht es ja schon, wenn ich weis, dass Intel interesse an sowas hättet oder nicht. Mir ist klar, dass keiner Aussagen darüber machen kann, dass da was kommt oder wann es verfügbar sein könnte.
    >SysProfile< Gaming PC [Win7]
    CPU: Intel Core 2 Duo E8400 @ 2x 3,6 GHz @ EKL Groß Clock'ner GPU: Sapphire ATi Radeon HD 5850 1GB RAM: 8 GB TeamElite DDR2 800 MHz MB: GigaByte X38 DS4 HDD: 500 GB Samsung T166 LCD: 22" Samsung 223BW @ 1680x1050
    NoteBook - Acer Aspire 7738G [Win7]

  6. #6
    Avatar von ruyven_macaran
    Mitglied seit
    22.08.2007
    Beiträge
    30.987

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    Voxel haben per se nichts mit Raytraycing zu tun, sondern lassen sich, genauso wie Polygone, ebenso mit Rasterisierung rednern. Das eine sind Elemente, aus denen eine 3d Szene modelliert wird, das andere sind Verfahren, daraus ein 2dimensionales Bild für den Monitor zu machen.
    Es stimmt aber, dass das Verfahren jetzt in Zusammenhang mit Raytraycing wieder ausgegraben wird.
    Der einfache Grund: Raytraycing ist zu bestehenden GPUs eh inkompatibel. Das Problem von Voxelgrafik, dass man die Leistung der GPU nicht nutzen kann und deswegen langsamer als Polygongrafik ist, besteht also sowieso. Gestalterisch sind Voxel aber für hochdetaillierte Grafiken, wie sie immer verbreiteter werden, eine sehr interessante Option. (Polygongrafik braucht pro Detail mindestens ein Dreieck mit 3 Eckpunkte mit je 3 Korrdinaten, dazu eine Farbe und eine Anweisung, dass diese den gesamten Polygon gleichmäßig füllt. Ein Voxel als kleinste Einheit kommt dagegen mit 3 Koordinaten und einer Farbe aus. Sobald man also im Schnitt unter 4 Pixel pro Dreieck hat, wird Polygongrafik ineffizienter als Voxelgrafik)

    Aus der Inkompatibilität resultiert auch ~die Antwort auf die Frage:
    Eine CPU-Einheit muss alles berechnen können.
    Eine GPU ist deswegen bei gleicher Transistorzahl und Takt soviel schneller in ihrer Aufgabe, weil sie ziemlich viele Sachen gar nicht kann. Damit wird ein Hybrid aus GPU und CPU, der nur die Vorteile beider Systeme vereinigt, nahezu unmöglich. Man kann nur ein Zwischending entwickeln, d.h. einen Chip, der "ein bißchen" spezialisiert ist. Das endet von seiten der GPU kommend in großen, komplexen Chips, die nicht wirklich schneller Rendern, als andere (Nvidias G200 und GF100 haben einige Einheiten extra, die für Direct3d-Rendering gar nicht genutzt werden können), von seiten der CPU kommend endet es in Rechenwerken die doch wieder nur eine Erweiterungskarte sind. (Larrabee. Was die Leistung bringt, muss man abwarten)


    Im Gespräch waren auch mal Chips mit verschieden spezialisierten Einheiten, von denen aber jeweils nur die gerade passensten aktiv sind. Sowas verschlingt aber sehr viel Transistoren und hat gegenüber heutigen Lösungen nur den Vorteil einer geringeren Temperaturentwicklung.
    Bis auf weiteres ist die Produktion eines Chips aber teurer, als der Strom, den er Verbraucht.
    PCG&H-Statistik: 25235 Post, 380 Threads, 17091 Antworten (0,677/Post, 44,876/Thread) since 18:04, 26.09.2001

    [Langzeittagebuch]Vom Flugzeug zum 0db-Wakü-PC; 31.8.11: Stufe 4.0 Fanless

  7. #7
    Avatar von BiTbUrGeR
    Mitglied seit
    07.08.2008
    Ort
    NRW
    Beiträge
    866

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    Zitat Zitat von ruyven_macaran Beitrag anzeigen
    Bis auf weiteres ist die Produktion eines Chips aber teurer, als der Strom, den er Verbraucht.

    wenn das so wäre wäre der chip unbezahlbar, ich gehe nämlich davon aus das er mehrere jahre läuft und strom verbraucht oO


  8. #8
    Avatar von Fatal!ty Str!ke
    Mitglied seit
    10.12.2008
    Beiträge
    387

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    @ ruyven_macaran

    Vielen Dank! Damit hast du ALLE Fragen, die ich im Kopf hatte perfekt und verständlich beantwortet. Jetzt versteh ich endlich richtig, warum genau die CPU so wichtig ist. Im grunde ist es ne CPU ja dann eigentlich schon das, was ich mir vorgestellt hatte. Ein Chip, der quasi "alles kann".

    Und dass ein Chip, der alles kann nicht schneller sein kann, als ein Chip, der für eine Sache entwicket wurde (GPU) ist ja eigentlich aus logischer sicht völlig offensichtlich. Darauf hätt ich eigentlich kommen müssen...
    >SysProfile< Gaming PC [Win7]
    CPU: Intel Core 2 Duo E8400 @ 2x 3,6 GHz @ EKL Groß Clock'ner GPU: Sapphire ATi Radeon HD 5850 1GB RAM: 8 GB TeamElite DDR2 800 MHz MB: GigaByte X38 DS4 HDD: 500 GB Samsung T166 LCD: 22" Samsung 223BW @ 1680x1050
    NoteBook - Acer Aspire 7738G [Win7]

  9. #9
    Avatar von poiu
    Mitglied seit
    06.02.2009
    Ort
    Orionarm
    Beiträge
    9.216

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    @Fatal!ty Str!ke

    CPU+GPU das gab es eigentlich schon zB bei denn Genode CPUs (vor AMD) und ich glaube auch bei Cyrix.
    aber ich weiß nicht ob das auf einem DIE war!
    Wenn Wasser wirklich ein Gedächtnis hat, dann ist Homöopathie voll von ScheiBe!

    Poiu´s kleiner Leitfaden: Wie man als Laie ein günstiges von einem billigen Netzteil unterscheidet

    • Bitte einloggen, um diese Anzeige auszublenden.
  10. #10
    Avatar von ruyven_macaran
    Mitglied seit
    22.08.2007
    Beiträge
    30.987

    AW: Wie wird sich die in der CPU integrierte GPU leistungstechnisch bemerkbar machen?

    Zitat Zitat von BiTbUrGeR Beitrag anzeigen
    wenn das so wäre wäre der chip unbezahlbar, ich gehe nämlich davon aus das er mehrere jahre läuft und strom verbraucht oO
    Überleg dir mal, wie wenig der Chip verbraucht.
    Die durchschnittliche Grafikkarte (d.h. nicht High-End. würde man nur für die Entwickeln, wären die Entwicklungskosten pro verkaufte GPU astronomisch) verbraucht vielleicht ihre 80W - die ganze Karte. Lass die GPU selbst 40W fressen, unter Vollast. Idle 15-20W, IGPs noch weniger. Lass sie im Schnitt (wir berücksichtigen viele Leute, die zwar einen Computer haben, aber nicht regelmäßig nutzen, dazu kommen Ferienzeiten,...) 50 Stunden pro Woche laufen, davon nur 10 unter Vollast (Bürorechner machen das dann nie) und die Kilowattstunde 10Cent kosten (internationaler Durchschnitt ist sicherlich noch deutlich niedriger). Dann sind wir bei 14 Cent Stromkosten pro Woche, die die GPU verursacht oder rund 7€ im Jahr.
    Wie lange willst du sie nutzen, ehe du damit nenneswerte Summen erreichst?

    Zitat Zitat von poiu Beitrag anzeigen
    CPU+GPU das gab es eigentlich schon zB bei denn Genode CPUs (vor AMD) und ich glaube auch bei Cyrix.
    aber ich weiß nicht ob das auf einem DIE war!
    Bei Geode bin ich mir nicht ganz sicher, Cyrix selbst hatte afaik nie komplette Systeme.
    Via hat aber bereits kurz nach der Übernahme welche rausgebracht und baut sie afaik bis heute - allerdings werden da nur CPU und Chipsatz auf einem Substrat vereinigt. Das entsprechende Gegenstück wäre ein Clarkdale, dem noch den P55 mit unter den Heatspreader packt (wenn ichs mir recht überlege: komplett in 32nm sollte das kaum größer als ein So1366 werden, oder?).
    Ein Vereinigung von Grafik, CPU und Northbridge auf einem einzigen Stück Silizium gab es afaik noch nie im PC-Bereich. Selbst Handys haben oft einen dedizierten Grafikbeschleuniger.
    PCG&H-Statistik: 25235 Post, 380 Threads, 17091 Antworten (0,677/Post, 44,876/Thread) since 18:04, 26.09.2001

    [Langzeittagebuch]Vom Flugzeug zum 0db-Wakü-PC; 31.8.11: Stufe 4.0 Fanless

Ähnliche Themen

  1. Wie hoch darf die Spannung der NB und wie kann man die Temps der NB auslesen?
    Von Asdf??? im Forum Overclocking: Mainboards und Speicher
    Antworten: 8
    Letzter Beitrag: 17.07.2009, 19:39
  2. Wie wirk sich eine Mobo-Kühlung auf die Temp der GPU aus?
    Von On/OFF im Forum Erweiterbare Wasserkühlungen
    Antworten: 8
    Letzter Beitrag: 05.06.2009, 15:31
  3. Wie Festplatte leer machen, das man später die Daten nicht wieder herstellen kann?
    Von BautznerSnef im Forum SSD, HDD, Laufwerke und Speicher
    Antworten: 29
    Letzter Beitrag: 26.05.2009, 22:50
  4. Wie macht sich gleichzeitiges übertakten durch Multi und Referenztakt bemerkbar?
    Von michelthemaster im Forum Overclocking: Prozessoren
    Antworten: 11
    Letzter Beitrag: 09.05.2009, 23:34
  5. Kann Undervolten die Cpu kaputt machen??
    Von Eiswolf93 im Forum Overclocking: Prozessoren
    Antworten: 13
    Letzter Beitrag: 13.09.2008, 22:52

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •