• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Fusion kommt Anfang 2011, APU mit 1 Milliarde Transistoren, erster Die-Shot

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu AMD Fusion kommt Anfang 2011, APU mit 1 Milliarde Transistoren, erster Die-Shot gefragt. Beachten Sie dabei unsere Forenregeln.

Zurück zum Artikel: AMD Fusion kommt Anfang 2011, APU mit 1 Milliarde Transistoren, erster Die-Shot
 

RC-X

PC-Selbstbauer(in)
Kommt mir irgendwie bekannt vor der I5 hat doch auch nen Grafikchip mit drauf....

nich der i3?

bin ja gespannt was des wird mit Fusion
Die Boardhersteller müssen da ja dann auf ganz neuem Grund beginnen.
Und ich glaube kaum dass das Gane leistungstark genug ist für dann aktuelle spiele.
Aber als Plattform für Netbooks/Notebooks wäre das sicher interessant
 

Zsinj

BIOS-Overclocker(in)
nich der i3?

bin ja gespannt was des wird mit Fusion
Die Boardhersteller müssen da ja dann auf ganz neuem Grund beginnen.
Und ich glaube kaum dass das Gane leistungstark genug ist für dann aktuelle spiele.
Aber als Plattform für Netbooks/Notebooks wäre das sicher interessant
Für mich hat das etwas von Onboard-Grafik. Wirklich gigantische Leistung ist davon kaum zu erwarten. Für mobile/ HTPC & co sicher ganz gut zu gebrauchen, aber für Spiele sehe ich da kein Land.

@w0mbat
Habe ich auch so in Erinnerung...
 

GR-Thunderstorm

BIOS-Overclocker(in)
Könnte AMD dann nicht technisch gesehen hochparallelisierbare Aufgaben auf die Grafikeinheit verlagern und so das Ding ordentlich beschleunigen? Mit DX11 wäre das ja möglich, sogar X86-64 könnte man integrieren.
 

push@max

Volt-Modder(in)
Fusion plant AMD ja bereits schon etwas länger...und jetzt soll es erst 2011 erscheinen?

Naja, da wird man wohl wieder ziemlich weit hinter Intel zurückliegen...und die Technik wird dann 2011 auch wieder überholt sein.
 

Harlekin

PCGH-Community-Veteran(in)
Was? So weit ich weiß packt Intel einfach eine CPU und eine GPU unter einen Headspreader, da ist doch nichts integriert, oder hab ich das falsch in Erinnerung?
Kann man so und so sehen.
Die GPU ist als extra DIE in/auf dem CPU- Package des Core i3 Prozessors integriert, aber eben nicht in den Core i3- CPU- DIE. Zu nem Prozessor gehört ja mehr als nur der DIE.
 

Bucklew

Gesperrt
Naja, außer mit nem großen Bleiakku glaube ich nicht, dass diese CPU/GPU-Kombi wirklich einen Tag laufen würde. Generell kann ich diesen Kombinationen absolut nichts abgewinnen.
 

CentaX

BIOS-Overclocker(in)
Naja, außer mit nem großen Bleiakku glaube ich nicht, dass diese CPU/GPU-Kombi wirklich einen Tag laufen würde. Generell kann ich diesen Kombinationen absolut nichts abgewinnen.

Genau, weil ne AMD-Grafikkarte drinsteckt...

@ Topic: Für Notebooks mags interessant sein, jedoch ist die Frage, ob man einen Unterschied (Batterielaufzeit etc.) zu 2 Dies merken kann... Der Phenom I war ja auch der erste Prozessor mir 4 nativen Cores, der Core 2 Quad wurde trotzdem deutlich öfter verkauft (sogar ich hab einen :P)

Die sollten mal trotzdem lieber andere Sachen erfinden... Komplett abschaltbare Cores, FSB/Multi/Spannungsregelung unter Windows, ...
Wie lange warte ich schon da drauf, der Q6600 rennt hier auf 3,4ghz (bzw. ~2,25, wenn C1E mal runtertaktet - was grade in Vista/7 nicht mehr oft passiert)
Was natürlich der Overkill wäre... Graka in Windows "abschalten" -> onboard-Chip übernimmt und schleift das Signal an die Graka durch :D Unter abschalten verstehe ich dann mindestens passive Kühlung und kaum noch Stromverbrauch... Auf so ne Entwicklung warte ich wirklich schon sehr, sehr lange^^
 

Zerebo

Freizeitschrauber(in)
Mal schauen.Vlt. könnte das ne echte Konkurenz zu den Intel CULV Chips sein..Ein stark runter getakteter Phenom2 in 32 Nanometer ist bestimmt ziemlich sparsam.Aber dauert leider noch ziemlich lange.
Solange gibt es leider nur Atom und CULV Chips von Intel in dem Bereich.
 

ruyven_macaran

Trockeneisprofi (m/w)
Core i3 kommt mit integriertem Kern. :daumen:

Genauer wäre "Clarkdale". Afaik soll der dann unter den Namen Core i3, Core i5 (mit HT-> 4 Kerne) und Pentium G in den Handel kommen. (behaupten jedenfalls die PCGH-News ;) )


Was? So weit ich weiß packt Intel einfach eine CPU und eine GPU unter einen Headspreader, da ist doch nichts integriert, oder hab ich das falsch in Erinnerung?

Jein. Sie packen eine CPU und eine Northbridge mit IGP unter den Heatspreader. Die Grafikeinheit ist also z.B. im gleichen Chip wie der Speichercontroller und DMI integriert (also Teilen, die beim Lynnfield als CPU-Bestandteil zählen), aber nicht mit den eigentlichen Recheneinheiten. (quasi identisch zur Kombination Core2-G45-ICH10, nur dass die ersten beiden per QPI statt FSB verbunden sind und die ICH10 jetzt ?5? heißt und noch Taktgeber&Co enthält)


Könnte AMD dann nicht technisch gesehen hochparallelisierbare Aufgaben auf die Grafikeinheit verlagern und so das Ding ordentlich beschleunigen? Mit DX11 wäre das ja möglich, sogar X86-64 könnte man integrieren.

Mit DX11, d.h. via Software können sie (oder besser: Programmierer von Anwendungen) das auch komplett ohne Integration. Auf reiner CPU/x86 Ebene könnte es schwierig werden, zu erkennen, welche Aufgaben ausreichend parrallelisiert sind. Das ganze nützt einem schließlich nichts, wenn die CPU nur noch mit der Analyse von Code beschäftigt ist.
Interessant wäre es natürlich mittelfristig, wenn sich alle Einheiten über den gleichen Decoder ansprechen lassen oder zumindest die ganzen Multimedia-Befehle für die Shadereinheiten recodiert werden, aber ich wüsste nicht, dass AMD das plant. (zumal heutige IGPs ja ohnehin schon mit genug anderen Berechnungen ausgelastet sind)
 

Brzeczek

PCGHX-HWbot-Member (m/w)
Für den Netbook boom sind die von AMD ja schon eh viel zu spät... wenn die nicht endlich gas geben dann wars das :(
 

da brew

Freizeitschrauber(in)
Für mich hat das etwas von Onboard-Grafik. Wirklich gigantische Leistung ist davon kaum zu erwarten. Für mobile/ HTPC & co sicher ganz gut zu gebrauchen, aber für Spiele sehe ich da kein Land.
Interessant ... das ist als Fusion. Wohl doch noch Abgespekter als ich es je gedacht hätte. :devil:

Was habt ihr denn erwartet??? Phenom II x4 4GHz mit Radeon 5890?

Genau, weil ne AMD-Grafikkarte drinsteckt...

Dumm nur dass es diese Kombination auch von Intel geben wird.

Was natürlich der Overkill wäre... Graka in Windows "abschalten" -> onboard-Chip übernimmt und schleift das Signal an die Graka durch :D Unter abschalten verstehe ich dann mindestens passive Kühlung und kaum noch Stromverbrauch... Auf so ne Entwicklung warte ich wirklich schon sehr, sehr lange^^

Gibt's/gab's schon: Hybrid-SLI; hat sich aber wohl nicht durchgesetzt, warum auch immer.
 

speedo2fast

Software-Overclocker(in)
wenn die gpu in die grafikkarte integriert wird, wie wird denn dann der monitor angeschlossen? muss dann jedes mainboard hinten entsprechende anschlüsse haben?
 

CentaX

BIOS-Overclocker(in)
Dumm nur dass es diese Kombination auch von Intel geben wird.

Bucklew ist aber extremer Nvidia-Fanboy, ich hätte im Prinzip nichts dagegen. :D

Gibt's/gab's schon: Hybrid-SLI; hat sich aber wohl nicht durchgesetzt, warum auch immer.


Najo, kommt für mich mit ATi- Grafikkarten halt nicht infrage ... wenn ich das richtig in Erinnerung habe, musste man doch dafür immer rebooten? Kenn das eigl nur von Notebooks..
 

Havenger

Gesperrt
Was habt ihr denn erwartet??? Phenom II x4 4GHz mit Radeon 5890?

zur info das wird ne 5970er werden ...

wenn die gpu in die grafikkarte integriert wird, wie wird denn dann der monitor angeschlossen? muss dann jedes mainboard hinten entsprechende anschlüsse haben?

so was gibts heute schon und wird gewöhnlich als onboard grafik bezeichnet ...

zu dem ist die gpu schon seit anfang an in die grafikkarte integriert :lol:
 

Bucklew

Gesperrt
Dumm nur dass es diese Kombination auch von Intel geben wird.
Die mir genauso wenig gefällt. Schließlich geht damit einer der riesigen Vorteile eines PCs flöten, das man ihn nämlich aufrüsten kann. Bei BüroPCs mag das ja noch ok sein, aber da kann man dann auch direkt nen Atom nehmen und fährt noch billiger.
 

Milkyway

PC-Selbstbauer(in)
Also ich mach mir bei der entwicklung kein echten sorgen um die Aufrüstbarkeit.. High-end wird man eh nie so auf einem Chip bekommen, wegen der abwärme und für alles andere doch eh Ausreichend.
Wenn das heutige 45nm SOI verfahren von GF ungeeignet ist für ATIs GPUs, wieso geht das dann mit 32nm? Warscheinlich geht das auch nur mit langsamerer Grafik-Einheit..
 

ruyven_macaran

Trockeneisprofi (m/w)
Najo, kommt für mich mit ATi- Grafikkarten halt nicht infrage ... wenn ich das richtig in Erinnerung habe, musste man doch dafür immer rebooten? Kenn das eigl nur von Notebooks..

Nö, Hybrid-SLI funktionierte auch ohne reboot, aber afaik musste man immer manuell umschalten.
Hauptproblem war aber, dass es nur bis 1920x1200 unterstützte (-> alle Enthusiasten raus), nur mit Oberklasse-Karten (-> alle Einsteiger raus), oft nur Karten im Referenz-Design (-> 3/4 der verbleibenden raus) und nur auf einigen Nvidia IGP-Chipsätzen (-> ~alle Intel-Besitzer raus, die Nvidia nur für SLI und dann 780/790 kauften, alle AMD-Nutzer mit Interesse an 2x16 raus).
Unterm Strich konnten damit nur Leute die Technik nutzen, die ein Mittelklasse Nvidia-Board den Mittelklasse-Lösungen von Intel und AMD vorzogen und die dann die richtige Oberklasse Nvidia-Karte nutzten. Wenn man die vielen beweggründe für die Hardwareauswahl bedenkt, kann man sich vorstellen, dass das nicht gerade viele waren (zumal Leute mit Interesse am stromsparen in der Zeit viele schlechte Meldungen über Nvidia gehört haben...).
Nach einer Generation hat Nvidia die Sache dann still und heimlich eingestellt. Wenn mal ein Kommentar kam, dann ging es in Richtung "fehlendes Interesse", viele vermuten aber, dass man einfach keine vernünftige Zusammenarbeit mit Windows hinbekommen hat.



Seh ich genauso! Für Billig-PCs kann man ja gern die GPU ins mainboard packen, aber in die CPU? Ne, danke...

CPU <-> Mobo - wo liegt der Unterschied? Dank IMC sind die Chancen, dass man ein Mittel-/Unterklassesystem nach seiner (i.d.R. langen) Lebenszeit nochmal aufrüsten kann, doch endgültig bei null angelangt. Also tauscht man sowieso Board und CPU und welche von beiden die Grafikeinheit enthält, ist egal.
 

Bucklew

Gesperrt
Hauptproblem war aber, dass es nur bis 1920x1200 unterstützte (-> alle Enthusiasten raus), nur mit Oberklasse-Karten (-> alle Einsteiger raus), oft nur Karten im Referenz-Design (-> 3/4 der verbleibenden raus) und nur auf einigen Nvidia IGP-Chipsätzen (-> ~alle Intel-Besitzer raus, die Nvidia nur für SLI und dann 780/790 kauften, alle AMD-Nutzer mit Interesse an 2x16 raus).
Und (last but not least) verbrauchen selbst heutige High-End-Karten nur noch 20-30W im Idle, womit das Einsparpotential eines Chipsatzes verdammt gering wird. Und natürlich das Problem Windows, ließe sich wohl nur wirklich lösen mit einer SLI-Brücke, hinter der die zwei GPUs (Chipsatz+diskret) für Windows versteckt laufen.

Was man natürlich auch nicht vergessen sollte: Das Mobo mit Chipsatzgrafik kostet Geld, die Grafikkarte mit Zusatzbauteilen, der Support - das kriegt man mit dem bisschen weniger Leistungsaufnahme nie wieder raus.

CPU <-> Mobo - wo liegt der Unterschied? Dank IMC sind die Chancen, dass man ein Mittel-/Unterklassesystem nach seiner (i.d.R. langen) Lebenszeit nochmal aufrüsten kann, doch endgültig bei null angelangt. Also tauscht man sowieso Board und CPU und welche von beiden die Grafikeinheit enthält, ist egal.
Was z.B. beim AM2 so nicht stimmt. Problematisch sind ja alleine die Monitorausgänge - defakto MÜSSEN ja alle drauf, weil man sie nur mit mainboard-wechsel tauschen kann (im vergleich zu einer diskreten karte, nicht chipsatzgrafik). Und auch die Sockel müssen ja deutlich komplizierter (=teurer) werden um die Grafik anzusteuern. Besser ist natürlich die Memoryanbindung, die ja dank der IMCs ziemlich mies geworden ist.
 

ruyven_macaran

Trockeneisprofi (m/w)
Die Grafikkarte ohne Bildausgabe kostet weniger.
Die Verbrauchsoptimierung von (High-End-)Grafikkarten entfällt.
Die Chipsatzgrafik kostet bislang wenig Aufpreis und kann in Zeiten von GPGPU weitere wertvolle Dienste leisten.
Bleibt der Support bzw. der Ärger mit Windows - alles andere ist einfach nur ein revolutionär anderes Konzept, das sich natürlich nicht von heute auf morgen durchsetzt. (insbesondere, wenn es als limitierte und hochpropietäre Plattform daherkommt)




Also zumindest Intel wird die Monitoransteuerung im Chipsatz belassen, so dass die Verbindung im Sockel vergleichsweise einfach gehalten werden kann und man auch unabhängig von der CPU die Ausgänge variieren kann. (ohne Northbridge und meist auch ohne Zusatzcontroller wohl in Zukunft eines der wenigen Unterscheidungsmerkmale von Einsteigerboards, wenn nicht sowieso einfach alle alles verbauen, was ja auch nur ein paar Cent Unterschied macht. Und im Gegensatz zu Grafikkarten haben Mainboards auch genug Platz für Anschlüsse)
 

Bucklew

Gesperrt
Die Grafikkarte ohne Bildausgabe kostet weniger.
Die Verbrauchsoptimierung von (High-End-)Grafikkarten entfällt.
Die Chipsatzgrafik kostet bislang wenig Aufpreis und kann in Zeiten von GPGPU weitere wertvolle Dienste leisten.
Bleibt der Support bzw. der Ärger mit Windows - alles andere ist einfach nur ein revolutionär anderes Konzept, das sich natürlich nicht von heute auf morgen durchsetzt. (insbesondere, wenn es als limitierte und hochpropietäre Plattform daherkommt)
Selbst ohne Bildausgänge sind >90% der Bauteile trotzdem vorhanden und natürlich muss man die Karte auf Verbrauch optimieren (gibt ja immer noch leute, die keinen chipsatzgrafik haben) und natürlich wird ein chipsatz kleiner (= billiger), wenn er keine Grafik enthält. Müsste man also zwei verschiedene Grafikkarten entwickeln, was erneut viel zu teuer werden würde.

Also zumindest Intel wird die Monitoransteuerung im Chipsatz belassen, so dass die Verbindung im Sockel vergleichsweise einfach gehalten werden kann und man auch unabhängig von der CPU die Ausgänge variieren kann.
Womit das ganze noch unsinniger wird. Es ändert sich nur die Platzierung des Grafikkerns.
 

Harlekin

PCGH-Community-Veteran(in)
Wie willst du in einer kombinierten CPU/GPU denn die GPU wechseln? oder die CPU?
Äh, einfach ne Graka in den freien PCIe 16x Steckplatz stecken? Zumindest der Core i3 dürfte seinen PCIe- Controller vom großen Brurder geerbt haben.
Die CPU- Aufrüstung wird halt etwas teurer, aber mal ehrlich: So oft werden die PCs für die diese CPUs gedacht sind nicht aufgerüstet werden, und wenn, dann wird die CPU wieder keine hunderte von Euros kosten.

Technisch mach die Sache evtl. nicht so viel sinn. Aus betriebswirtschaftlichen Gründen schon eher. Immerhin sperrt man damit mehr oder weniger andere Mobohersteller aus, was Low- Cost Systeme mit integrierter Grafik angeht. Welcher Sys-Integrator kauft denn schon ein System bei dem die GPU im CPU- Package integriert ist, und dann ein nV Board auf dem nochmal eine GPU integriert ist? Eben, das wird keiner machen.

Technisch gesehen könnte es Vorteile geben, wenn CPU und GPU auf einem DIE zusammen gefasst werden und die GPU somit vom meist schon kleineren Fertigungsprozess profitieren kann. Chipsätze werden ja oft noch gröber hergestellt.
Achja: Außerdem spart man sich etwas Aufwand, wenn GPU und CPU direkt den gleichen Speichercontroller ansprechen können. Denn dadurch, dass der Speichercontroller in die CPU gewandert ist, ist es etwas aufwendiger geworden, die Chipsatzgraka an den RAM anzubinden.
 

GR-Thunderstorm

BIOS-Overclocker(in)
Mit DX11, d.h. via Software können sie (oder besser: Programmierer von Anwendungen) das auch komplett ohne Integration. Auf reiner CPU/x86 Ebene könnte es schwierig werden, zu erkennen, welche Aufgaben ausreichend parrallelisiert sind. Das ganze nützt einem schließlich nichts, wenn die CPU nur noch mit der Analyse von Code beschäftigt ist.
Interessant wäre es natürlich mittelfristig, wenn sich alle Einheiten über den gleichen Decoder ansprechen lassen oder zumindest die ganzen Multimedia-Befehle für die Shadereinheiten recodiert werden, aber ich wüsste nicht, dass AMD das plant. (zumal heutige IGPs ja ohnehin schon mit genug anderen Berechnungen ausgelastet sind)

Eine solche Zuteilung könnte mittels Befehlsbyte auf Assembler-Ebene völlig ohne weitere Analyse geschehen. Man müsste lediglich ein paar neue Erweiterungen implementieren, die ggf. einem Befehlsbyte noch ein "Kernbyte" oder sowas vorranstellen. Wenn dieses ausgelassen wird, berechnet der normale CPU-Kern das Datenbyte und wenn da halt noch was vor steht, geht das nachfolgende Befehls+Datenbyte an die GPU-Kerne.
 

Havenger

Gesperrt
also ich finde die idee immer noch genial, da man diesen kern oder kerne dann auch zur berechn ung der physik einsetzen könnte ... oder win7 zieht daraus die leistung fürs video konvertieren wärend man noch schön neben bei zocken tut ...
 

ruyven_macaran

Trockeneisprofi (m/w)
Eine solche Zuteilung könnte mittels Befehlsbyte auf Assembler-Ebene völlig ohne weitere Analyse geschehen. Man müsste lediglich ein paar neue Erweiterungen implementieren, die ggf. einem Befehlsbyte noch ein "Kernbyte" oder sowas vorranstellen. Wenn dieses ausgelassen wird, berechnet der normale CPU-Kern das Datenbyte und wenn da halt noch was vor steht, geht das nachfolgende Befehls+Datenbyte an die GPU-Kerne.

Ob das nun n Byte, n Bit oder n komplett anderer Befehlssatz ist, dass Problem bleibt: Wer solls setzen, wenn nicht die von mir genannten a) Entwickler (bzw. deren Compiler) oder b) aufwendige Analysealgorithmen?
 

Harlekin

PCGH-Community-Veteran(in)
Na super und dann hat man die GPU in der CPU mitbezahlt und nutzt sie nicht. Tierisch sinnfrei....
Deswegen sag ich ja auch, dass das hauptsächlich betriebswirtschaftliche Gründe hat.
Aber wie gesagt, da diese CPUs eh nicht für Spiele- PCs gedacht sind, ist dein Einwand eigentlich nicht so dramatisch für die Käufer.
 

Bucklew

Gesperrt
Deswegen sag ich ja auch, dass das hauptsächlich betriebswirtschaftliche Gründe hat.
Das interessiert mich nur überhaupt nicht, welche betriebswirtschaftlichen Gründe das sind. Wenn ich für eine für mich sinnlose GPU in der CPU zahlen soll, kaufe ich es nicht. Das sind meine betriebswirtschaftlichen Gründe :ugly:

Aber wie gesagt, da diese CPUs eh nicht für Spiele- PCs gedacht sind, ist dein Einwand eigentlich nicht so dramatisch für die Käufer.
Klar, stimmt. Dafür würde ich aber bei der heutigen Leistungsfähigkeit der PCs eher in die Atom u.ä. Regionen gehen, da spart es sich noch mehr Geld.
 
Oben Unten