AMD Fusion kommt Anfang 2011, APU mit 1 Milliarde Transistoren, erster Die-Shot

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu AMD Fusion kommt Anfang 2011, APU mit 1 Milliarde Transistoren, erster Die-Shot gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: AMD Fusion kommt Anfang 2011, APU mit 1 Milliarde Transistoren, erster Die-Shot
 
Kommt mir irgendwie bekannt vor der I5 hat doch auch nen Grafikchip mit drauf....

nich der i3?

bin ja gespannt was des wird mit Fusion
Die Boardhersteller müssen da ja dann auf ganz neuem Grund beginnen.
Und ich glaube kaum dass das Gane leistungstark genug ist für dann aktuelle spiele.
Aber als Plattform für Netbooks/Notebooks wäre das sicher interessant
 
nich der i3?

bin ja gespannt was des wird mit Fusion
Die Boardhersteller müssen da ja dann auf ganz neuem Grund beginnen.
Und ich glaube kaum dass das Gane leistungstark genug ist für dann aktuelle spiele.
Aber als Plattform für Netbooks/Notebooks wäre das sicher interessant
Für mich hat das etwas von Onboard-Grafik. Wirklich gigantische Leistung ist davon kaum zu erwarten. Für mobile/ HTPC & co sicher ganz gut zu gebrauchen, aber für Spiele sehe ich da kein Land.

@w0mbat
Habe ich auch so in Erinnerung...
 
Könnte AMD dann nicht technisch gesehen hochparallelisierbare Aufgaben auf die Grafikeinheit verlagern und so das Ding ordentlich beschleunigen? Mit DX11 wäre das ja möglich, sogar X86-64 könnte man integrieren.
 
Fusion plant AMD ja bereits schon etwas länger...und jetzt soll es erst 2011 erscheinen?

Naja, da wird man wohl wieder ziemlich weit hinter Intel zurückliegen...und die Technik wird dann 2011 auch wieder überholt sein.
 
Was? So weit ich weiß packt Intel einfach eine CPU und eine GPU unter einen Headspreader, da ist doch nichts integriert, oder hab ich das falsch in Erinnerung?
Kann man so und so sehen.
Die GPU ist als extra DIE in/auf dem CPU- Package des Core i3 Prozessors integriert, aber eben nicht in den Core i3- CPU- DIE. Zu nem Prozessor gehört ja mehr als nur der DIE.
 
Naja, außer mit nem großen Bleiakku glaube ich nicht, dass diese CPU/GPU-Kombi wirklich einen Tag laufen würde. Generell kann ich diesen Kombinationen absolut nichts abgewinnen.
 
Naja, außer mit nem großen Bleiakku glaube ich nicht, dass diese CPU/GPU-Kombi wirklich einen Tag laufen würde. Generell kann ich diesen Kombinationen absolut nichts abgewinnen.

Genau, weil ne AMD-Grafikkarte drinsteckt...

@ Topic: Für Notebooks mags interessant sein, jedoch ist die Frage, ob man einen Unterschied (Batterielaufzeit etc.) zu 2 Dies merken kann... Der Phenom I war ja auch der erste Prozessor mir 4 nativen Cores, der Core 2 Quad wurde trotzdem deutlich öfter verkauft (sogar ich hab einen :P)

Die sollten mal trotzdem lieber andere Sachen erfinden... Komplett abschaltbare Cores, FSB/Multi/Spannungsregelung unter Windows, ...
Wie lange warte ich schon da drauf, der Q6600 rennt hier auf 3,4ghz (bzw. ~2,25, wenn C1E mal runtertaktet - was grade in Vista/7 nicht mehr oft passiert)
Was natürlich der Overkill wäre... Graka in Windows "abschalten" -> onboard-Chip übernimmt und schleift das Signal an die Graka durch :D Unter abschalten verstehe ich dann mindestens passive Kühlung und kaum noch Stromverbrauch... Auf so ne Entwicklung warte ich wirklich schon sehr, sehr lange^^
 
Mal schauen.Vlt. könnte das ne echte Konkurenz zu den Intel CULV Chips sein..Ein stark runter getakteter Phenom2 in 32 Nanometer ist bestimmt ziemlich sparsam.Aber dauert leider noch ziemlich lange.
Solange gibt es leider nur Atom und CULV Chips von Intel in dem Bereich.
 
Core i3 kommt mit integriertem Kern. :daumen:

Genauer wäre "Clarkdale". Afaik soll der dann unter den Namen Core i3, Core i5 (mit HT-> 4 Kerne) und Pentium G in den Handel kommen. (behaupten jedenfalls die PCGH-News ;) )


Was? So weit ich weiß packt Intel einfach eine CPU und eine GPU unter einen Headspreader, da ist doch nichts integriert, oder hab ich das falsch in Erinnerung?

Jein. Sie packen eine CPU und eine Northbridge mit IGP unter den Heatspreader. Die Grafikeinheit ist also z.B. im gleichen Chip wie der Speichercontroller und DMI integriert (also Teilen, die beim Lynnfield als CPU-Bestandteil zählen), aber nicht mit den eigentlichen Recheneinheiten. (quasi identisch zur Kombination Core2-G45-ICH10, nur dass die ersten beiden per QPI statt FSB verbunden sind und die ICH10 jetzt ?5? heißt und noch Taktgeber&Co enthält)


Könnte AMD dann nicht technisch gesehen hochparallelisierbare Aufgaben auf die Grafikeinheit verlagern und so das Ding ordentlich beschleunigen? Mit DX11 wäre das ja möglich, sogar X86-64 könnte man integrieren.

Mit DX11, d.h. via Software können sie (oder besser: Programmierer von Anwendungen) das auch komplett ohne Integration. Auf reiner CPU/x86 Ebene könnte es schwierig werden, zu erkennen, welche Aufgaben ausreichend parrallelisiert sind. Das ganze nützt einem schließlich nichts, wenn die CPU nur noch mit der Analyse von Code beschäftigt ist.
Interessant wäre es natürlich mittelfristig, wenn sich alle Einheiten über den gleichen Decoder ansprechen lassen oder zumindest die ganzen Multimedia-Befehle für die Shadereinheiten recodiert werden, aber ich wüsste nicht, dass AMD das plant. (zumal heutige IGPs ja ohnehin schon mit genug anderen Berechnungen ausgelastet sind)
 
Für mich hat das etwas von Onboard-Grafik. Wirklich gigantische Leistung ist davon kaum zu erwarten. Für mobile/ HTPC & co sicher ganz gut zu gebrauchen, aber für Spiele sehe ich da kein Land.
Interessant ... das ist als Fusion. Wohl doch noch Abgespekter als ich es je gedacht hätte. :devil:

Was habt ihr denn erwartet??? Phenom II x4 4GHz mit Radeon 5890?

Genau, weil ne AMD-Grafikkarte drinsteckt...

Dumm nur dass es diese Kombination auch von Intel geben wird.

Was natürlich der Overkill wäre... Graka in Windows "abschalten" -> onboard-Chip übernimmt und schleift das Signal an die Graka durch :D Unter abschalten verstehe ich dann mindestens passive Kühlung und kaum noch Stromverbrauch... Auf so ne Entwicklung warte ich wirklich schon sehr, sehr lange^^

Gibt's/gab's schon: Hybrid-SLI; hat sich aber wohl nicht durchgesetzt, warum auch immer.
 
wenn die gpu in die grafikkarte integriert wird, wie wird denn dann der monitor angeschlossen? muss dann jedes mainboard hinten entsprechende anschlüsse haben?
 
Dumm nur dass es diese Kombination auch von Intel geben wird.

Bucklew ist aber extremer Nvidia-Fanboy, ich hätte im Prinzip nichts dagegen. :D

Gibt's/gab's schon: Hybrid-SLI; hat sich aber wohl nicht durchgesetzt, warum auch immer.


Najo, kommt für mich mit ATi- Grafikkarten halt nicht infrage ... wenn ich das richtig in Erinnerung habe, musste man doch dafür immer rebooten? Kenn das eigl nur von Notebooks..
 
Zurück