AMD Fusion kommt Anfang 2011, APU mit 1 Milliarde Transistoren, erster Die-Shot

Was habt ihr denn erwartet??? Phenom II x4 4GHz mit Radeon 5890?

zur info das wird ne 5970er werden ...

wenn die gpu in die grafikkarte integriert wird, wie wird denn dann der monitor angeschlossen? muss dann jedes mainboard hinten entsprechende anschlüsse haben?

so was gibts heute schon und wird gewöhnlich als onboard grafik bezeichnet ...

zu dem ist die gpu schon seit anfang an in die grafikkarte integriert :lol:
 
Dumm nur dass es diese Kombination auch von Intel geben wird.
Die mir genauso wenig gefällt. Schließlich geht damit einer der riesigen Vorteile eines PCs flöten, das man ihn nämlich aufrüsten kann. Bei BüroPCs mag das ja noch ok sein, aber da kann man dann auch direkt nen Atom nehmen und fährt noch billiger.
 
Also ich mach mir bei der entwicklung kein echten sorgen um die Aufrüstbarkeit.. High-end wird man eh nie so auf einem Chip bekommen, wegen der abwärme und für alles andere doch eh Ausreichend.
Wenn das heutige 45nm SOI verfahren von GF ungeeignet ist für ATIs GPUs, wieso geht das dann mit 32nm? Warscheinlich geht das auch nur mit langsamerer Grafik-Einheit..
 
Najo, kommt für mich mit ATi- Grafikkarten halt nicht infrage ... wenn ich das richtig in Erinnerung habe, musste man doch dafür immer rebooten? Kenn das eigl nur von Notebooks..

Nö, Hybrid-SLI funktionierte auch ohne reboot, aber afaik musste man immer manuell umschalten.
Hauptproblem war aber, dass es nur bis 1920x1200 unterstützte (-> alle Enthusiasten raus), nur mit Oberklasse-Karten (-> alle Einsteiger raus), oft nur Karten im Referenz-Design (-> 3/4 der verbleibenden raus) und nur auf einigen Nvidia IGP-Chipsätzen (-> ~alle Intel-Besitzer raus, die Nvidia nur für SLI und dann 780/790 kauften, alle AMD-Nutzer mit Interesse an 2x16 raus).
Unterm Strich konnten damit nur Leute die Technik nutzen, die ein Mittelklasse Nvidia-Board den Mittelklasse-Lösungen von Intel und AMD vorzogen und die dann die richtige Oberklasse Nvidia-Karte nutzten. Wenn man die vielen beweggründe für die Hardwareauswahl bedenkt, kann man sich vorstellen, dass das nicht gerade viele waren (zumal Leute mit Interesse am stromsparen in der Zeit viele schlechte Meldungen über Nvidia gehört haben...).
Nach einer Generation hat Nvidia die Sache dann still und heimlich eingestellt. Wenn mal ein Kommentar kam, dann ging es in Richtung "fehlendes Interesse", viele vermuten aber, dass man einfach keine vernünftige Zusammenarbeit mit Windows hinbekommen hat.



Seh ich genauso! Für Billig-PCs kann man ja gern die GPU ins mainboard packen, aber in die CPU? Ne, danke...

CPU <-> Mobo - wo liegt der Unterschied? Dank IMC sind die Chancen, dass man ein Mittel-/Unterklassesystem nach seiner (i.d.R. langen) Lebenszeit nochmal aufrüsten kann, doch endgültig bei null angelangt. Also tauscht man sowieso Board und CPU und welche von beiden die Grafikeinheit enthält, ist egal.
 
Hauptproblem war aber, dass es nur bis 1920x1200 unterstützte (-> alle Enthusiasten raus), nur mit Oberklasse-Karten (-> alle Einsteiger raus), oft nur Karten im Referenz-Design (-> 3/4 der verbleibenden raus) und nur auf einigen Nvidia IGP-Chipsätzen (-> ~alle Intel-Besitzer raus, die Nvidia nur für SLI und dann 780/790 kauften, alle AMD-Nutzer mit Interesse an 2x16 raus).
Und (last but not least) verbrauchen selbst heutige High-End-Karten nur noch 20-30W im Idle, womit das Einsparpotential eines Chipsatzes verdammt gering wird. Und natürlich das Problem Windows, ließe sich wohl nur wirklich lösen mit einer SLI-Brücke, hinter der die zwei GPUs (Chipsatz+diskret) für Windows versteckt laufen.

Was man natürlich auch nicht vergessen sollte: Das Mobo mit Chipsatzgrafik kostet Geld, die Grafikkarte mit Zusatzbauteilen, der Support - das kriegt man mit dem bisschen weniger Leistungsaufnahme nie wieder raus.

CPU <-> Mobo - wo liegt der Unterschied? Dank IMC sind die Chancen, dass man ein Mittel-/Unterklassesystem nach seiner (i.d.R. langen) Lebenszeit nochmal aufrüsten kann, doch endgültig bei null angelangt. Also tauscht man sowieso Board und CPU und welche von beiden die Grafikeinheit enthält, ist egal.
Was z.B. beim AM2 so nicht stimmt. Problematisch sind ja alleine die Monitorausgänge - defakto MÜSSEN ja alle drauf, weil man sie nur mit mainboard-wechsel tauschen kann (im vergleich zu einer diskreten karte, nicht chipsatzgrafik). Und auch die Sockel müssen ja deutlich komplizierter (=teurer) werden um die Grafik anzusteuern. Besser ist natürlich die Memoryanbindung, die ja dank der IMCs ziemlich mies geworden ist.
 
Die Grafikkarte ohne Bildausgabe kostet weniger.
Die Verbrauchsoptimierung von (High-End-)Grafikkarten entfällt.
Die Chipsatzgrafik kostet bislang wenig Aufpreis und kann in Zeiten von GPGPU weitere wertvolle Dienste leisten.
Bleibt der Support bzw. der Ärger mit Windows - alles andere ist einfach nur ein revolutionär anderes Konzept, das sich natürlich nicht von heute auf morgen durchsetzt. (insbesondere, wenn es als limitierte und hochpropietäre Plattform daherkommt)




Also zumindest Intel wird die Monitoransteuerung im Chipsatz belassen, so dass die Verbindung im Sockel vergleichsweise einfach gehalten werden kann und man auch unabhängig von der CPU die Ausgänge variieren kann. (ohne Northbridge und meist auch ohne Zusatzcontroller wohl in Zukunft eines der wenigen Unterscheidungsmerkmale von Einsteigerboards, wenn nicht sowieso einfach alle alles verbauen, was ja auch nur ein paar Cent Unterschied macht. Und im Gegensatz zu Grafikkarten haben Mainboards auch genug Platz für Anschlüsse)
 
Die Grafikkarte ohne Bildausgabe kostet weniger.
Die Verbrauchsoptimierung von (High-End-)Grafikkarten entfällt.
Die Chipsatzgrafik kostet bislang wenig Aufpreis und kann in Zeiten von GPGPU weitere wertvolle Dienste leisten.
Bleibt der Support bzw. der Ärger mit Windows - alles andere ist einfach nur ein revolutionär anderes Konzept, das sich natürlich nicht von heute auf morgen durchsetzt. (insbesondere, wenn es als limitierte und hochpropietäre Plattform daherkommt)
Selbst ohne Bildausgänge sind >90% der Bauteile trotzdem vorhanden und natürlich muss man die Karte auf Verbrauch optimieren (gibt ja immer noch leute, die keinen chipsatzgrafik haben) und natürlich wird ein chipsatz kleiner (= billiger), wenn er keine Grafik enthält. Müsste man also zwei verschiedene Grafikkarten entwickeln, was erneut viel zu teuer werden würde.

Also zumindest Intel wird die Monitoransteuerung im Chipsatz belassen, so dass die Verbindung im Sockel vergleichsweise einfach gehalten werden kann und man auch unabhängig von der CPU die Ausgänge variieren kann.
Womit das ganze noch unsinniger wird. Es ändert sich nur die Platzierung des Grafikkerns.
 
Wie willst du in einer kombinierten CPU/GPU denn die GPU wechseln? oder die CPU?
Äh, einfach ne Graka in den freien PCIe 16x Steckplatz stecken? Zumindest der Core i3 dürfte seinen PCIe- Controller vom großen Brurder geerbt haben.
Die CPU- Aufrüstung wird halt etwas teurer, aber mal ehrlich: So oft werden die PCs für die diese CPUs gedacht sind nicht aufgerüstet werden, und wenn, dann wird die CPU wieder keine hunderte von Euros kosten.

Technisch mach die Sache evtl. nicht so viel sinn. Aus betriebswirtschaftlichen Gründen schon eher. Immerhin sperrt man damit mehr oder weniger andere Mobohersteller aus, was Low- Cost Systeme mit integrierter Grafik angeht. Welcher Sys-Integrator kauft denn schon ein System bei dem die GPU im CPU- Package integriert ist, und dann ein nV Board auf dem nochmal eine GPU integriert ist? Eben, das wird keiner machen.

Technisch gesehen könnte es Vorteile geben, wenn CPU und GPU auf einem DIE zusammen gefasst werden und die GPU somit vom meist schon kleineren Fertigungsprozess profitieren kann. Chipsätze werden ja oft noch gröber hergestellt.
Achja: Außerdem spart man sich etwas Aufwand, wenn GPU und CPU direkt den gleichen Speichercontroller ansprechen können. Denn dadurch, dass der Speichercontroller in die CPU gewandert ist, ist es etwas aufwendiger geworden, die Chipsatzgraka an den RAM anzubinden.
 
Mit DX11, d.h. via Software können sie (oder besser: Programmierer von Anwendungen) das auch komplett ohne Integration. Auf reiner CPU/x86 Ebene könnte es schwierig werden, zu erkennen, welche Aufgaben ausreichend parrallelisiert sind. Das ganze nützt einem schließlich nichts, wenn die CPU nur noch mit der Analyse von Code beschäftigt ist.
Interessant wäre es natürlich mittelfristig, wenn sich alle Einheiten über den gleichen Decoder ansprechen lassen oder zumindest die ganzen Multimedia-Befehle für die Shadereinheiten recodiert werden, aber ich wüsste nicht, dass AMD das plant. (zumal heutige IGPs ja ohnehin schon mit genug anderen Berechnungen ausgelastet sind)

Eine solche Zuteilung könnte mittels Befehlsbyte auf Assembler-Ebene völlig ohne weitere Analyse geschehen. Man müsste lediglich ein paar neue Erweiterungen implementieren, die ggf. einem Befehlsbyte noch ein "Kernbyte" oder sowas vorranstellen. Wenn dieses ausgelassen wird, berechnet der normale CPU-Kern das Datenbyte und wenn da halt noch was vor steht, geht das nachfolgende Befehls+Datenbyte an die GPU-Kerne.
 
also ich finde die idee immer noch genial, da man diesen kern oder kerne dann auch zur berechn ung der physik einsetzen könnte ... oder win7 zieht daraus die leistung fürs video konvertieren wärend man noch schön neben bei zocken tut ...
 
Eine solche Zuteilung könnte mittels Befehlsbyte auf Assembler-Ebene völlig ohne weitere Analyse geschehen. Man müsste lediglich ein paar neue Erweiterungen implementieren, die ggf. einem Befehlsbyte noch ein "Kernbyte" oder sowas vorranstellen. Wenn dieses ausgelassen wird, berechnet der normale CPU-Kern das Datenbyte und wenn da halt noch was vor steht, geht das nachfolgende Befehls+Datenbyte an die GPU-Kerne.

Ob das nun n Byte, n Bit oder n komplett anderer Befehlssatz ist, dass Problem bleibt: Wer solls setzen, wenn nicht die von mir genannten a) Entwickler (bzw. deren Compiler) oder b) aufwendige Analysealgorithmen?
 
Na super und dann hat man die GPU in der CPU mitbezahlt und nutzt sie nicht. Tierisch sinnfrei....
Deswegen sag ich ja auch, dass das hauptsächlich betriebswirtschaftliche Gründe hat.
Aber wie gesagt, da diese CPUs eh nicht für Spiele- PCs gedacht sind, ist dein Einwand eigentlich nicht so dramatisch für die Käufer.
 
Deswegen sag ich ja auch, dass das hauptsächlich betriebswirtschaftliche Gründe hat.
Das interessiert mich nur überhaupt nicht, welche betriebswirtschaftlichen Gründe das sind. Wenn ich für eine für mich sinnlose GPU in der CPU zahlen soll, kaufe ich es nicht. Das sind meine betriebswirtschaftlichen Gründe :ugly:

Aber wie gesagt, da diese CPUs eh nicht für Spiele- PCs gedacht sind, ist dein Einwand eigentlich nicht so dramatisch für die Käufer.
Klar, stimmt. Dafür würde ich aber bei der heutigen Leistungsfähigkeit der PCs eher in die Atom u.ä. Regionen gehen, da spart es sich noch mehr Geld.
 
Zurück