Fusion und Llano: AMD mit neuen Details zur 32nm-Architektur

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Fusion und Llano: AMD mit neuen Details zur 32nm-Architektur gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Fusion und Llano: AMD mit neuen Details zur 32nm-Architektur
 
alles sehr interessant und spannend, aber wie immer bei amd stellt sich mir die frage: kommt daas zeugs wirklich und kommt es pünktlich?
 
Außerdem werden 11Lagen Kupfer verwendet, bei Intel nur 9 immoment wen ich mich nicht irre, bin gespannt was da für CPUs rauskommen :), aufjedenfall viel Glück für AMD :)
 
Ich hoffe dass AMD wenigstens diesmal rechtzeitig Prozessoren im neuen Fertigungsprozess präsentieren kann, damit es zu mehr Wettbewerb und somit geringeren Preisen bei CPU's kommt als damals zur Einführung der 45nm-C2D, als AMD noch mit 65nm-CPU's daherkam und somit keine wirkliche Alternative war.

Zwar ist Intel bereits mit seinen Clarkdale-Prozessoren in 32nm hervorgeprescht, da alle jedoch zwangsweise über eine integrierte Graphikeinheit verfügen sind diese nur für HTPC'S und den ein oder anderen Office-PC interessant. Jedoch wird in diesem Jahr (laut Intel) keine Vierkern-CPU in 32nm erscheinen, somit hat AMD die Chance, in 2011 zeitgleich mit Intel entsprechende CPU's ohne integrierte Graphikeinheit (ebenjene welche für uns interessant sind) auf den Markt zu bringen. Deswegen hoffe ich dass es nicht nur bei diesen Llanos (wie auch immer man das ausspricht) bleiben wird.
 
Schon peinlich für AMD. Damals nach der Übernahme von ATI hatte man groß getönt, dass schon in ein oder zwei Jahren Fusion käme. Und was ist passiert? Nicht nur, dass man Fusion seither ständig verschiebt, jetzt ist Intel auch noch zuerst mit einem solchen Produkt auf dem Markt. Bald kommen die Clarkdales ja auch für Notebooks und grade da macht dieses Konzept wie ich finde besonders viel Sinn. Und wieder hat AMD nichts passendes in der Pipeline, obwohl man ja mit Fusion so große Töne spuckte.
 
Schon peinlich für AMD. Damals nach der Übernahme von ATI hatte man groß getönt, dass schon in ein oder zwei Jahren Fusion käme. Und was ist passiert? Nicht nur, dass man Fusion seither ständig verschiebt, jetzt ist Intel auch noch zuerst mit einem solchen Produkt auf dem Markt. Bald kommen die Clarkdales ja auch für Notebooks und grade da macht dieses Konzept wie ich finde besonders viel Sinn. Und wieder hat AMD nichts passendes in der Pipeline, obwohl man ja mit Fusion so große Töne spuckte.

naja, intel zuerst? ich weiß nicht, aber das, was derzeit von intel auf dem markt ist hat nichts mit einer fusion von cpu und gpu zu tun, er ist lediglich ein gehäuse.

bezüglich fusion hat doch aber amd in der vergangenheit immer gesagt: "the future is fusion" und wir leben ja bekanntlich in der gegenwart. ;)
 
Außerdem werden 11Lagen Kupfer verwendet, bei Intel nur 9 immoment wen ich mich nicht irre, bin gespannt was da für CPUs rauskommen :), aufjedenfall viel Glück für AMD :)

AMD hatte bereits bei der 65nm K8 11 Kupferschichten...

ich bin gespannt, inwieweit der Llano auftrumpfen wird...

das HKMG mit SOI klingt auf jedenfall interessant

€dit & OT:
juhu 1000 Posts :banane: :bier:
 
naja, intel zuerst? ich weiß nicht, aber das, was derzeit von intel auf dem markt ist hat nichts mit einer fusion von cpu und gpu zu tun, er ist lediglich ein gehäuse.

bezüglich fusion hat doch aber amd in der vergangenheit immer gesagt: "the future is fusion" und wir leben ja bekanntlich in der gegenwart. ;)

Genau so habe ich das Fusion-Konzept auch verstanden, und die "Folien" belegen ja offensichtlich, daß es AMD nicht darum geht, CPU und GPU in einem Gehäuse zu vereinen.

Vielmehr sollen Berechnungen in beliebigen Programmen automatisch an die diejenige Recheneinheit abgegeben werden, die dafür am Besten geeignet ist. Und das erklärt wohl auch den großen Entwicklungsaufwand, denn nicht nur hardware- sonden auch softwareseitig (Treiber) stand sehr viel Arbeit an.

Wenn das wirklich klappt, könnten Benchmarks in Zukunft sehr interessant aussehen. Denn das Fusion-Konzept sorgt per se wohl nicht dafür, daß AMD-APUs in allen Bereichen den Kopf vorne haben, allerdings wird der Rechenvorsprung in einigen Disziplinen ggf. exorbitant sein.

Im Prinzip scheint Fusion so ähnlich zu funktionieren, wie CUDA von NVIDIA, hat allerdings den großen Vorteil, daß die Komponenten aus einer Hand kommen und zudem auch noch auf engstem Raum beieinander liegen. Das bedeutet geringere Latenzen, höhrere Effizienz und mit etwas Glück auch einen deutlich größeren Funktionsumfang.

Aber warten wirs ab, ich bin ja kein großer Freund von Folien, echte Produkte sind mir lieber ;-)
 
Das sind alles Spekulationen. Schon damals, bei der Einführung des Phenoms konnte AMD ja nicht aufhören zu betonen, dass es sich um ein natives Vierkerndesign handelt und nicht um einen belächelten "Dopplewhopper" wie bei Intel. Und was ist passiert? Die Core 2 Quads hatten die Phenoms aber sowas von im Griff. Und was lernen wir daraus? Es ist vollkommen egal wie ein Konzept realisiert ist. Auch wenn sich Fusion "eleganter" anhört als zwei Dies auf einem Substrat, das was zählt ist was hinten rauskommt. Und hier hat Intel die Nase nun mal vorne, denn AMDs Fusion ist ja noch nicht mal auf dem Markt.
 
Das sind alles Spekulationen. Schon damals, bei der Einführung des Phenoms konnte AMD ja nicht aufhören zu betonen, dass es sich um ein natives Vierkerndesign handelt und nicht um einen belächelten "Dopplewhopper" wie bei Intel. Und was ist passiert? Die Core 2 Quads hatten die Phenoms aber sowas von im Griff. Und was lernen wir daraus? Es ist vollkommen egal wie ein Konzept realisiert ist. Auch wenn sich Fusion "eleganter" anhört als zwei Dies auf einem Substrat, das was zählt ist was hinten rauskommt. Und hier hat Intel die Nase nun mal vorne, denn AMDs Fusion ist ja noch nicht mal auf dem Markt.

Stimmt zT, aber manche Leute sprechen auch gerne über Ideen. Es ist kein Problem, wenn für dich nur die resultierenden Fakten zählen. Nicht jeder ist offen für Visionen (wie sagte doch Helmut Schmidt: Wer Visionen hat, sollte zum Arzt gehen). ;-)

Egal ist es natürlich nicht, WIE ein Konzept realisiert ist, im Gegenteil, das WIE entscheidet oft über die Qualität. Bei den ersten Phenoms war das Konzept zweifelsfrei schlecht realisiert, deshalb konnten sie auch nicht überzeugen.

Im Übrigen ist ein Statement a la "Intel war besser und wird auch besser sein" eigentlich auch nichts anderes, als eine reine Spekulation ;-)
 
Das erfreuliche ist für mich weniger das Fusion Konzept, sondern dass in die Folien aussagen dass AMD noch 2010 erste Bulldozerbasierte Samples bekommen wird.
Wenn die Roadmap eingehalten wird, kann es passieren dass im Jahr 2011 doch wieder Spitzenleistung von AMD angeboten werden kann... ;-)
 
alles sehr interessant und spannend, aber wie immer bei amd stellt sich mir die frage: kommt daas zeugs wirklich und kommt es pünktlich?

Hängt davon ab, was du als pünktlich bezeichnest.
Erste Ankündigungen sehen afaik die Markteinführung von Fusion bis Ende 2009 vor.
Ich denke, dass wird man nicht mehr schaffen ;)
 
Zwar ist Intel bereits mit seinen Clarkdale-Prozessoren in 32nm hervorgeprescht, da alle jedoch zwangsweise über eine integrierte Graphikeinheit verfügen sind diese nur für HTPC'S und den ein oder anderen Office-PC interessant..
Wieso? Man könnte auch ne Grafikkarte ins System stecken und die Onboard- GPU deaktivieren :-o
 
Wieso? Man könnte auch ne Grafikkarte ins System stecken und die Onboard- GPU deaktivieren :-o

Und bezahlt für etwas das man nicht nutzt?


...und die "Folien" belegen ja offensichtlich, daß es AMD nicht darum geht, CPU und GPU in einem Gehäuse zu vereinen.

Vielmehr sollen Berechnungen in beliebigen Programmen automatisch an die diejenige Recheneinheit abgegeben werden, die dafür am Besten geeignet ist.

So hab ichs auch verstanden, und hoffe, dass es so wird. Wenn sie das hinbekommen - Hut ab!
Heterogene Systeme FTW :hail:
 
naja, intel zuerst? ich weiß nicht, aber das, was derzeit von intel auf dem markt ist hat nichts mit einer fusion von cpu und gpu zu tun, er ist lediglich ein gehäuse.

bezüglich fusion hat doch aber amd in der vergangenheit immer gesagt: "the future is fusion" und wir leben ja bekanntlich in der gegenwart. ;)
was heißt, dass solange ich lebe von AMD kein Fusion kommt, denn ich bin einer der lebt immer in der Gegenwart... und manchmal, wie meine Frau meint wenn sie wieder gut verdientes Geld für was sinnvolles ausgegeben hat und ich dem Geld nachheule, ja manchmal lebe ich auch in der Vergangenheit ;)
Intel ist in Sachen "in die CPU integrierte Grafik" viel näher dran als AMD, soweit ist das ja gesichert. Wäre Sandy Bridge nicht mangels Konkurrenz auf 2011 verschoben würden wir das sogar heuer noch mitkriegen ;)
Und bezahlt für etwas das man nicht nutzt?

ich würd mal so schätzen, dass die meisten Leute hier 90% der Hardware(einheiten) die sie besitzen Ungenutzt lassen, von daher zahlen viele für was, was sie nicht benutzen oder nicht 100% benutzen ;)
Genau so habe ich das Fusion-Konzept auch verstanden, und die "Folien" belegen ja offensichtlich, daß es AMD nicht darum geht, CPU und GPU in einem Gehäuse zu vereinen.

Vielmehr sollen Berechnungen in beliebigen Programmen automatisch an die diejenige Recheneinheit abgegeben werden, die dafür am Besten geeignet ist. Und das erklärt wohl auch den großen Entwicklungsaufwand, denn nicht nur hardware- sonden auch softwareseitig (Treiber) stand sehr viel Arbeit an.

Wenn das wirklich klappt, könnten Benchmarks in Zukunft sehr interessant aussehen. Denn das Fusion-Konzept sorgt per se wohl nicht dafür, daß AMD-APUs in allen Bereichen den Kopf vorne haben, allerdings wird der Rechenvorsprung in einigen Disziplinen ggf. exorbitant sein.

Im Prinzip scheint Fusion so ähnlich zu funktionieren, wie CUDA von NVIDIA, hat allerdings den großen Vorteil, daß die Komponenten aus einer Hand kommen und zudem auch noch auf engstem Raum beieinander liegen. Das bedeutet geringere Latenzen, höhrere Effizienz und mit etwas Glück auch einen deutlich größeren Funktionsumfang.

du meinst, dass die Grafikkarte so "tief" in die CPU integriert ist, dass die FPU durch die der Grafikkarte ersetzt wird und dafür umgekehrt auch einige Sachen und nicht so wie beim Intel Design wo einfach die GPU NEBEN der CPU gebaut wird (ob nun in einem Die oder Package)?
So wäre es zwar interessanter, glaube aber, dass AMD denselben Ansatz wie Intel verfolgt.
So oder so haben diese All-in-One Lösungen immer das Problem, dass der Release erst dann erfolgen kann, wenn die letzte Hardwareeinheit fertigdesigned ist. Und gibts bei nur einer kleinen eine unplanmäßige Verzögerung, verzögert sich das ganze Produkt. Weshalb man immer auf schon bekannte Architekturen zurückgreifen wird. Was wohl auch der Grund ist warum man nicht 2011 gleich mit ner Bulldozer und Next Gen integrierten ATI in einem Chip angreift, sondern mit mindestens einer veralteten Architektur, um Probleme zu minimieren. Was ja auch die Grundidee von Intels Tick-Tock ist. Niemals eine neue Architektur mit einem neuen Prozess gleichzeitig bringen. Dass man mit anderen Vorgehensweise auf die Fresse fallen kann, wurde ja schon oft genug eindrucksvoll bewiesen...
 
Zuletzt bearbeitet:
Ich halte Fusion für ein höchst interessantes Konzept. Softwareseitig wird das aber leider ein ziemlicher Verwaltungsaufwand, der das Potenzial dieser Technik unter Umständen stark einschränken kann.

Aber es nützt nichts hier zu spekulieren. Bis 2011 ist es noch eine lange Zeit und AMD kann noch viel machen. Und ich setze mir ohnehin keine Hoffnungen mehr in irgendwelche von AMD als Wunder angepriesene Technologien, nicht nach dem Phenom I Desaster (welches bis heute meinen Rechner ausbremst...).
 
Aber es nützt nichts hier zu spekulieren. Bis 2011 ist es noch eine lange Zeit und AMD kann noch viel machen. Und ich setze mir ohnehin keine Hoffnungen mehr in irgendwelche von AMD als Wunder angepriesene Technologien, nicht nach dem Phenom I Desaster (welches bis heute meinen Rechner ausbremst...).
hmm warum hast nicht einfach die Reviews angesehen? das hätte dir das Desaster mitm Phenom erspart. Für Spiele sollte der indes noch schnell genug sein und für alles andere nimmt man schon seit 2006 Intel ;)
 
hmm warum hast nicht einfach die Reviews angesehen? das hätte dir das Desaster mitm Phenom erspart. Für Spiele sollte der indes noch schnell genug sein und für alles andere nimmt man schon seit 2006 Intel ;)

Tja, damals war man halt noch jung^^
Aber mit 2,2 GHz ist der Phenom halt doch schon ziemlich langsam...
 
Zurück