Interessant ist auch die Frage, ob es sich überhaupt noch lohnt, eine neue Highend-Architektur aus dem Hut zu zaubern. Wenn künftig softwareseitig mehr mit GPUs gearbeitet wird, braucht es ja keine Highend-CPUs mehr.
Das ist AMDs Mantra, seit dem sie all ihr Vermögen, all ihren Besitz, große Teile ihrer Entwicklung und weite Teile künftiger Einnahmen in ATI versenkt haben. Haken: Bislang ist die Sache nicht aufgegangen. Weiterhin nutzen nur wenige Programme gpGPU und mittlerweile ist AMD endgültig zu klein, um derart stark vom bisherigen Konzept abweichende Standards zu etablieren. Die Hoffnung ruht jetzt auf HSA - aber AMD ist der einzige HSA-Partner, der x86 nutzt. Und bislang hat die Allianz afaik nicht einmal eine finale Entwicklungsgebung hervorgebracht, geschweige denn fertige Produkte.
Währenddessen erfreuen sich spezialisierte Einheiten wachsender Beliebtheit (und graben damit gerade im Multimediabereich sämtliches Potential für gpGPU ab) und ausgerechnet Intel findet mit einer handvoll gpGPU-Funktionen Beachtung beim Enduser (QuickSync) und stellt zugleich die einzige Plattform, die weit genug verbreitet ist, um für Entwickler attraktiv zu werden. Und da, wo High End CPUs hingehören/ersetzt werden könnten, sieht sich selbst Platzhirsch Nvidia auf einmal von einem x86-sehr-Spätzünder Xeon Phi überrumpelt - und von Firestream spricht eigentlich gar niemand mehr (es sei denn, ein Beispiel für nicht-ganz-fertige-nicht-ganz-stabile-PITA-Entwicklungsumgebung-und-Treiber ist gesucht).
Mit den Konsolen hätte AMD vielleicht das Ruder herumreißen können - aber mal ehrlich: Die PS4 ist jetzt schon im GPU-Limit und der X1, deren SRAM genial für gpGPU wäre, geht es noch schlechter. Trotz wirklich guter Entwicklungsbedingungen werden sich die Spiele-Entwickler imho auch da nicht um Auslagerung von Funktionen bemühen.
Fazit: Wenn man die nötigen Ressourcen hätte um sich mit Haswell-E anzulegen, wäre eine High-End-Architektur eine durchaus gute Idee. Wenn.
In einer Parallelwelt hat Intel sich auf ein Modul-Konzept konzentriert und AMD innovative CPUs, wo nichts geshared wird.
Intels Konzept hat sich somit als das bessere erwiesen, AMD geht wieder zurück Richtung Module.
Was ich offensichtlich sagen möchte,
"Offensichtlich"? Bei mir führten die Zeilen zu
ich sehe die Probleme konkret an der Implementierung und nicht am Konzept an sich.
Aber warum du das so siehst, das bleibt dein Geheimnis?
Wenn man die Sachen so simpel sieht, würde es mich ehrlich gesagt interessieren, was überhaupt eine nennenswerte Arbeit in den letzten Jahren bei CPUs dargestellt hat?
Intels Ring-Bus war sicherlich ein aufwendigeres Konzept, AMDs iGPU-Anbindung ist sehr komplex und ohne Vorbilder (ob sie diese Komplexität wert ist, wird sich zeigen müssen), das Modul-Konzept von Bulldozer war, auf CPU-Ebene imho die größte und komplexeste Neuerung seit dem 8087 (und es definitiv nicht wert), auf Kern-Ebene wäre es der Hot Clock von Williamette/Northwood (der letztlich genauso floppte, wie bei Nvidia) und SMT ist ganz sicher auch eine Erwähnung wert. Im Infrastrukturbereich könnte man HyperTransport und QPI und ggf. DDR beim K7 nennen. Auf kleinerer Ebene würde mich mal interessieren, wie Intel die niedrigen Cache-Latenzen schafft oder die relativ gute Taktbarkeit der Core-Architektur ohne zusätzliche Pipelinestufen realisiert. Aber große Durchbrüche in diesem Bereich sind zumindest nie öffentlich geworden.
Worum es mir aber eigentlich ging: An der eigentlichen Arbeitsweise der Kern hat sich bei der Einführung von K8 rein gar nichts geändert, die wurde 1:1 übernommen. Ggf. hat ein AMD-Entwickler gute Arbeit in der räumlichen Anordnung geleistet, so dass trotz der breiteren Register nicht zuviel Platz verbraucht wurde - aber andere technische Meisterleistungen kann ich beim Abschied von K7 nicht entdecken. Und AMD wird mehr brauchen, um den derzeitigen Rückstand aufzuholen, als ein sauberes Layout.
Was im Moment fehlt sind richtige Killerapplikationen die nur auf einem PC mit seinen stromintensiven Rechenwerken laufen, die Grakahersteller sehen 4K wohl als Geschenk des Himmels an und nun fehlt sowas für die CPU.
So etwas fehlt den CPU-Hersteller seit verdammt langer Zeit.
Die letzte neue Funktion, die jemanden hinter dem Ofen hervogelockt hat, war die Video-Wiedergabe. Da reicht heute ein ARM-Tablet für nahezu alle Ansprüche. Computerspiele haben noch eine zeitlang weiter gepuscht - aber da steigert sich die CPU-Nutzung seit Ende der 90er Jahre kaum noch. Nicht zuletzt weil die Entwicklung sich fast komplett auf die Optik beschränkt, während sich die KI eher noch rückwärts bewegt und auch die Physik seit einem Jahrzehnt auf der Stelle tritt. Das einzige, was Heimanwender-CPUs heute noch regelmäßig auslasten düfte, ist schlecht optimierter Multiplayer-Code und Single-Thread-F2Ps.
Dann vergleich mal den FX 8350 mit dem 990X, 315mm² gegen 239mm² im gleichen Fertigungsprozess. Der 990X ist in jeder Hinsicht schneller, kam 2 Jahre früher raus, besser übertaktbar und zu allem Überfluss auch noch billiger herzustellen.
Du hast vergessen, dass er auf seiner Fläche auch noch 50% mehr Speicherinterface und einen kompletten PCIe-Controller unterbringt, für den der FX noch einen zusätzlichen externen Chip braucht.
Wenn alles glatt geht, dann baut AMD also 2015 den Vorsprung von Intel etwas ab, und muss dann 2016 nur noch eine kleinere Strecke bewältigen.
Wohlgemerkt: Um den Rückstand auf Intel 2014 einzuholen. Stellt sich die Frage, ob es eine ausreichende Leistung ist, 2017 mit Haswell konkurrieren zu können?
Wen meinst du denn mit "Manager"? Rory? Der kann fast nichts für die aktuelle Situation. Weißt du, wann er ernannt wurde? August 2011, da war es schon zu spät zum Umdenken, da war kein Geld mehr da. Rory hat das einzig richtige getan, er hat die Firma zusammengeschrumpft, um ein anständiges, sauberes Fundament hinzubekommen. Und so ein Fundament bekommt man nicht schnell mal in 2 Wochen hin.
In meinen Augen läuft die Firma bis jetzt noch nicht ganz rund, auch wenn ich den Abschluss des "gesunden Fundaments" in den nächsten Monaten kommen sehe.
Wenn DANN nichts passieren würde, dann könntest du gerne von einer unfähigen Leitung reden, aber wie dir vielleicht aufgefallen ist, steht in der Überschrifft, dass sie daran arbeiten
Hmmmm
Rorys Sanierungskurs machte zunächst einmal einen guten Eindruck - aber jetzt gehts schon wieder los mit neuer Architektur und parallel dazu hat man das ARM-Projekt gestartet. Letzteres klingt für mich nach richtig schlechtem Management: "Lass das machen, womit gerade alle anderen so erfolgreich sind"
big fail
Den inkompetenten Manager der die ARM Sparte verkauft sowie die Geode Sparte dicht gemacht hat und die geniale Weissagung "Smartphones und Tablets sind nur ein vorrübergehendes Phänomen" von sich gegeben hat wurde schon vor Jahren gefeuert.
Ich mag mich irren - aber AMD hatte afaik nie eine ARM-Sparte. Intel waren diejenigen, die die Xscale-Sparte verkauft haben. AMDs kleinste Chips waren Geode. (Deren Abstoßung imho aber noch vertretbar war. Schließlich hatte man da selbst etwas darbendes eingekauft und nicht wirklich etwas draus gemacht)
Da der Desktop PC Markt stagniert ist es esentiell soetwas wie eine APU zu entwickeln oder warum glaubst du hat Intel allen Normalo-CPUs seit Sandy Bridge einen Grafikkern spendiert?
Intel hat schon immer iGPUs verkauft. Nach der Verlagerung des Speichercontrollers in die CPU musste zwangsläufig auch die GPU aus dem Chipsatz ausziehen und befindet sich somit so oder so auf dem DIE. Intel könnte allenfalls mehr Varianten mit deaktiverter Grafikeinheit anbieten - macht aber auch nicht viel Sinn.
Zur FX Architektur muß man sagen das AMD damals vor der Wahl stand Intels bessere i7 Architektur mit einem weiterentwickeltem 32nm Phenom II oder III zu kontern oder ob sie etwas völlig anderes wagen sollten.
AMD hat mit der Bulldozerentwicklung zur Jahrtausendwende begonnen, als noch gar nicht an Phenoms zu denken war. Es gibt sogar das Gerücht, dass K10 nachträglich eingeschoben wurde. (Was technisch glaubwürdig klingt, schließlich arbeitete man sowieso an Interconnects und Shared L3, die restlichen Phenomzutaten stammen aus dem K7/8-Regal)
Die Verheißungen waren ja auch wirklich groß, 10% mehr Chipfläche bei fast doppelter Leistung, man könnte also Intels 4 Kern CPUs mit besseren 2 Kernern plätten. Das die Sache im Debakel endete wissen wir heute, damals schien das noch eine gute Idee zu sein.
Damals, als AMD Bulldozer erstmals öffentlich erwähnt hat, schienen auch "10 GHz" noch ein wichtiger Aufdruck auf Folien zu sein. Diesen Aspekt nach dem Netburst-Debakel beizubehalten, kann man getrost als fragwürdige Entscheidung bezeichnen. Letztlich tapste Bulldozer jedenfalls in genau die gleiche Falle, in der der Pentium verendete: Deutlich höhere Leistung bei kaum größerer Fläche war/ist durchaus möglich, bedeutet aber hohe Anforderungen an die Fertigung (die diese nicht immer erfüllen kann - siehe 32 nm GF genauso, wie 90 nm Intel) und erfordert ein Marketing, dass 200-300 W CPUs los wird. (Intel hatte keins. AMD hat keins.)