FX-Nachfolger 2016 - hat AMD noch eine Chance? Das meinen Redakteure zu einem aktuellen Thema

Das wars mit AMD deren unfähige,ahnungslose und bornierte Manager die Firma gegen die Wand fahren:daumen2: AMD steht jetzt bis 2016 oder 2017 ohne Technisches Zugpferd da! Was soll den das für eine Firmenpolitik sein? Was wollen die in der Zeit verkaufen? Und sollte wie durch ein Wunder und das ist auch nötig AMD 2016 mit Intel wenigstens gleichziehen können sind sie bis dann wahrscheinlich schon fast Pleite,denn mit Spielekonsolen und APU,s werden sie nicht sehr weit kommen:(
Den Managern sollte anstatt Boni und Abfindungen zu zahlen regelmässig saftig in den Arsch getreten und das Gehalt gekürzt werden :devil:
 
Das wars mit AMD deren unfähige,ahnungslose und bornierte Manager die Firma gegen die Wand fahren:daumen2: AMD steht jetzt bis 2016 oder 2017 ohne Technisches Zugpferd da! Was soll den das für eine Firmenpolitik sein? Was wollen die in der Zeit verkaufen? Und sollte wie durch ein Wunder und das ist auch nötig AMD 2016 mit Intel wenigstens gleichziehen können sind sie bis dann wahrscheinlich schon fast Pleite,denn mit Spielekonsolen und APU,s werden sie nicht sehr weit kommen:(
Den Managern sollte anstatt Boni und Abfindungen zu zahlen regelmässig saftig in den Arsch getreten und das Gehalt gekürzt werden :devil:

Das ist aber sehr kurzsichtig gedacht. Die aktuelle Konsolen wird es wahrscheinlich wieder 6-7 Jahre geben. Und die Nachfrage danach ist sehr groß(siehe PS4). Und der PC Markt schrumpft eh weiterhin. Das ist traurig aber wahr. Und da noch mal neue Highendcpus zu entwickeln , nur um mit Intel gleichzuziehen? Vorstellen könnte ich mir es schon. Aber das Geld für die Entwicklung muss ja auch sicherlich auch wieder reinkommen. Aber Gamer-Pcs sind heutzutage nicht mehr so gefragt. In Amerika ist der PC-Markt übrigens schon fast tot. Deutschland wird da immer eine Ausnahme bleiben , weil wir nun mal ein PC Land sind. Im Highendbereich ist einfach aktuell nicht so viel zu holen. Und da kann es sich auch AMD leisten , dass Intel momentan die Leistungsspitze hat. Zu mal sich AMD als einzige Firma um CPUs und GPUs kümmert. Und Intel schon deutlich mehr unter Zugzwang stehen würde , wenn sich ihre CPUs nicht mehr so gut verkaufen würden. AMD hat dementsprechend einfach mehr Standbeine zu Verfügung(GPU+CPU+aktuelle Konsolen). Und die schlauste Taktik ist nicht immer , nur die Enthusiasten unter uns zu sättigen , sondern auf den Markt und die gegebenen Realitäten zu schauen , damit die Firma auch noch weiterhin bestehen kann.
 
Zuletzt bearbeitet:
AMD wird zwar nicht an die TDP Werte von Intel ran kommen, falls diese es allerdings schaffen sollten bis 2016 zumindest in 22 nm zu fertigen und das maximale raus holen, könnte es interessant werden.
Allerdings muss dann AMD versuchen wirklich eine CPU zu konstruieren, die wirklich Leistung pro Takt hat und nicht solch eine taktfreudige Gurke wie den Bulldozer/Vishera FX.
Eventuell haben sie dann auch schon die Möglichkeit integrierte GPUs als Beschleuniger zu verwenden.
Ich jedenfalls werde vermutlich noch zuvor auf eine Intel CPU umsteigen, mein Phenom II @ 3,9 GHz wird spätestens beim nächsten GPU Upgrade ausgetauscht werden.
 
Das wars mit AMD deren unfähige,ahnungslose und bornierte Manager die Firma gegen die Wand fahren:daumen2: AMD steht jetzt bis 2016 oder 2017 ohne Technisches Zugpferd da! Was soll den das für eine Firmenpolitik sein? Was wollen die in der Zeit verkaufen? Und sollte wie durch ein Wunder und das ist auch nötig AMD 2016 mit Intel wenigstens gleichziehen können sind sie bis dann wahrscheinlich schon fast Pleite,denn mit Spielekonsolen und APU,s werden sie nicht sehr weit kommen:(
Den Managern sollte anstatt Boni und Abfindungen zu zahlen regelmässig saftig in den Arsch getreten und das Gehalt gekürzt werden :devil:

1. da wären die konsolen xone und ps4, bzw. auch die wii mit der amd gpu
2. die apu´s von lowend bis midrange auch ohne igp, alles dabei
3. natürlich die gpu sparte nicht zu vergessen

amd kann sich durch den konsolen deal beim thema cpu praktisch in ruhe neu formieren,
sie müssen nur noch den apu und den kleinen server markt bedienen.
 
Zuletzt bearbeitet:
@mr.4EvEr
Mit sehr viel Glück könnte AMD bis dahin bereits weiter sein.
Klick mich zur Quelle


@Topic
AMD hat laut meinem Wissensstand "wahrscheinlich angekündigt", dass sie mit Excavator alle existierenden Pläne für die Modulbauweise umsetzen wollen.
Da fällt mir wieder die (alte) Folie ein: Klick
Mit viel Glück springen 10-15% mehr Leistung raus (Dank z.B. der Implementierung einiger Chipsatzerweiterungen, da fehlen bei AMD noch ein paar, die Heizgut hat, z.B. AVX2).
Irgendwo klingelt bei mir auch noch eine Folie (die nicht sonderlich alt war), bei der noch mehr Dinge angekündigt wurden, darunter einige der Heizgut Stromsparoptimierungen.

Wenn alles glatt geht, dann baut AMD also 2015 den Vorsprung von Intel etwas ab, und muss dann 2016 nur noch eine kleinere Strecke bewältigen.
 
1. da wären die konsolen xone und ps4, bzw. auch die wii mit der amd gpu
2. die apu´s von lowend bis midrange auch ohne igp, alles dabei
3. natürlich die gpu sparte nicht zu vergessen

amd kann sich durch den konsolen deal beim thema cpu praktisch in ruhe neu formieren,
sie müssen nur noch den apu und den kleinen server markt bedienen.






Damit alleine können sie sich nicht über Wasser halten! Und hier was zu den APU,s AMD mit drastischem Absatzeinbruch auf dem Grafikmarkt Die AMD Manager sind lauter Schwachköpfe wenn sie glauben das die APU,s es rausreißen werden,die sind bestenfalls ein weiteres Standbein mehr auch nicht! :(
 
Damit alleine können sie sich nicht über Wasser halten! Und hier was zu den APU,s AMD mit drastischem Absatzeinbruch auf dem Grafikmarkt Die AMD Manager sind lauter Schwachköpfe wenn sie glauben das die APU,s es rausreißen werden,die sind bestenfalls ein weiteres Standbein mehr auch nicht! :(

Kannst du bitte sachlicher argumentieren. Der PC-Markt ist im allgemeinen am schrumpfen. Und da bekommt auch AMD sein Fett weg. Und GPU-mäßig sind sie konkurrenzfähig. Ich weiß nicht , warum du die APUs als einzige Quelle siehst und deren Manager als Dummköpfe bezeichnest? Gehts noch...?
 
1. es sind 20% mehr fläche,
und amd selbst ging von 70-80% aus.

die 10% und doppel leistung ist fantasterei

Die 70-80% Mehrleistung bei 20% mehr Chipfläche ist auch Fantasterei.

Real sind, nimmt man den verbesserten 32nm Fertigungsprozess beim Bulldozer hinzu, selbe Leistung bei 80% mehr Chipfläche. Damit ist der FX quasi der ultimative Folp aller x86er CPUs, selbst der P4 wird um längen geschlagen.

Am Anfang war von etwa 10% mehr Chipfläche bei fast doppelter Leistung die Rede. Wenn man es richtig macht kann man theoretisch die Leistung pro Kern sogar mehr als verdoppeln (durch einen Cache der effektiv größer ist, mit dem Schönheitsfehler das ihn sich alle Teilen müssen).

4. Mein absoluter Favorit: neue Hardwaretechniken erforschen und nutzen, die wir bereits seit Jahrzehnten in der Hinterhand haben oder endlich mal anpacken! Was passiert zum Beispiel, wenn wir die Leiterbahnen nicht mehr weiter verkleinern können und die maximale Effizienz und Leistung erreicht ist, die mit unseren Leiterbahnen möglich ist? Dann sind wir gezwungen uns an neue Techniken zu wagen und durch die neu gewonnene Leistung werden wir ungeahnte Leistungen mit unseren Maschinen vollbringen können. Wenn wir uns vorstellen, dass unsere Technik mit langsamen Atomen zusammen arbeitet und diese durch Photonen austauschen würden, so könnten wir die Ausgangsleistung um ein vielfaches steigern, bei gleichzeitig weniger Wärme und ungeahnt höherer Energieeffizienz. Die Leistung optischer Technik, kann man mit unserer primitiven Technik überhaupt nicht vergleichen.

Warum gibt es keine Eier legende Woll-Milch-Sau? Weil sie noch keiner erfunden hat! Dabei haben wir bereits alles, um dies zu tun! Nur nicht den Willen und den Mut ;)

Tja,
Ideen gibt es viele nur leider haben sie den Schönheitsfehler das sie gegen den weit entwickelten Transitor antreten müssen während sie selbst bestenfalls so schnell sind wie ein Abbakus. Mit diesen Technologien kann einfach derzeit kein Geld verdient werden (Ok, die NSA kauft solche Computer um zu verstehen wie man sie Programmiert), von daher wird das ganze wohl noch einige Zeit in den Laboren von Universitäten versauern. Eventuell wird sich mal ein Risikokapitalgeber bereitwillig zeigen und dann könnte es ja so schnell gehen wie beim Fracking mit dem auch vorher kaum jemand gerechnet hat und das genau so finanziert wurde.
 
Zuletzt bearbeitet:
Kannst du bitte sachlicher argumentieren. Der PC-Markt ist im allgemeinen am schrumpfen. Und da bekommt auch AMD sein Fett weg. Und GPU-mäßig sind sie konkurrenzfähig. Ich weiß nicht , warum du die APUs als einzige Quelle siehst und deren Manager als Dummköpfe bezeichnest? Gehts noch...?







Dann erkläre mir mal bitte warum sich die konkurrenzfähigen APU,s so schlecht verkaufen? (die du nebenbei bemerkt ohne den grafikteil von ehemals ATI komplett in den Mülleimer schmeissen könntest!) Was willst du mit dem PC Markt? Da wurde schon lange nicht mehr das dicke Geld verdient! AMD würde dringend eine effiziente CPU Architektur sprich ein HighEnd Model brauchen um wieder auf die Beine zu kommen,was die unfähige und dilettantisch agierende Manager Riege komplett verpennt hat! Ist das sachlich genug wenn ich sage das das faule Managerpack bei AMD seit jahren seine Arbeit nicht oder nur unzulänglich erledigt! :daumen2:
 
Dann erkläre mir mal bitte warum sich die konkurrenzfähigen APU,s so schlecht verkaufen? (die du nebenbei bemerkt ohne den grafikteil von ehemals ATI komplett in den Mülleimer schmeissen könntest!) Was willst du mit dem PC Markt? Da wurde schon lange nicht mehr das dicke Geld verdient! AMD würde dringend eine effiziente CPU Architektur sprich ein HighEnd Model brauchen um wieder auf die Beine zu kommen,was die unfähige und dilettantisch agierende Manager Riege komplett verpennt hat! Ist das sachlich genug wenn ich sage das das faule Managerpack bei AMD seit jahren seine Arbeit nicht oder nur unzulänglich erledigt! :daumen2:

Deine Frage beantwortest du dir schon selbst , weil es eben am PC-Markt keine großen Gewinne mehr gibt. Und man erstmal genug beschäftigt ist mit den Konsolen und der Belieferung der CPUs und GPUs. Und die APUs waren schon von vornherein nur für eine kleine Zielgruppe bestimmt. Großen Umsatz wollte man damit nie machen.
 
Wen meinst du denn mit "Manager"? Rory? Der kann fast nichts für die aktuelle Situation. Weißt du, wann er ernannt wurde? August 2011, da war es schon zu spät zum Umdenken, da war kein Geld mehr da. Rory hat das einzig richtige getan, er hat die Firma zusammengeschrumpft, um ein anständiges, sauberes Fundament hinzubekommen. Und so ein Fundament bekommt man nicht schnell mal in 2 Wochen hin.
In meinen Augen läuft die Firma bis jetzt noch nicht ganz rund, auch wenn ich den Abschluss des "gesunden Fundaments" in den nächsten Monaten kommen sehe.

Wenn DANN nichts passieren würde, dann könntest du gerne von einer unfähigen Leitung reden, aber wie dir vielleicht aufgefallen ist, steht in der Überschrifft, dass sie daran arbeiten ;)
 
Dann erkläre mir mal bitte warum sich die konkurrenzfähigen APU,s so schlecht verkaufen? (die du nebenbei bemerkt ohne den grafikteil von ehemals ATI komplett in den Mülleimer schmeissen könntest!) Was willst du mit dem PC Markt? Da wurde schon lange nicht mehr das dicke Geld verdient! AMD würde dringend eine effiziente CPU Architektur sprich ein HighEnd Model brauchen um wieder auf die Beine zu kommen,was die unfähige und dilettantisch agierende Manager Riege komplett verpennt hat! Ist das sachlich genug wenn ich sage das das faule Managerpack bei AMD seit jahren seine Arbeit nicht oder nur unzulänglich erledigt! :daumen2:

Den inkompetenten Manager der die ARM Sparte verkauft sowie die Geode Sparte dicht gemacht hat und die geniale Weissagung "Smartphones und Tablets sind nur ein vorrübergehendes Phänomen" von sich gegeben hat wurde schon vor Jahren gefeuert. Das hat AMD bei den billigen Laptops, als Intel etwa ein halbes Jahr keine Atoms liefern konnte, enorm viele Marktanteile gekostet, da mußten sie erst Bobcat und Zacate entwickeln um dort wieder Fuß zu fassen. Ferner hat ihnen die ARM Fehlentscheidung jede Grundlage bei den Smartphones genomen. Aber wie gesagt: der Depp ist weg.

Da der Desktop PC Markt stagniert ist es esentiell soetwas wie eine APU zu entwickeln oder warum glaubst du hat Intel allen Normalo-CPUs seit Sandy Bridge einen Grafikkern spendiert? Das AMD ja so seine Probleme hat die Produkte am Markt zu plazieren, selbst wenn sie absolut überlegen sind ist ein altes (von Intel geschaffenes) Probem.

Zur FX Architektur muß man sagen das AMD damals vor der Wahl stand Intels bessere i7 Architektur mit einem weiterentwickeltem 32nm Phenom II oder III zu kontern oder ob sie etwas völlig anderes wagen sollten. Die Verheißungen waren ja auch wirklich groß, 10% mehr Chipfläche bei fast doppelter Leistung, man könnte also Intels 4 Kern CPUs mit besseren 2 Kernern plätten. Das die Sache im Debakel endete wissen wir heute, damals schien das noch eine gute Idee zu sein.
 
Interessant ist auch die Frage, ob es sich überhaupt noch lohnt, eine neue Highend-Architektur aus dem Hut zu zaubern. Wenn künftig softwareseitig mehr mit GPUs gearbeitet wird, braucht es ja keine Highend-CPUs mehr.

Das ist AMDs Mantra, seit dem sie all ihr Vermögen, all ihren Besitz, große Teile ihrer Entwicklung und weite Teile künftiger Einnahmen in ATI versenkt haben. Haken: Bislang ist die Sache nicht aufgegangen. Weiterhin nutzen nur wenige Programme gpGPU und mittlerweile ist AMD endgültig zu klein, um derart stark vom bisherigen Konzept abweichende Standards zu etablieren. Die Hoffnung ruht jetzt auf HSA - aber AMD ist der einzige HSA-Partner, der x86 nutzt. Und bislang hat die Allianz afaik nicht einmal eine finale Entwicklungsgebung hervorgebracht, geschweige denn fertige Produkte.
Währenddessen erfreuen sich spezialisierte Einheiten wachsender Beliebtheit (und graben damit gerade im Multimediabereich sämtliches Potential für gpGPU ab) und ausgerechnet Intel findet mit einer handvoll gpGPU-Funktionen Beachtung beim Enduser (QuickSync) und stellt zugleich die einzige Plattform, die weit genug verbreitet ist, um für Entwickler attraktiv zu werden. Und da, wo High End CPUs hingehören/ersetzt werden könnten, sieht sich selbst Platzhirsch Nvidia auf einmal von einem x86-sehr-Spätzünder Xeon Phi überrumpelt - und von Firestream spricht eigentlich gar niemand mehr (es sei denn, ein Beispiel für nicht-ganz-fertige-nicht-ganz-stabile-PITA-Entwicklungsumgebung-und-Treiber ist gesucht).

Mit den Konsolen hätte AMD vielleicht das Ruder herumreißen können - aber mal ehrlich: Die PS4 ist jetzt schon im GPU-Limit und der X1, deren SRAM genial für gpGPU wäre, geht es noch schlechter. Trotz wirklich guter Entwicklungsbedingungen werden sich die Spiele-Entwickler imho auch da nicht um Auslagerung von Funktionen bemühen.


Fazit: Wenn man die nötigen Ressourcen hätte um sich mit Haswell-E anzulegen, wäre eine High-End-Architektur eine durchaus gute Idee. Wenn.


In einer Parallelwelt hat Intel sich auf ein Modul-Konzept konzentriert und AMD innovative CPUs, wo nichts geshared wird.
Intels Konzept hat sich somit als das bessere erwiesen, AMD geht wieder zurück Richtung Module.

Was ich offensichtlich sagen möchte,

"Offensichtlich"? Bei mir führten die Zeilen zu :huh: ;)

ich sehe die Probleme konkret an der Implementierung und nicht am Konzept an sich.

Aber warum du das so siehst, das bleibt dein Geheimnis?

Wenn man die Sachen so simpel sieht, würde es mich ehrlich gesagt interessieren, was überhaupt eine nennenswerte Arbeit in den letzten Jahren bei CPUs dargestellt hat?

Intels Ring-Bus war sicherlich ein aufwendigeres Konzept, AMDs iGPU-Anbindung ist sehr komplex und ohne Vorbilder (ob sie diese Komplexität wert ist, wird sich zeigen müssen), das Modul-Konzept von Bulldozer war, auf CPU-Ebene imho die größte und komplexeste Neuerung seit dem 8087 (und es definitiv nicht wert), auf Kern-Ebene wäre es der Hot Clock von Williamette/Northwood (der letztlich genauso floppte, wie bei Nvidia) und SMT ist ganz sicher auch eine Erwähnung wert. Im Infrastrukturbereich könnte man HyperTransport und QPI und ggf. DDR beim K7 nennen. Auf kleinerer Ebene würde mich mal interessieren, wie Intel die niedrigen Cache-Latenzen schafft oder die relativ gute Taktbarkeit der Core-Architektur ohne zusätzliche Pipelinestufen realisiert. Aber große Durchbrüche in diesem Bereich sind zumindest nie öffentlich geworden.

Worum es mir aber eigentlich ging: An der eigentlichen Arbeitsweise der Kern hat sich bei der Einführung von K8 rein gar nichts geändert, die wurde 1:1 übernommen. Ggf. hat ein AMD-Entwickler gute Arbeit in der räumlichen Anordnung geleistet, so dass trotz der breiteren Register nicht zuviel Platz verbraucht wurde - aber andere technische Meisterleistungen kann ich beim Abschied von K7 nicht entdecken. Und AMD wird mehr brauchen, um den derzeitigen Rückstand aufzuholen, als ein sauberes Layout.


Was im Moment fehlt sind richtige Killerapplikationen die nur auf einem PC mit seinen stromintensiven Rechenwerken laufen, die Grakahersteller sehen 4K wohl als Geschenk des Himmels an und nun fehlt sowas für die CPU.

So etwas fehlt den CPU-Hersteller seit verdammt langer Zeit.
Die letzte neue Funktion, die jemanden hinter dem Ofen hervogelockt hat, war die Video-Wiedergabe. Da reicht heute ein ARM-Tablet für nahezu alle Ansprüche. Computerspiele haben noch eine zeitlang weiter gepuscht - aber da steigert sich die CPU-Nutzung seit Ende der 90er Jahre kaum noch. Nicht zuletzt weil die Entwicklung sich fast komplett auf die Optik beschränkt, während sich die KI eher noch rückwärts bewegt und auch die Physik seit einem Jahrzehnt auf der Stelle tritt. Das einzige, was Heimanwender-CPUs heute noch regelmäßig auslasten düfte, ist schlecht optimierter Multiplayer-Code und Single-Thread-F2Ps.

Dann vergleich mal den FX 8350 mit dem 990X, 315mm² gegen 239mm² im gleichen Fertigungsprozess. Der 990X ist in jeder Hinsicht schneller, kam 2 Jahre früher raus, besser übertaktbar und zu allem Überfluss auch noch billiger herzustellen.

Du hast vergessen, dass er auf seiner Fläche auch noch 50% mehr Speicherinterface und einen kompletten PCIe-Controller unterbringt, für den der FX noch einen zusätzlichen externen Chip braucht.


Wenn alles glatt geht, dann baut AMD also 2015 den Vorsprung von Intel etwas ab, und muss dann 2016 nur noch eine kleinere Strecke bewältigen.

Wohlgemerkt: Um den Rückstand auf Intel 2014 einzuholen. Stellt sich die Frage, ob es eine ausreichende Leistung ist, 2017 mit Haswell konkurrieren zu können?


Wen meinst du denn mit "Manager"? Rory? Der kann fast nichts für die aktuelle Situation. Weißt du, wann er ernannt wurde? August 2011, da war es schon zu spät zum Umdenken, da war kein Geld mehr da. Rory hat das einzig richtige getan, er hat die Firma zusammengeschrumpft, um ein anständiges, sauberes Fundament hinzubekommen. Und so ein Fundament bekommt man nicht schnell mal in 2 Wochen hin.
In meinen Augen läuft die Firma bis jetzt noch nicht ganz rund, auch wenn ich den Abschluss des "gesunden Fundaments" in den nächsten Monaten kommen sehe.

Wenn DANN nichts passieren würde, dann könntest du gerne von einer unfähigen Leitung reden, aber wie dir vielleicht aufgefallen ist, steht in der Überschrifft, dass sie daran arbeiten ;)

Hmmmm
Rorys Sanierungskurs machte zunächst einmal einen guten Eindruck - aber jetzt gehts schon wieder los mit neuer Architektur und parallel dazu hat man das ARM-Projekt gestartet. Letzteres klingt für mich nach richtig schlechtem Management: "Lass das machen, womit gerade alle anderen so erfolgreich sind"

big fail


Den inkompetenten Manager der die ARM Sparte verkauft sowie die Geode Sparte dicht gemacht hat und die geniale Weissagung "Smartphones und Tablets sind nur ein vorrübergehendes Phänomen" von sich gegeben hat wurde schon vor Jahren gefeuert.

Ich mag mich irren - aber AMD hatte afaik nie eine ARM-Sparte. Intel waren diejenigen, die die Xscale-Sparte verkauft haben. AMDs kleinste Chips waren Geode. (Deren Abstoßung imho aber noch vertretbar war. Schließlich hatte man da selbst etwas darbendes eingekauft und nicht wirklich etwas draus gemacht)

Da der Desktop PC Markt stagniert ist es esentiell soetwas wie eine APU zu entwickeln oder warum glaubst du hat Intel allen Normalo-CPUs seit Sandy Bridge einen Grafikkern spendiert?

Intel hat schon immer iGPUs verkauft. Nach der Verlagerung des Speichercontrollers in die CPU musste zwangsläufig auch die GPU aus dem Chipsatz ausziehen und befindet sich somit so oder so auf dem DIE. Intel könnte allenfalls mehr Varianten mit deaktiverter Grafikeinheit anbieten - macht aber auch nicht viel Sinn.

Zur FX Architektur muß man sagen das AMD damals vor der Wahl stand Intels bessere i7 Architektur mit einem weiterentwickeltem 32nm Phenom II oder III zu kontern oder ob sie etwas völlig anderes wagen sollten.

AMD hat mit der Bulldozerentwicklung zur Jahrtausendwende begonnen, als noch gar nicht an Phenoms zu denken war. Es gibt sogar das Gerücht, dass K10 nachträglich eingeschoben wurde. (Was technisch glaubwürdig klingt, schließlich arbeitete man sowieso an Interconnects und Shared L3, die restlichen Phenomzutaten stammen aus dem K7/8-Regal)

Die Verheißungen waren ja auch wirklich groß, 10% mehr Chipfläche bei fast doppelter Leistung, man könnte also Intels 4 Kern CPUs mit besseren 2 Kernern plätten. Das die Sache im Debakel endete wissen wir heute, damals schien das noch eine gute Idee zu sein.

Damals, als AMD Bulldozer erstmals öffentlich erwähnt hat, schienen auch "10 GHz" noch ein wichtiger Aufdruck auf Folien zu sein. Diesen Aspekt nach dem Netburst-Debakel beizubehalten, kann man getrost als fragwürdige Entscheidung bezeichnen. Letztlich tapste Bulldozer jedenfalls in genau die gleiche Falle, in der der Pentium verendete: Deutlich höhere Leistung bei kaum größerer Fläche war/ist durchaus möglich, bedeutet aber hohe Anforderungen an die Fertigung (die diese nicht immer erfüllen kann - siehe 32 nm GF genauso, wie 90 nm Intel) und erfordert ein Marketing, dass 200-300 W CPUs los wird. (Intel hatte keins. AMD hat keins.)
 
Deine Frage beantwortest du dir schon selbst , weil es eben am PC-Markt keine großen Gewinne mehr gibt. Und man erstmal genug beschäftigt ist mit den Konsolen und der Belieferung der CPUs und GPUs. Und die APUs waren schon von vornherein nur für eine kleine Zielgruppe bestimmt. Großen Umsatz wollte man damit nie machen.








Du hast wirklich keine Ahnung mit was AMD Geld verdienen müsste? :what: Und ganz klar ist das Management für die Misere bei AMD verantwortlich!:daumen2:
 
Die 70-80% Mehrleistung bei 20% mehr Chipfläche ist auch Fantasterei.

Real sind, nimmt man den verbesserten 32nm Fertigungsprozess beim Bulldozer hinzu, selbe Leistung bei 80% mehr Chipfläche. Damit ist der FX quasi der ultimative Folp aller x86er CPUs, selbst der P4 wird um längen geschlagen.

Am Anfang war von etwa 10% mehr Chipfläche bei fast doppelter Leistung die Rede. Wenn man es richtig macht kann man theoretisch die Leistung pro Kern sogar mehr als verdoppeln (durch einen Cache der effektiv größer ist, mit dem Schönheitsfehler das ihn sich alle Teilen müssen).

der FX war nie eine gaming cpu,
es war seit anfang an eine server architektur.

in anwendungen ist amd top, der fx 8350(149euro) ist kurz hinter einem 3930K der nur 500euro kostete:lol:


btt:
amd solte sich doch vielleicht mal 1-3 jahre zur ruhe setzten und intel den markt überlassen,
mal sehen was intel dann macht

aber rechtlich geht das garnicht, ausser Via würde mal wieder was machen,
ansonnsten wäre es ein problem mit der monopostellung seitens intel, und diese müssten eine x86 lizenz ausschreiben,
da ihnen ansonsten eine zerschlagung drohen würde.

Amd darf praktisch den x86 markt nicht verlassen,
 
Zuletzt bearbeitet:
Ich bleibe immer noch bei meiner These von einer CPU mit 200 kleinen Kernen mit wenig Cache und einem 900 bis 1200 mHz Takt die je nach Bedarf an und abgeschaltet werden können. Mit variablen Cluster Fähigkeiten, so dass zum Beispiel ein Thread auf 10 Kernen liegen kann. Die Sockel die wir jetzt haben bieten natürlich kaum Platz und die aktuellen Mainboard Layouts müssten einem heftigen Refresh unterliegen.
Dennoch würde ich mir sowas wünschen.

Und jetzt kommt wieder. Ihr Leute die da schon damals sagten, dass sowas niemals Sinn hätte und nur ein hoher Kerntakt die Musik macht. Es wird bestimmt kommen.
Man müsste dann zu erst eine Softwarelösung schaffe, die alle gängigen Programme ansteuert.
 
der FX war nie eine gaming cpu,
es war seit anfang an eine server architektur.

in anwendungen ist amd top, der fx 8350(149euro) ist kurz hinter einem 3930K der nur 500euro kostete:lol:

?
In Anwendungen ist der FX 8350 kurz hinter dem i5-4670[/quote]. Und billiger ist der FX 8350 unterm Strich auch nicht. Wenn man über 2 Jahre Nutzungsdauer noch 10-20 € mehr Stromverbrauch und einen 10-20 € Kühler einrechnet, den man mindestens braucht, um die Lautstärke des sparsameren i5@boxed zu erreichen, zahlt man ziemlich genau das gleiche.
Hat bei Intel aber eben auch 30% mehr Spieleleistung zur Verfügung, falls man mal nicht spielen möchte.


Wenn AMD so weitermacht und Intel die Entwicklung deswegen so niedrig hält, hat sich das "Problem" mit dem x86-Monopol erledigt, weil ARM die Vorherrschaft übernimmt :(


Ich bleibe immer noch bei meiner These von einer CPU mit 200 kleinen Kernen mit wenig Cache und einem 900 bis 1200 mHz Takt die je nach Bedarf an und abgeschaltet werden können. ...
Man müsste dann zu erst eine Softwarelösung schaffe, die alle gängigen Programme ansteuert.

Wie wäre es, wenn du dieses Ding der Unmöglichkeit mal eben kurz vormachst?
 
Den Ausflug in die Parallel-Welt fand ich recht interessant.

Wenn Intel die Modulbauweise aufgegriffen hätte und sie auch zahlreich "an den Mann" gebracht hätte, würden sich auch sämtliche Programmierer darauf einstellen.

Die Misere des FX ist meiner Meinung nach teilweise auch darauf zurückzuführen, weil Anwendungen schlichtweg dafür nicht "optimal" sind. (ich weiss, aber IPC und co. sind ein anderes Thema, was dem FX auch anlastet)

Kleines Bsp:
Ich vermute jetzt ein wenig, bitte nicht zuviel hauen, wenn ich daneben liege:ugly::
Video(de)codier-Software ist bestimmt so aufgebaut, dass sie bei Sekunde 1 anfängt und bei der letzten Sekunde aufhört daran rumzurechnen.

Wenn man sich die Mühe machen täte, diese Software so umzubauen, dass diese den Film durch die Anzahl der vorhandenen Kerne teilt und das jeder Kern eine bestimmte Sequenz zugeteilt bekommt, wo man daran rumrechnen kann, täte sich ja fast so ein Modulkonzept "bezahlt" machen. Selbst die 200 Kerne von "Track11" bekäme man so ausgelastet und das Filmchen in kürzester Zeit fertig.
Der FX wär dann selbst (in meiner Theorie) gegen einen von Intel, der HT hat, besser dran, weil die HT-Kerne von Intel weniger Ressourcen bieten täten und eher die "Hauptrechenwerke" stören würden.

So, nun zurück zur Realität :D

Ich täte mich freuen, wenn AMD im High-End-CPU-Bereich wieder die Kurve bekommt.
Aber wie es schon erwähnt wurde, sollten sie wieder wie zu K7/K8-Zeiten was rausbringen, was Intel bedrängt, müssten sie dieses Niveau min. 10 Jahre durchhalten, damit man seinen Ruf nur ein wenig aufpolieren kann. Der Markenname Intel respektive Pentium ist einfach viel zu tief in vielen Köpfen drin (gewesen). (Wie Lego, Tempo, Tesa und co.) Selbst ein Ausbilder, der eigentlich hochinformiert sein müsste, sagte damals, als der K8 Intel glattgebügelt hat, "Pentium sei das Nonplusultra"
Siehe P4 und A64, viele haben sich den P4 geholt, weil man dachte, Intel muss besser sein als AMD, obwohl das damals nicht der Fall war :what:

Hey, ich bin genauso, weil ich kauf mir heut auch noch AMD, obwohl Intel tatsächlich besser ist :ugly:
 
Zuletzt bearbeitet:
...dass diese den Film durch die Anzahl der vorhandenen Kerne teilt und das jeder Kern eine bestimmte Sequenz zugeteilt bekommt, wo man daran rumrechnen kann, täte sich ja fast so ein Modulkonzept "bezahlt" machen.
Aufteilen ist das Stichwort. Leider ist dies beim Film nicht möglich, da du dann diese 200 Kerne unter einem Thread laufen lassen müsstest. Das liegt daran, dass die Codecs nicht das einzelne Frame komprimieren sondern eine Sequenz zwischen zwei Keyframes. Musst du dir so vorstellen, dass Frame 1 gerechnet wird, und der Unterschied zwischen Frame 2 und Frame 1 dann die Speichermenge aus macht. Frame 2 existiert also garnicht als 0 und 1 auf der Platte, sondern wird bei der Wiedergabe immer wieder aufs neue von Frame 1 abgeleitet. Genau das selbe geschieht mit den darauffolgenden Frames bis die Speichermenge des Unterschiedes zwischen zwei Frames größer ist als das zu komprimierende Frame. Dieses ist dann das Keyframe, woran sich unter anderem auch die Audiospur heftet um synchron zu bleiben. :ugly:

Dies würde softwaretechnisch zwar irgendwie lösbar sein, würde aber eine Menge an performance fressen
 
Zurück