FX-Nachfolger 2016 - hat AMD noch eine Chance? Das meinen Redakteure zu einem aktuellen Thema

Ich bleibe immer noch bei meiner These von einer CPU mit 200 kleinen Kernen mit wenig Cache und einem 900 bis 1200 mHz Takt die je nach Bedarf an und abgeschaltet werden können. Mit variablen Cluster Fähigkeiten, so dass zum Beispiel ein Thread auf 10 Kernen liegen kann. Die Sockel die wir jetzt haben bieten natürlich kaum Platz und die aktuellen Mainboard Layouts müssten einem heftigen Refresh unterliegen.
Dennoch würde ich mir sowas wünschen.

Und jetzt kommt wieder. Ihr Leute die da schon damals sagten, dass sowas niemals Sinn hätte und nur ein hoher Kerntakt die Musik macht. Es wird bestimmt kommen.
Man müsste dann zu erst eine Softwarelösung schaffe, die alle gängigen Programme ansteuert.

So eine CPU wird übrigens schon entwickelt, bei Kickstarter konnte man die 16 Kern Variante kaufen (für die 64 Kern Variante kam nicht genug Geld zusammen), nun wird eine CPU mit 4096 Kernen entwickelt.
Adapteva | Inventing the Future of Computing
Epiphany E4K: Neue CPU lockt mit 4.096 Kernen - Innovationen - derStandard.at

Nun braucht man nurnoch ein Wunder damit man diese CPU auch für Alltagsaufgaben sinnvoll einsetzen kann. Es gibt ein Gesetz das beschreibt das das Maximum der Pararellisierbarkeit eines Problems bei seinem sequentiellen Anteil liegt, darüber bringen mehr Kerne (zumindest für das Problem) nichts. Spiele haben einen sehr hohen sequentiellen Anteil und auch sonst hat AMD seine liebe Not die 8 Kerne des FX auszulasten, im übrigen ist das ein Grund warum der i3 im Vergleich zu den FX CPUs so gut dasteht. Und nun willst du eine 200 Kern CPU von denen vermutlich in den meisten Aufgaben über 190 däumchendrehen. Die Aufgaben welche darauch gut laufen tun dies meist auch auf der Graka die ja mit der GPU eine Art massiven Multikernprozessor hat.
 
Wenn Intel die Modulbauweise aufgegriffen hätte und sie auch zahlreich "an den Mann" gebracht hätte, würden sich auch sämtliche Programmierer darauf einstellen.

Sicherlich kann man alles mögliche halbwegs gebrauchen, solange es nur verbreitet genug ist und entsprechend dafür optimiert wird. x86 als Ganzes ist ein vorzügliches Beispiel. Es gibt kaum eine ineffizientere Technologie und selbst Intel hat sich zweimal an einem Nachfolger versucht. Aber die Kompatibilität war jedesmal wichtiger.
Nur: Das man etwas schlechtes brauchbar machen kann ändert nichts daran, dass es der schlechtere Ansatz ist.


Kleines Bsp:
Ich vermute jetzt ein wenig, bitte nicht zuviel hauen, wenn ich daneben liege:ugly::

Du liegst, für einige Codecs daneben. In der Praxis kann man alle bildbezogenen Berechnungen viel einfacher nach Pixeln aufteilen und so an noch deutlich mehr Recheneinheiten verteilen - sprich auf GPUs laufen lassen. Quicksync lässt grüßen.
Das klappt aber eben mit kaum einer anderen Aufgabe so gut. Die oben beschrieben 200 Kern-CPU wäre super geeignet, um mit Pixeln umzugehen (genaugenommen war/ist Larrabee eine Entwicklung von bestehenden CPUs in genau diese Richtung), aber miserabel, sobald es um ganz alltäglich Logikberechnungen geht. Denn diese brauchen zu oft die Ergebnisse anderer Programmteile und können nicht parallel zu diesen berechnet werden.

Der FX wär dann selbst (in meiner Theorie) gegen einen von Intel, der HT hat, besser dran, weil die HT-Kerne von Intel weniger Ressourcen bieten täten und eher die "Hauptrechenwerke" stören würden.

Nö. Das ist ja der eigentlich Witz bei Bulldozer: Das Modulkonzept ist nicht nur anspruchsvoll in der Programmierung.
Es löst auch seine Versprechen bezüglich der Flächeneffizienz nicht ein. Seit Haswell nutzt Intel genau so viele Recheneinheiten pro Kern, wie AMD pro Modul. Den "zweiten Kern fast umsonst" hat AMD nicht realisiert, in dem die Modularisierung massiv Overhead eingeplant hat (denn seit Kaveri wird eben doch wieder ein vollständiges Front-End für jeden Kern verbaut), sondern in dem sie die Funktionalität der Kerne halbiert haben.
(verglichen zu Haswell. Im Vergleich zu Core2 und K10 hatte ein Bulldozer-Modul 33% mehr Integereinheiten. Aber die technischen Fortschritte seit damals wurden eben auch in nicht-modularisierten Chips genutzt)

Der einzige Unterschied ist die Aufgabenteilung: AMD splittet sie in zwei Hälften, die zeitgleich an zwei Aufgaben arbeiten, Intel teilt sie zeitlich und lässt sie nacheinander, dafür aber mit doppelter Kraft an zwei Aufgaben arbeiten. In der Theorie sollte es zwar etwas schwerer sein, die vier paralleln Pipelines bei Intel effektiv auszulasten und AMD mit zwei unabhängigen Päärchen bei komplett unabhängigen Aufgaben schneller sein. In der Praxis schafft es Intel aber offensichtlich doch, die Einheiten vernünftig auszulasten und selbst in Multi-Threadszenarien liegt Haswell klar vor Bulldozer. Und im Gegensatz zu AMDs starrem Modulkonzept kann HT in Szenarien mit wenig Threads auch ungenutzt in der Ecke stehen und alle vier Rechenwerke das gleiche Problem die ganze Zeit beackern, während AMD mit 50% Nichtauslastung kämpft.
 
Wenn AMD so weitermacht und Intel die Entwicklung deswegen so niedrig hält, hat sich das "Problem" mit dem x86-Monopol erledigt, weil ARM die Vorherrschaft übernimmt :(

Es wird immer so getan, als sei AMDs Schwäche die Ursache für Intels Entwicklungsgeschwindigkeit, die selbst-bestimmt von Intel bewusst ausgebremst wird.
Dabei "mogeln" die ebenso seit Jahren in der Angabe ihrer Fertigungsgröße. Was will man bei Leiterbahnen, die nur noch eine handvoll Atome breit sind, noch verbessern oder anders "layouten".
Die Belichtungs-Laser lassen sich wegen der Interferenzen kaum noch richtig fokussieren und sind mittlerweile sogar breiter als die Struktur, die sie erzeugen lassen sollen.

Den einzigen "Luxus", den sich Intel leisten kann, ist, dass sie erstmals "ein Jahr auslassen" können und quasi Haswell ein 2. mal vermarkten können. Da spielen aber auch Absatzprobleme mit rein, denn der Haswell-Refresh wurde auch um 3-6 Monate verzögert.

Und dass Einsparentscheidungen auch Riesen treffen können, zeigen die Probleme mit dem Wärmeübergang bei den großen OC-Modellen.

So wie Intel einst mit einem verbesserten Pentium-III die Core-Serie begründete, kommt vielleicht AMD mit einem Phenom-verwandten Design mit DDR4-Unterstützung zurück. Wer weiß das schon?
 
Es wird immer so getan, als sei AMDs Schwäche die Ursache für Intels Entwicklungsgeschwindigkeit, die selbst-bestimmt von Intel bewusst ausgebremst wird.
Dabei "mogeln" die ebenso seit Jahren in der Angabe ihrer Fertigungsgröße. Was will man bei Leiterbahnen, die nur noch eine handvoll Atome breit sind, noch verbessern oder anders "layouten".

Ob die unterschiedlichen Messweisen nun "Mogelei" sind, sei mal dahingstellt - aber wie d selbst sagst: Sie werden seit langem angewandt, das hat nichts mit der heutigen Entwicklungsgeschwindigkeit zu tun. Aber das Intel mittlerweile ein Jahr vor öffentlichem Erscheinen die ersten Samples an Drittfirmen ausliefert (siehe DDR4-Demosysteme im letzten Herbst auf Basis von Haswell-E), das ist wohl ein eindeutiges Anzeichen dafür, wie weit die Forschung Intels gegenüber dem realen Angebot fortgeschritten ist. Früher hat man ein halbes Jahr vor Erscheinen die ersten handverlesenen Samples vorgeführt, mittlerweile kann man es sich leisten, ein volles Jahr in Ausbeuten- und Gewinnmaximierung zu investieren, weil es schlichtweg nichts am Markt gibt, dass man mit einem neuen Chip kontern musste.
Guck dir mal die "Reste"verwertung bei Intel an. Zum Ende der Netburst-Zeit hat genau einen DIE für den Consumermarkt gefertigt. Alle CPUs, vom Dualcore-EE bis zum Single-Core Atom nutzten den gleichen Chip - die einen die bestmöglichen Exemplare, die anderen den Ausschuss, den man eh irgendwie loswerden muss. Heute hat Intel soviel Zeit für Optimierungen übrig, dass es fast gar keine deaktivierten Chips mehr gibt, und im Gegenzug 6-7 verschiedene DIEs für die gleiche Marktspanne gefertigt werden.


So wie Intel einst mit einem verbesserten Pentium-III die Core-Serie begründete, kommt vielleicht AMD mit einem Phenom-verwandten Design mit DDR4-Unterstützung zurück. Wer weiß das schon?

Nicht auszuschließen. Aber ich sehe keinen "Phenom M", der sämtlichen aktuellen CPUs der Konkurrenz in Sachen Effizienz und/oder Leistung (je nachdem, wie man das Taktpotential ausnutzt) überlegen wäre. Intels großer Sprung von Netburst auf Core kam schließlich nicht aus dem nichts. Das war ein halbes Jahrzehnt Entwicklung sehr erfolgreicher Mobile-Chips, die auf einmal einen Kontrast zu einer verfehlten Architektur bildeten. Letztere hat AMD auch - erstere nicht. Das sie aus dem Stand das schaffen, wofür Intel 5 Jahre Anlauf brauchte, darf bezweifelt werden. (s.o.: Ressourcen und so)
 
?
Wenn AMD so weitermacht und Intel die Entwicklung deswegen so niedrig hält, hat sich das "Problem" mit dem x86-Monopol erledigt, weil ARM die Vorherrschaft übernimmt :(

1. Cb naja deren Anwendungs tests......
ich halt mich lieber an das von intel und nv gekaufte anandtech

2. ARM, glaub ich weniger
wer für ein umdenken sorgen könnte wäre ibm,
power pc wäre eine gute alternative

Es würde schon reichen wenn Via seinen neuen (kommenden) quadcore auf den consumer markt,
der boards mit verlöteter cpu loslassen würde

ich hatte testweise mal ein via (embedded Quad)EPIA-M920-12Q sys. und dieses war ganz gut
 
Zuletzt bearbeitet:
Zurück