AMD Zen: Live-Event zeigt anscheinend auch X370-Motherboards

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Zen: Live-Event zeigt anscheinend auch X370-Motherboards

AMD kündigte vor wenigen Tagen an, dass man unter dem Motto "New Horizon" eine Vorpremiere für Zen ins Internet überträgt. Berichten nach sollen auch verschiedene Motherboards mit dem High-End-Chipsatz X370 Teil des Live-Events am 13. Dezember werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Zen: Live-Event zeigt anscheinend auch X370-Motherboards
 
Mal sehen wie die Boards für AM4 aussehen. Mit glück kommen dann mal wieder ein paar Prachtstücke hervor.

Hoffentlich gibt es solche Boards die es mit einem Rampage 5 Edition 10, X99 SOC Force oder ähnliches aufnehmen können was die Möglichkeiten betrifft.

Auf der anderen Seite, ich hoffe die zeigen endlich mal einen vernünftigen Test einer Zen CPU auf einem entsprechendem Board was auch später einmal erscheint!
 
Irgendwie wirkt es schon ziemlich erzwungen, dass sie die Dinger mit einer 3xx bezeichnen. Größer als Intel mit ihren 200er Boards? Natürlich auch noch mit den entsprechenden Endungen x50 für Mainstream und x70 für das Topmodell. Und dann nennen sie ihre CPUs nur SR 3, 5 und 7? Irgendwie hinterläßt das ein seltsames Gefühl bei mir...
 
Gut, wir wissen alle was passierte nach dem man Intel nicht kopiert hat (Stichwort Modul). Besser gut kopiert (wonach es aussieht) als schlecht selbst gemacht.
 
Ich möchte einen reinen Sechskerner ohne SMT. Dafür aber günstig.
Hoffe AMD kann mir so etwas bieten.
 
  • Like
Reaktionen: ile
Gut, wir wissen alle was passierte nach dem man Intel nicht kopiert hat (Stichwort Modul). Besser gut kopiert (wonach es aussieht) als schlecht selbst gemacht.

Die Modultechnologie ist an und für sich eine super Idee. Aber die meiste entwickelte Software ist dafür noch immer nicht ausgereift genug, am Ende stellt sich heraus dass SMT da doch noch mehr Sinn macht.


Ich möchte einen reinen Sechskerner ohne SMT. Dafür aber günstig.
Hoffe AMD kann mir so etwas bieten.

Hatten sie jahrelang ... Die ware zwar günstig und leistungsstark, aber eben auch entsprechend ineffizient.
 
Ja wie wat nu?
Je ein Kern aus den beiden Clustern deaktivieren und schwupps haste nen 6 Kerner. :)
 
Die Modultechnologie ist an und für sich eine super Idee. Aber die meiste entwickelte Software ist dafür noch immer nicht ausgereift genug, am Ende stellt sich heraus dass SMT da doch noch mehr Sinn macht. (...)
Ich bin da sehr skeptisch, ob die Modultechnologie überhaupt sinnvoll ist. Die Idee hinter SMT ist ja, dass man das brach liegende Potential von breiten Kernen (also deren Ausführungseinheiten) nutzt, um damit mehr Threads zu berechnen.
Die Idee hinter CMT hingegen ist, dass man NOCH breitere Kernmodule baut, die man in einem Multithreadfall dann in souveräne Unterkerne aufspaltet.
Das hört sich erst einmal so an, als wäre das eine tolle Idee, um in schlecht parallelisierten und in gut parallelisierter Software zugleich Erfolge zu feiern. Wenn man aber kurz einmal weiter denkt, dann fällt einem auf, dass das mit den Vorteilen in schlecht parallelisierter Software nur dann der Fall ist, wenn diese gleichzeitig enorm gut darin ist, die "überbreit" aufgestellten Ausführungseinheiten auszulasten. Wann bitte soll das der Fall sein?

Wenn dieser Fall also wirklich nur eine enorme Randrolle spielt, dann stellt sich die Frage, wozu überhaupt Module? Wieso nicht einfach aus den Unterkernen Kerne machen? Die man dann mit SMT ausstatten könnte, um womöglich NOCH mehr Threads zu verarbeiten!
Ich nehme mal an, dass das wohl auch so ungefähr der Gedankengang von AMD war, der dazu geführt hat das Ganze fallen zu lassen...
Irgendwie wirkt es schon ziemlich erzwungen, dass sie die Dinger mit einer 3xx bezeichnen. Größer als Intel mit ihren 200er Boards? Natürlich auch noch mit den entsprechenden Endungen x50 für Mainstream und x70 für das Topmodell. Und dann nennen sie ihre CPUs nur SR 3, 5 und 7? Irgendwie hinterläßt das ein seltsames Gefühl bei mir...
...und das hier, das war dann noch das Sahnehäubchen. :D
 
Irgendwie wirkt es schon ziemlich erzwungen, dass sie die Dinger mit einer 3xx bezeichnen. Größer als Intel mit ihren 200er Boards? Natürlich auch noch mit den entsprechenden Endungen x50 für Mainstream und x70 für das Topmodell. Und dann nennen sie ihre CPUs nur SR 3, 5 und 7? Irgendwie hinterläßt das ein seltsames Gefühl bei mir...

Abgesehen von den Chipsatz bezeichnungen, da muss ich dir recht geben,
denke(hoffe) ich das "SR 3, 5, 7" nur die internen Bezeichnungen sind!
 
Ich bin da sehr skeptisch, ob die Modultechnologie überhaupt sinnvoll ist. Die Idee hinter SMT ist ja, dass man das brach liegende Potential von breiten Kernen (also deren Ausführungseinheiten) nutzt, um damit mehr Threads zu berechnen.
Die Idee hinter CMT hingegen ist, dass man NOCH breitere Kernmodule baut, die man in einem Multithreadfall dann in souveräne Unterkerne aufspaltet.
Das hört sich erst einmal so an, als wäre das eine tolle Idee, um in schlecht parallelisierten und in gut parallelisierter Software zugleich Erfolge zu feiern. Wenn man aber kurz einmal weiter denkt, dann fällt einem auf, dass das mit den Vorteilen in schlecht parallelisierter Software nur dann der Fall ist, wenn diese gleichzeitig enorm gut darin ist, die "überbreit" aufgestellten Ausführungseinheiten auszulasten. Wann bitte soll das der Fall sein?

Wenn dieser Fall also wirklich nur eine enorme Randrolle spielt, dann stellt sich die Frage, wozu überhaupt Module? Wieso nicht einfach aus den Unterkernen Kerne machen? Die man dann mit SMT ausstatten könnte, um womöglich NOCH mehr Threads zu verarbeiten!
Ich nehme mal an, dass das wohl auch so ungefähr der Gedankengang von AMD war, der dazu geführt hat das Ganze fallen zu lassen...

Ich habe keine Ahnung wie in deiner Vorstellung diese Technologien funktionieren, aber es klingt ziemlich falsch.


Ausgangssituation:
Auf einem modernen System laufen im Hintergrund meist hunderte oder tausende parallele Threads. Diese müssen auf die vorhandenen logischen Prozessoren verteilt werden, und das auf eine möglichst effiziente Weise.
Zugleich will man natürlich die Produktions- und Betriebskosten der Hardware minimieren, es macht natürlich keinen Sinn einen Prozessor mit 1000 Kernen zu bauen.


Hyperthreading:
Hyperthreading befasst sich mit einem Problem der Effizienz im Prozessscheduling. Häufig müssen Berechnungen auf einem Prozessorkern für einen Moment angehalten werden, um noch irgendwelche benötigten Daten nachzuladen.
Wenn vorraussehbar ist, dass das eine Weile dauern wird, dann lädt man so lange einen anderen Thread in den Prozessor und lässt diesen bearbeiten. Leider dauert dieser sogenannte Kontextwechsel aber auch wieder einen Moment, kostet also wieder Performance.

Intel hatte stattdessen den relativ genialen Einfall, einen Prozessorkern mit zwei kompletten Speichersätzen auszustatten. Statt die Daten im Speicher komplett neu laden zu müssen, wird einfach eine Weiche umgelegt und der Prozessor arbeitet den bereits fertig geladenen Thread aus dem zweiten Speicherbereich ab, bis es sinnvoll ist wieder zurückzuschalten etc.
Deshalb haben Prozessoren mit HT doppel so viele logische wie physische Kerne.
(Hier vielleicht interessant: Es gab vor etwa einem Jahr Gerüchte, dass AMD auch darüber nachgedacht hat dieses System für die neuen Prozessoren zu erweitern, auf drei oder vier logische Prozessorkerne pro Physischem. Offenbar ist das aber doch nicht umgesetzt worden.)

Jetzt ist vielleicht auch ersichtlich, warum die tatsächliche Leistungssteigerung durch Einsatz von HT so schwer einzuschätzen ist: Sie kann alle Ausprägungen zwischen 0%-100% Leistungszuwachs annehmen, abhängig davon wie das Betriebssystem den Prozessor verwaltet und wie die Anwendungssoftware arbeitet.



Module:
Nach den Phenom II Prozessoren, die einfach mit bis zu 6 echten physischen Kernen gearbeitet haben und entsprechend leistungsfähig, aber ineffizient waren, hat AMD das Problem bei den aktuellen FX-Prozessoren anders angegangen:
Sie haben weiter die Meinung vertreten, dass nichts schneller ist als echte physische Kerne (was natürlich so auch stimmt).
Allerdings werden nicht alle Teile eines Prozessorkerns gleich häufig genutzt, deshalb haben sie die Module entwickelt: Ich bezeichne diese gerne als siamesischen Zwilling: Einige Abteilungen gibt es wirklich zweimal, manche aber nur einmal.
Ob das nun physisch ein aufgebohrter Kern ist oder zwei beschnittene Kerne, kann jeder für sich auslegen. Aber logisch erhält man dabei zwei Kerne, die weniger Strom verbrauchen als zwei "volle" Kerne, jedoch bei den meisten Operationen genauso schnell sind.

Das erklärt auch, warum die FX-Prozessoren in Leistungstests je nach Disziplin so unterschiedlich gut abschneiden können, es kommt immer ein wenig darauf an ob nun eher die doppelt vorhandenen, oder die einzeln vorhandenen Abteilungen belastet werden.



Zwei komplett verschiedene Ansätze die (vor ein paar Jahren) aktuelle Technologie weiterzuentwickeln. Ich würde nicht sagen, dass da prinzipbedingt einer schlechter ist als der andere ... Das kann man so nicht sagen.
Aber man muss natürlich immer auf den Anwendungsfall schauen. Und dort hat sich gezeigt, dass die effizienteren, wenn auch prinzipiell weniger leistungsfähigeren HyperThreading Prozessoren am Ende mehr Sinn machen, da wir wohl doch noch nicht so exzessives Multithreading brauchen wie noch vor ein paar Jahren gedacht.
 
@Stryke7
Super erklärt
besser hätte man es nicht beschreiben können. AMD Pech war das glofo den 22nm Prozess gecancelt hat.
mit excavator hätte amd eine Konkurrenzfähige CPu am markt.Nur gegemn intels Server sparte sähe es düster aus.
 
Ich habe keine Ahnung wie in deiner Vorstellung diese Technologien funktionieren, aber es klingt ziemlich falsch.

Um ganz ehrlich zu sein, fand ich seine Zusammenfassung durchaus treffend. Ja, es ist richtig, dass dabei ein paar technische Details ausgeklammert wurden, aber wenn man es reduziert kommt es doch auf folgendes raus:

1. SMT bzw. Hyperthreading (HT):
Der Ansatz zielt auf eine bessere Auslastung der Kerne und bringt somit nur dann etwas, wenn mehrere Threads abgearbeitet werden müssen und die Kerne nicht vollkommen beschäftigt sind

2. Modulbauweise des Bulldozers:
Hierbei geht es um eine Leistungssteigerung. Durch doppelt vorhandene Bauteile soll beinahe die Leistung eines zusätzliche Prozessorkerns erreicht werden, ohne tatsächlich einen weiteren Kern zu besitzen.


Wenn man die Sache rein logisch sieht, fällt dabei eben auf, dass AMD davon ausging zukünftige Software würde mehr als 4 Kerne dauerhaft auslasten können. Intel dagegen wollte nur einen Weg finden um bereits vorhandene Leistungsreserven zu heben. Der Ansatz von AMD war aber eben nicht gut durchdacht, denn wo Intel eine geringe bis mittlere Leistungssteigerung bei sehr geringem Zusatzverbrauch (zusätzlicher Speicher) erzielte, war AMD zwanghaft darauf angewiesen, dass die zusätzliche Leistung auch abgenommen wird, weil man ansonsten eben sehr viel zusätzlichen Strom verbraucht (durch Replizierung der meisten Bauteile) ohne einen relevanten Vorteil zu haben.
Die miserable Effizienz von Bulldozer war daher hausgemacht.


(Hier vielleicht interessant: Es gab vor etwa einem Jahr Gerüchte, dass AMD auch darüber nachgedacht hat dieses System für die neuen Prozessoren zu erweitern, auf drei oder vier logische Prozessorkerne pro Physischem. Offenbar ist das aber doch nicht umgesetzt worden.)

Ganz ehrlich, ich glaube das wäre wieder das gleiche Problem. Der zusätzliche Speicher würde den Chip künstlich vergrößern und der Mehrgewinn gegenüber SMT wäre nahezu Null, weil er eben nur sehr selten wirklich interessant ist.


Zwei komplett verschiedene Ansätze die (vor ein paar Jahren) aktuelle Technologie weiterzuentwickeln. Ich würde nicht sagen, dass da prinzipbedingt einer schlechter ist als der andere ... Das kann man so nicht sagen.
Aber man muss natürlich immer auf den Anwendungsfall schauen. Und dort hat sich gezeigt, dass die effizienteren, wenn auch prinzipiell weniger leistungsfähigeren HyperThreading Prozessoren am Ende mehr Sinn machen, da wir wohl doch noch nicht so exzessives Multithreading brauchen wie noch vor ein paar Jahren gedacht.

Diesem Fazit stimme ich zu. Übrigens fand ich den Ansatz von AMD auf dem Papier auch sehr interessant. Allerdings war er schlicht zu wagemutig. AMD setzte alles auf eine Karte. Ohne die fehlende Mehrkernoptimierung war ihre Architektur von Anfang an im Hintertreffen. Aus der damaligen Position von AMD hätte ich einen vorsichtigeren Ansatz gewählt. Zumal die Mobilserie von Intel damals schon darauf hingewiesen haben, wo die Reise wohl hingeht.


PS: Nur bevor das jetzt falsch rüberkommt, deine Erklärung fand ich wirklich sehr gut und sie ist auch zutreffend :daumen:
 
Um ganz ehrlich zu sein, fand ich seine Zusammenfassung durchaus treffend. Ja, es ist richtig, dass dabei ein paar technische Details ausgeklammert wurden, aber wenn man es reduziert kommt es doch auf folgendes raus:

1. SMT bzw. Hyperthreading (HT):
Der Ansatz zielt auf eine bessere Auslastung der Kerne und bringt somit nur dann etwas, wenn mehrere Threads abgearbeitet werden müssen und die Kerne nicht vollkommen beschäftigt sind

2. Modulbauweise des Bulldozers:
Hierbei geht es um eine Leistungssteigerung. Durch doppelt vorhandene Bauteile soll beinahe die Leistung eines zusätzliche Prozessorkerns erreicht werden, ohne tatsächlich einen weiteren Kern zu besitzen.

Das finde ich verständlich und ist auch richtig, aus der ursprünglichen Aussage konnte ich das aber wirklich nicht herauslesen :D
Vielleicht lag das an mir.
 
Die Modultechnologie ist an und für sich eine super Idee. Aber die meiste entwickelte Software ist dafür noch immer nicht ausgereift genug, am Ende stellt sich heraus dass SMT da doch noch mehr Sinn macht.
Nö, die Module waren kein gute Idee. Was AMD gemacht hat war anstelle von großen CPU-Kernen (wie bei K10), jeweils ein Modul mit zwei kleineren Kernen zu bauen. Das kann man machen. Aber nur wenn man durch Verbesserungen in der Architektur und/oder der Fertigung den Performance-Nachteil der kleineren Kerne ausgleichen kann. Das hat AMD nicht geschafft. Pro Kern war Bulldozer also langsamer sein Vorgänger. Katastrophe. Die Module haben zwar Vorteile bei parallelen Arbeitslasten, das hilft im Alltag aber nur selten. AMD hat es über die Jahre geschafft die Kerne und die Fertigung soweit zu optimieren, dass die Module unterm Strich schneller (und effizienter) sind als K10 in 45nm. Von einem Erfolg kann man aber trotzdem nicht sprechen.

AMD wäre wahrscheinlich besser gefahren, wenn man K10 Schritt für Schritt modernisiert hätte. Aber hinterher ist man immer schlauer.
 
Ich habe keine Ahnung wie in deiner Vorstellung diese Technologien funktionieren, aber es klingt ziemlich falsch.


Ausgangssituation:
Auf einem modernen System laufen im Hintergrund meist hunderte oder tausende parallele Threads. Diese müssen auf die vorhandenen logischen Prozessoren verteilt werden, und das auf eine möglichst effiziente Weise.
Zugleich will man natürlich die Produktions- und Betriebskosten der Hardware minimieren, es macht natürlich keinen Sinn einen Prozessor mit 1000 Kernen zu bauen.


Hyperthreading:
Hyperthreading befasst sich mit einem Problem der Effizienz im Prozessscheduling. Häufig müssen Berechnungen auf einem Prozessorkern für einen Moment angehalten werden, um noch irgendwelche benötigten Daten nachzuladen.
Wenn vorraussehbar ist, dass das eine Weile dauern wird, dann lädt man so lange einen anderen Thread in den Prozessor und lässt diesen bearbeiten. Leider dauert dieser sogenannte Kontextwechsel aber auch wieder einen Moment, kostet also wieder Performance.

Intel hatte stattdessen den relativ genialen Einfall, einen Prozessorkern mit zwei kompletten Speichersätzen auszustatten. Statt die Daten im Speicher komplett neu laden zu müssen, wird einfach eine Weiche umgelegt und der Prozessor arbeitet den bereits fertig geladenen Thread aus dem zweiten Speicherbereich ab, bis es sinnvoll ist wieder zurückzuschalten etc.
Deshalb haben Prozessoren mit HT doppel so viele logische wie physische Kerne.
(Hier vielleicht interessant: Es gab vor etwa einem Jahr Gerüchte, dass AMD auch darüber nachgedacht hat dieses System für die neuen Prozessoren zu erweitern, auf drei oder vier logische Prozessorkerne pro Physischem. Offenbar ist das aber doch nicht umgesetzt worden.)

Jetzt ist vielleicht auch ersichtlich, warum die tatsächliche Leistungssteigerung durch Einsatz von HT so schwer einzuschätzen ist: Sie kann alle Ausprägungen zwischen 0%-100% Leistungszuwachs annehmen, abhängig davon wie das Betriebssystem den Prozessor verwaltet und wie die Anwendungssoftware arbeitet.



Module:
Nach den Phenom II Prozessoren, die einfach mit bis zu 6 echten physischen Kernen gearbeitet haben und entsprechend leistungsfähig, aber ineffizient waren, hat AMD das Problem bei den aktuellen FX-Prozessoren anders angegangen:
Sie haben weiter die Meinung vertreten, dass nichts schneller ist als echte physische Kerne (was natürlich so auch stimmt).
Allerdings werden nicht alle Teile eines Prozessorkerns gleich häufig genutzt, deshalb haben sie die Module entwickelt: Ich bezeichne diese gerne als siamesischen Zwilling: Einige Abteilungen gibt es wirklich zweimal, manche aber nur einmal.
Ob das nun physisch ein aufgebohrter Kern ist oder zwei beschnittene Kerne, kann jeder für sich auslegen. Aber logisch erhält man dabei zwei Kerne, die weniger Strom verbrauchen als zwei "volle" Kerne, jedoch bei den meisten Operationen genauso schnell sind.
(...)
Von der Beschreibung her sind wir uns ziemlich einig, nur dass du mit der Praxis die Theorie erklärst, ich das ganze hingegen rein theoretisch angehe. Und natürlich, dass du alles viel ausführlicher und zwar, das darf man nicht vergessen, auch ausgesprochen gut beschreibst. (während ich es wirklich knapp beschrieben habe---jemand, der die Technologie nicht versteht, wird mit dem Post nichts anfangen können)

(...)
Das erklärt auch, warum die FX-Prozessoren in Leistungstests je nach Disziplin so unterschiedlich gut abschneiden können, es kommt immer ein wenig darauf an ob nun eher die doppelt vorhandenen, oder die einzeln vorhandenen Abteilungen belastet werden.



Zwei komplett verschiedene Ansätze die (vor ein paar Jahren) aktuelle Technologie weiterzuentwickeln. Ich würde nicht sagen, dass da prinzipbedingt einer schlechter ist als der andere ... Das kann man so nicht sagen.
Aber man muss natürlich immer auf den Anwendungsfall schauen. Und dort hat sich gezeigt, dass die effizienteren, wenn auch prinzipiell weniger leistungsfähigeren HyperThreading Prozessoren am Ende mehr Sinn machen, da wir wohl doch noch nicht so exzessives Multithreading brauchen wie noch vor ein paar Jahren gedacht.
Bei dem Fazit geht es dann aber völlig auseinander. Das liegt vor allen Dingen daran, dass du auch dort den Bezug zur Praxis weiter beibehalten willst, was ja aber nicht das war, worum es ging. (sondern, ob "Die Modultechnologie ist an und für sich eine super Idee" stimmt) Daher fokussierst du dich wohl auch auf die andere Richtung, also der Betrachtung von Viele Kerne -> Viele CMT-Kerne, was genau zum Bulldozer passt.
Sich Bulldozer anzuschauen ist aber gerade ein bisschen ungünstig, denn Bulldozer nutzt ja eine sehr besondere Form des Konzeptes. Die FPU, die sich beide Kerne eines Moduls teilen, wird ja gerade mittels des gleichen Konzeptes wie bei SMT geteilt, was die Unterscheidung der Konzepte nochmals schwieriger macht. Aber egal, ich komme mal endlich zum Klartext.

Nimmt man als Basis einen Kern, einzige Voraussetzung breit. Nicht sehr breit, nicht fett, sondern erst einmal nur breit aufgestellt. Und aus diesem einen Kern will man jetzt etwas schaffen, was zwei Threads bearbeiten kann. (es ist für die Betrachtung egal, ob man von diesen Kernen nun einen, zehn oder 512 hat)

Der SMT-Ansatz wäre klar, ein paar Register klonen, fertig. Der CMT-Ansatz wäre den Kern so zu strukturieren, dass er wie zwei komplette (deshalb ist Bulldozer nicht wirklich CMT, sondern wie vorhin schon genannt ein Zwischending), halb so breite Kerne agieren kann. Direkt wird klar, dass dafür mehr Chipfläche drauf geht, da muss mehr geklont werden und dass das gegenüber der SMT-Variante mehr Energie brauchen wird. Wie du anfangs sagtest ist klar, dass man bei SMT irgendeinen Gewinn zwischen 0 und 100% haben wird. Schauen wir uns die Extremfälle an:
0%= Alle Einheiten werden bereits genutzt (SMT hat keinen Handlungsspielraum) ODER das Programm profitiert nicht von weiteren Threads. (SMT kann keinen Gewinn bringen)
Vergleich CMT: Kein Handlungsspielraum -> Modul zu spalten würde Performaceverlust bringen; Kein Gewinn bei SMT -> Modul zu spalten wäre sinnlos. Bei wirklich wenig Last könnte man einen der Teilkerne powergaten---dann stellt sich aber die Frage, ob man nicht allgemein jeder Einheit Powergating gönnen sollte...
100%=Einheiten können logisch komplett auf zwei gleich rechenintensive Threads geteilt werden
Vergleich CMT: Kein Unterschied. (in der Praxis würde SMT keine 100% erreichen und CMT ein bisschen besser abschneiden, jajaja...)

Zunächst fällt auf, dass das Gesamte ein wenig Verwaltungsaufwand mit sich bringt, das ist aber nur in der Praxis beim Bulldozer tragisch geworden. (wie übrigens auch die Powergatings erschreckend schlecht funktioniert haben). Schwerwiegend hingegen ist, dass einem nun vielleicht in den Sinn kommt, was noch passieren könnte. Nämlich, dass die Threads unterschiedlich rechenintensiv sind. Und dann versagt CMT durch die starre Aufteilung der Kerne.

Angesichts dessen fällt mir auch nicht ein, wieso zumindest 2-faches-CMT jemals wieder zum Zug kommen sollte. Höhere Ausbaustufen wären hingegen schon denkbar. Wenn man einen Giganto-Kern hätte, der zum Beispiel 32-faches-CMT hätte, aber auch unterschiedliche Kombis ermöglicht (also z.B., dass sich dann ein Kern mit 25, einer mit 6 und einer mit einer Einheit bildet, dann könnte sich das wieder lohnen, dann wäre die Unflexibilität weg. Ob man sowas macht und ob man das dann CMT nennt oder wie auch immer, wie dann überhaupt die Core-Kontrolle funktioniert, ob Mega-Cores Sinn ergeben ist eine ganz andere Geschichte.


Edit: Habe erst jetzt Dragonskulls und deine Antwort gelesen, ja, so war das gemeint.
Ergänzend kann ich noch reinwerfen, dass wenn die Karten anders herum verteilt gewesen wären, also AMD die tollen Caches usw. gehabt hätte, dass dann AMD in den Jahren die Oberhand gehabt hätte, später aber dennoch zu SMT gewechselt wäre. Also, dass die Entscheidung SMT vs. CMT (anders, als das vielleicht jetzt klang) in dem Moment gar nicht so endlos bedeutend war.
 
Zuletzt bearbeitet:
Man mag mich korrigieren, aber viel Literatur bezüglich "CMT" habe ich nicht gefunden, noch weniger eine "allgemeine" Definition darüber wie das aussehen soll, weswegen das eher nach AMDs Marketing und Auslegung aussieht, als nach einer Struktur mit welcher man konkret argumentieren kann.

Wenn man sich Bulldozers Patente anschaut, dann kann sich die Diskussion schon viel einfacher gestalten:
BD-Core-1.jpg


CPU-World.com forums :: View topic - AMD K15+ CPU and the definition of a "core".

Anstatt wie das Marketing Gymnastik bei der Vermarktung zu betreiben, kann man es technisch viel simpler ausdrücken.
Ein Bulldozer-Modul betrachten wir einfach als einen Kern und die Integer-Strukturen vermarkten wir nicht allgemein als Kerne, sondern zusätzlich als Integer-Cluster.

Dann sieht man auch schon einfach den wesentlichen Unterschied zwischen einem Bulldozer-Kern und einem Zen/Intel-Kern.
Bei einem Bulldozer Kern gibt es getrennte Strukturen und Threads besitzen teilweise exklusive Ressourcen, bei einem Zen/Intel-Kern dagegen gibt es keine getrennten Strukturen, sondern der ganze Ressourcen-Pool wird von bis zu zwei Threads geteilt.
 
Für den Verbraucher ist es ehrlich gesagt egal ob jetzt eine CPU mit SMT oder CMT konstruiert ist.

Die Leistung die am Ende dabei heraus kommt ist wichtig!

IBM zum Beispiel Arbeitet noch einmal anders.

Die alte Power7 CPU hat 8 Threads, einen "Hauptkern" und 7 "SMT" Kerne. Und wenn die genutzt werden kommt auch gut Leistung dabei heraus.

Technisch gibt es viele Möglichkeiten, leider hat sich nur das von Intel durchgesetzt.
 
Zurück