Zen 2, Vega 20, Navi: TSMC beginnt mit AMDs 7-nm-Serienproduktion im 4. Quartal

Wann wird diese Seite eigentlich mal endlich für mobilgeräte gefixt, ist echt nervig... Funktioniert bei keinem meiner Android Geräte richtig. Und das man wegen der Dateigröße keine Benchmarks auf dem Hand gucken kann nervt auch mega, und Desktop Ansicht auf dem Handy ist richtig belastend.

Desktop Sicht + Firefox + uBlock Origin
Kann mich nicht beschweren.



Ich will meinen 7nm Ryzen, am liebsten schon heute :haha:
Obwohl brauchen tu ich ihn in keinster weise xD
 
Bei 12 Kernen wären die aktuellen ~4,0-4,3 GHz schon sehr sehr gut bei nicht steigender TDP.

Wenn man so eine CPU selbst etwas optimiert und sagen wir 12 Kerne bei 4 GHz unter 100W betreiben könnte wäre das eine wirklich effiziente Arbeitsmaschine.
Ich hoffe ja trotzdem, dass reine 8 Kerner aufgelegt werden (also verschiedene Dies), nicht nur deaktivierte Cores - auch damit AMD mehr Profit macht. Und ich hoffe, als man vor 4-5 Jahren die Weichen auch auf Zen 2 gestellt hat, hat man nicht nur richtung mehr Kerne und höheren Takt (bessere verwendung des 7nm Prozesses) entwickelt, sondern auch Richtung höherer IPC.
Wenn man schon 2x so viel Transistoren zur Verfügung hat, ist einiges am Budget hoffentlich dahingehend gelaufen.

Schwierig wird die Entscheidung dann zwischen AMD und Ice Lake (vorallem dank der IGPU mit QuickSync). Aber ich mag, dass es endlich wieder schwierig geworden ist sich zu entscheiden
 
Zuletzt bearbeitet:
Ich hoffe ja trotzdem, dass reine 8 Kerner aufgelegt werden (also verschiedene Dies), nicht nur deaktivierte Cores - auch damit AMD mehr Profit macht.

Das halte ich schon aufgrund der enormen Kosten für eine zusätzliche Maske für sehr unwahrscheinlich. Die Flächeneinsparung am Die wäre minimal, da die Ryzen Kerne wirklich winzig (auf dem Zeppelin Die soweit ich weiß 44 mm² von 200mm²), sollte man wirklich nur Kerne, und keinen Cache weglassen, weshalb sich die Maske wohl nie amortisieren würde. Zumal die Kosten allein schon für das Design eines weiteren Dies auch nicht ohne sind. Ich rechne maximal mit einem 4-Kern Die für Notebooks.
 
GloFo's Angabe nach (0,36 scaling factor) und ungefähr nach Intels MTr/mm[SUP]2 [/SUP]-Metrik (~0,40) könnten 12 Zen 1-Kerne (213mm + 44mm² CCX + 10mm² extra Verbindungen ~ 267mm²) bei ~107mm² landen, wenn wir einen Skalierungs-Faktor von 0,4 annehmen.

Bei Zen2 kommt es auf AMDs Kostenkalkulation an und wie aggressiv sie sich gegenüber der Konkurrenz aufstellen möchten.
Als ziemlich gesichert wird Fläche für PCIe 4.0 draufgehen und auf der anderen Seite werden 7nm zur Einführung nicht günstig sein, sodass Zen2 dies vielleicht deutlich unter 213mm² landen werden.
Aber hoffentlich hat AMD an den Kernen selber noch einiges verbessert, schließlich gibt es viele Punkte, mehr AGUs, deutlich breitere Datenpfade und ein höherer AVX-Durchsatz, eine bessere SMT-Implementierung und mehr.
 
Schwierig wird die Entscheidung dann zwischen AMD und Ice Lake (vorallem dank der IGPU mit QuickSync). Aber ich mag, dass es endlich wieder schwierig geworden ist sich zu entscheiden
Ich finde das auch sehr gut. Noch spannender wäre es wenn es weitere große CPU Hersteller gäbe. Noch so 1-2. Früher gab es ja auch mal Cyrix.
 
GloFo's Angabe nach (0,36 scaling factor) und ungefähr nach Intels MTr/mm[SUP]2 [/SUP]-Metrik (~0,40) könnten 12 Zen 1-Kerne (213mm + 44mm² CCX + 10mm² extra Verbindungen ~ 267mm²) bei ~107mm² landen, wenn wir einen Skalierungs-Faktor von 0,4 annehmen.
Ich bin eben so naiv und glaube, dass einige Transistoren dazu gekommen sind, weil man halt an der Architektur soweit rumgebastelt hat, sodass höhere IPC, höherer Takt und mehr Funktionen drin sind. Ich gebe deiner Rechnung natürlich recht, das Milchmädchen stimmt zu, aber ich hoffe, dass sich mehr ändert, als zwischen Zen und Zen+.

Bei Zen2 kommt es auf AMDs Kostenkalkulation an und wie aggressiv sie sich gegenüber der Konkurrenz aufstellen möchten.
Als ziemlich gesichert wird Fläche für PCIe 4.0 draufgehen und auf der anderen Seite werden 7nm zur Einführung nicht günstig sein, sodass Zen2 dies vielleicht deutlich unter 213mm² landen werden.
Aber hoffentlich hat AMD an den Kernen selber noch einiges verbessert, schließlich gibt es viele Punkte, mehr AGUs, deutlich breitere Datenpfade und ein höherer AVX-Durchsatz, eine bessere SMT-Implementierung und mehr.
Eben. Da ist eben auch die Frage der Zielsetzung und Ressourcen von AMD. Wenn man sich als Ziel gesetzt hat, bestehendes mal einfach nur Problemlos in den nächsten Prozess zu bringen und die tatsächlichen Änderungen eigentlich erst mit Zen 3 kommen, dann sind die Dies wohl sehr klein.
Wie gesagt ich hoffe bei Zen auf die von dir erwähnten Verbesserungen (und auch weitere), aber kann natürlich sein, dass sich in den nur 2 Jahren nicht viel getan hat, weil man nicht mehr Ressourcen hat. In 2 Jahren hat sich ja bei Intel faktisch auch nichts getan, man darf heutzutage ja nichtmal enttäuscht sein, wenn man ein kaum verändertes Produkt nochmal serviert bekommt.

Und ich kenne mich auch zu wenig aus, ob eine so starke Verkleinerung nicht auch Probleme ergeben kann bezüglich höherer Dichte bei der Hitzeentwicklung und demzufolge auch der Takt nicht wirklich nach oben geht.
Ich finde das auch sehr gut. Noch spannender wäre es wenn es weitere große CPU Hersteller gäbe. Noch so 1-2. Früher gab es ja auch mal Cyrix.
Jop natürlich. Wobei zu viele vielleicht auch wieder den Fortschritt hämmen, oder es wieder schwierig ist am Markt bezüglich Standards.
Was wenn noch 5 Hersteller da wären, aber andere Befehlssätze hätten?

Klar, Cyrix, Transmeta und Co zumindest für den Einsteigermarkt.
Und im Servermarkt gibts eh auch andere Hersteller (IBM und andere, früher auch Sun/Oracle...).
Das halte ich schon aufgrund der enormen Kosten für eine zusätzliche Maske für sehr unwahrscheinlich. Die Flächeneinsparung am Die wäre minimal, da die Ryzen Kerne wirklich winzig (auf dem Zeppelin Die soweit ich weiß 44 mm² von 200mm²), sollte man wirklich nur Kerne, und keinen Cache weglassen, weshalb sich die Maske wohl nie amortisieren würde. Zumal die Kosten allein schon für das Design eines weiteren Dies auch nicht ohne sind. Ich rechne maximal mit einem 4-Kern Die für Notebooks.
Ich kann mir leider überhaupt keine Vorstellung machen, was so eine Maske kostet.
Aber ich wusste grad nicht mehr, dass die Cores selbst so klein sind und eigentlich das Drumherum noch viel ausmacht.
Letztlich muss man früher oder später sowieso mehrere Masken entwickeln, falls man mehr Geld rausquetschen möchte. Das zahlt sich halt erst ab einem gewissen Marktanteil aus, aber das ist klar.
Aber derzeit hat man ja AFAIR 2: einen für die Prozessoren mit, einen für die ohne GPU.
Letztlich wird es in Zukunft wohl welche geben mit 12 und 16 Kerne und wohl auch welche mit weniger dafür als APU. Auch davon wird es dann vermutlich mehr als 1 Variante geben. Ich weiß gerade nicht, wieviele Intel hat (Locuza? *liebschau*), aber ich kann mir vorstellen, dass ab einem gewissen Punkt es für AMD sinnvoll ist, auch kleinere Chips aufzulegen, nicht jeder braucht mehr als 4 Kerne und für einen 4 Kerner brauchts dann wirklich keinen 12 Core Die (außer es fallen am Beginn so viele Dies an, die nur 2 funktionierende Kerne haben und man im Verbund dann einen 4 Kerner macht, statt voll funktionierende 12 Kern-Dies teildeaktiviert unters Volk zu streuen - das wär furchtbar).
 
Zuletzt bearbeitet:
Ich bin eben so naiv und glaube, dass einige Transistoren dazu gekommen sind, weil man halt an der Architektur soweit rumgebastelt hat, sodass höhere IPC, höherer Takt und mehr Funktionen drin sind. Ich gebe deiner Rechnung natürlich recht, das Milchmädchen stimmt zu, aber ich hoffe, dass sich mehr ändert, als zwischen Zen und Zen+.
Auf jeden Fall ändert sich da deutlich mehr.

Eben. Da ist eben auch die Frage der Zielsetzung und Ressourcen von AMD. Wenn man sich als Ziel gesetzt hat, bestehendes mal einfach nur Problemlos in den nächsten Prozess zu bringen und die tatsächlichen Änderungen eigentlich erst mit Zen 3 kommen, dann sind die Dies wohl sehr klein.
Es werden immer Änderungen erscheinen, wie viel kann man nie voraussagen.
Bei Zen2 werden es pro Chip vermutlich 12-Kerne, statt PCIe3.0 wird PCIe4.0 eingebaut und die Architektur verbessert.
Bei Zen3 sollte ein Chip aus 16-Kernen bestehen und statt DDR4 sollte (zusätzlich?) DDR5 Einzug erhalten, neben erneuten Architekturänderungen.

In 2 Jahren hat sich ja bei Intel faktisch auch nichts getan, man darf heutzutage ja nichtmal enttäuscht sein, wenn man ein kaum verändertes Produkt nochmal serviert bekommt.
Intel hat jedes mal an den Kernen etwas verändert, egal ob Tick oder Tock, aber seit ihren 10nm Problemen recyceln Sie seit 3 Jahren die gleichen Skylake-Kerne.
Cannon Lake sollte pro Kern irgendeine Veränderung haben, aber Intel gibt gar keine Informationen zur CNL heraus, der gerade halb kaputt ohne iGPU in Low-Volume produziert wird.
Besonders die Gen10 iGPU und deren Fortschritte würden mich interessieren.

Und ich kenne mich auch zu wenig aus, ob eine so starke Verkleinerung nicht auch Probleme ergeben kann bezüglich höherer Dichte bei der Hitzeentwicklung und demzufolge auch der Takt nicht wirklich nach oben geht.
Auf jeden Fall, dass hat 20nm (und 10nm) auch so unattraktiv gemacht, wo man schon grob eine doppelte Transistorendichte bekam, bei der Perf/Watt sich das Ganze aber nur um 20-30% (weiß nicht genau) verbessert hat.
So kann man natürlich die Transistorendichte bei weitem nicht ausnutzen, wenn man von der Effizienz limitiert wird, dann heizen auch doppelt soviele Transistoren ohne deutlich bessere Effizienz zu stark auf.

Jop natürlich. Wobei zu viele vielleicht auch wieder den Fortschritt hämmen, oder es wieder schwierig ist am Markt bezüglich Standards.
Was wenn noch 5 Hersteller da wären, aber andere Befehlssätze hätten?
Bei der ARM-ISA hat noch kein Hersteller eigene Befehlssätze abweichend von ARMs Führung definiert, nicht einmal Apple, wobei das vielleicht noch kommen könnte. :ugly:
Jedenfalls bei den ARM-Architekturen ist die Situation schon aufregend und cool, es gibt Zeug von ARM, Samsung hat eigene Kerne entwickelt, Qualcomm ebenso, Apple hat Top-Klasse Kerne, Nvidia hat mit Denver eigene ARM-Kerne.

AMD arbeitete auch mal an K12 mit eigener ARM-Architektur, wurde leider gestrichen.
Aber ich wusste grad nicht mehr, dass die Cores selbst so klein sind und eigentlich das Drumherum noch viel ausmacht.
https://en.wikichip.org/w/images/7/75/amd_zen_octa-core_die_shot_(annotated).png
Zen - Microarchitectures - AMD - WikiChip

Ein CCX aus 4 Kernen und 8MB L3$ ist 44mm² groß, zwei verbrauchen 88mm², also weniger als die Hälfte vom 213mm² Chip.
Der Rest besteht dann aus dem DDR4-Memory-Controller, dem internen Infinity-Fabric welcher alle Komponenten zusammen verbindet und verwaltet, dann dem I/O etc,

Letztlich muss man früher oder später sowieso mehrere Masken entwickeln, falls man mehr Geld rausquetschen möchte. Das zahlt sich halt erst ab einem gewissen Marktanteil aus, aber das ist klar.
Aber derzeit hat man ja AFAIR 2: einen für die Prozessoren mit, einen für die ohne GPU.
Im Prinzip hat AMD mehrere Masken, da sie unterschiedliche Steppings fertigen lassen und die neuen 12nm Masken, aber das ist bei so kleinen oder nicht tiefgreifenden Änderungen auch relativ einfach und kostengünstig zu machen.
Bisher hantiert AMD effektiv aber nur mit zwei Hauptmasken, Zeppelin für die CPUs mit bis zu 8-Kernen und Raven-Ridge mit bis zu 4-Kernen und Vega iGPU.

Letztlich wird es in Zukunft wohl welche geben mit 12 und 16 Kerne und wohl auch welche mit weniger dafür als APU. Auch davon wird es dann vermutlich mehr als 1 Variante geben. Ich weiß gerade nicht, wieviele Intel hat (Locuza? *liebschau*), aber ich kann mir vorstellen, dass ab einem gewissen Punkt es für AMD sinnvoll ist, auch kleinere Chips aufzulegen, nicht jeder braucht mehr als 4 Kerne und für einen 4 Kerner brauchts dann wirklich keinen 12 Core Die (außer es fallen am Beginn so viele Dies an, die nur 2 funktionierende Kerne haben und man im Verbund dann einen 4 Kerner macht, statt voll funktionierende 12 Kern-Dies teildeaktiviert unters Volk zu streuen - das wär furchtbar).
Laut alten Roadmaps hatte AMD Pläne einen low-cost APU Nachfolger für Stoney Ridge (1 Excavator Modul (2 integer-Kerne) + 192 Shader GCN 3 GPU) mit Zen1 gehabt.
Das wäre eine dritte Maske mit Zen gewesen, nur mit einem Dual-Core, wobei hier sich einfach die Frage stellt, ob der noch kommt oder AMD einfach den bisherigen Raven-Ridge Chip beschneidet.

Intel fertigt im Vergleich eine ganze Masse an unterschiedlichen Konfigurationen, im Falle von Skylake ganze 5 für den Konsumenten:
Skylake (client) - Microarchitectures - Intel - WikiChip

Und 3 für Server mit Skylake-X:
Skylake (server) - Microarchitectures - Intel - WikiChip

Mit Coffee Lake gibt es nun für Konsumenten auch eine Maske mit 6-Kernen und in Zukunft noch eine neue mit bis zu 8-Kernen.
Welche Chips Intel auslaufen lässt und welche aktiv gefertigt werden, weiß ich jetzt nicht, aber simultan fertigen die von Top-to-Bottom sicherlich mindestens 6 unterschiedliche Konfigurationen.
 
Zuletzt bearbeitet:
Auf jeden Fall ändert sich da deutlich mehr.
Das hoffen wir, aber wissen tun wirs nicht, oder gabs mal Infos?


Intel hat jedes mal an den Kernen etwas verändert, egal ob Tick oder Tock, aber seit ihren 10nm Problemen recyceln sie seit 3 Jahren die gleichen Skylake-Kerne.
Das habe ich damit gemeint. Ich weiß, dass es davor immer wieder Verbesserungen gab (zuletzt bei Kaby, aber nicht an den CPU Kernen sondern der GPU), die sich auch auf die IPC und Taktbarkeit auswirkten.
Cannon Lake sollte pro Kern irgendeine Veränderung haben, aber Intel gibt gar keine Infos zu der neuen Generation, die halb kaputt gerade ohne iGPU in Low-Volume produziert wird.
Besonders die Gen10 iGPU und deren Fortschritte würden mich interessieren.
Moi aussi!

Auf jeden Fall, dass hat 20nm auch so unattraktiv gemacht, wo man schon grob eine doppelte Transistorendichte bekam, bei der Perf/Watt sich das Ganze aber nur um 20-30% (weiß nicht genau) verbessert hat.
So kann man natürlich die Transistorendichte bei weitem nicht ausnutzen, wenn man von der Effizienz limitiert wird, dann heizen auch doppelt soviele Transistoren ohne deutlich bessere Effizienz zu stark auf.
Eben, denken kann man sich das ja. Wenn die doppelte Verlustleistung pro Fläche entsteht ist das irgendwann mal nicht mehr kühlbar. Ein weiteres Problem, das eben mit der Effizienz der Architektur skaliert, weshalb mir dieses Thema (etwa bei AMD vs Nvidia) so wichtig erscheint.



AMD arbeitete auch mal an K12 mit eigener ARM-Architektur, wurde leider gestrichen.
Ich wusste nicht, dass dem so ist (gestrichen). Ich dachte Keller hätte dieses Projekt vorangetrieben. Da hat AMD aber ordentlich Geld verballert: Microserver-Unternehmen gekauft, wieder (mit Verlust?) verkauft, ARM Chips entwickelt, dann doch eingestellt, Keller (dafür?) eingestellt, Ressourcen abgezogen. Und jetzt ist man dennoch nicht mit im Markt? Da muss man aber Vertrauen in die x86 Zukunft haben bzw. vielleicht Dinge wissen, die wir nicht wissen? Was ist mit Mobile und Automotive? Will man da nicht früher oder später mitmischen?

https://en.wikichip.org/w/images/7/75/amd_zen_octa-core_die_shot_(annotated).png
Zen - Microarchitectures - AMD - WikiChip

Ein CCX aus 4 Kernen ist 44mm² groß mit dem L3$, zwei verbrauchen 88mm² also weniger als die Hälfte vom 213mm² die.
Der Rest besteht dann aus dem DDR4-Memory-Controller, dem internen Infinity-Fabric welcher alle Komponenten zusammen verbindet und verwaltet, dann dem I/O etc,


Im Prinzip hat AMD mehrere Masken, da sie unterschiedliche Stepping fertigen lassen und die neuen 12nm Masken, aber das ist bei so kleinen oder nicht tiefgreifenden Änderungen auch relativ einfach und kostengünstig zu machen.
Bisher hantiert AMD effektiv aber nur mit zwei Hauptmasken, Zeppelin für die CPUs mit bis zu 8-Kernen und Raven-Ridge mit bis zu 4-Kernen und Vega iGPU.


Laut alten Roadmaps hatte AMD Pläne einen low-cost APU Nachfolger für Stoney Ridge (1 Excavator Modul (2 integer-Kerne) + 192 Shader GCN 3 GPU) mit Zen1 gehabt.
Das wäre die dritte Variante gewesen, mit einem Dual-Core Zen, wobei hier sich einfach die Frage stellt, ob der noch kommt oder AMD einfach den bisherigen Raven-Ridge die beschneidet.

Intel fertigt im Vergleich eine ganze Masse an unterschiedlichen Konfigurationen, im Falle von Skylake ganze 5 für den Konsumenten:
Skylake (client) - Microarchitectures - Intel - WikiChip

Und 3 für Server mit Skylake-X:
Skylake (server) - Microarchitectures - Intel - WikiChip

Mit Coffee Lake gibt es nun für Konsumenten auch eine Maske mit 6-Kernen und in Zukunft noch eine neue mit bis zu 8-Kernen.
Welche dies Intel auslaufen lässt und welche aktiv gefertigt werden, weiß ich jetzt nicht, aber simultan fertigen die von Top-to-Bottom sicherlich mindestens 6 unterschiedliche dies.

:daumen:
Danke, das war mal wieder sehr informativ. Hab wieder was gelernt!
 
Das hoffen wir, aber wissen tun wirs nicht, oder gabs mal Infos?
Konkret und gesichert weiß man eig. nichts.
Wenn man alten Leak-Folien glaubt, dann stehen wie gesagt die 12-Kerne pro Chip und PCIe4.0 fest.

Offiziell heißt es von AMD nur das Zen2 in mehreren Dimensionen besser, als Zen1 ausfallen wird.
Mike Clark als Zen-Lead hat auf der Hot-Chips Konferenz jedenfalls gesagt, dass man aus Zeitgründen die SMT-Implementierung etwas simpler gehalten hat, deswegen wird unter anderem die Store-Queue (noch) statisch zwischen den Threads partitioniert:
https://hardwadictive.com/wp-content/uploads/2016/11/AMDSRG214.png

Ebenso hat Lisa Su und noch weitere AMD-Angestellte bei Fragen bezüglich des Server-Marktes und dem AVX-Durchsatz auf zukünftige Zen-Architekturen verwiesen.

Dank 7nm könnte sich AMD eig. schon den Folgeschritt leisten, mit nativem 256-Bit AVX-Durchsatz, aktuell braucht ein Kern zwei Durchläufe für eine 256-Bit Operation, da immer nur die Hälfte pro Rechenschritt berechnet werden kann, da ein Zen-Kern sehr schmal mit nur 128-bit Datenleitungen ausfällt.
Cool wäre es noch, wenn Zen2 schon AVX512 unterstützen könnte, eben wie aktuell 256-Bit AVX nur mit halber Rate, aber immerhin den Befehlssatz unterstützen, dass bringt auch schon Vorteile.

Das habe ich damit gemeint. Ich weiß, dass es davor immer wieder Verbesserungen gab (zuletzt bei Kaby, aber nicht an den CPU Kernen sondern der GPU), die sich auch auf die IPC und Taktbarkeit auswirkten.
Die Architektur hat sich bezüglich der GPU selber nicht verbessert, sondern nur die Media-Engine und ich glaube am Display-Controller hat Intel etwas gemacht.
Die GPU-Architektur ist noch die gleiche wie von Skylake.

Eben, denken kann man sich das ja. Wenn die doppelte Verlustleistung pro Fläche entsteht ist das irgendwann mal nicht mehr kühlbar. Ein weiteres Problem, das eben mit der Effizienz der Architektur skaliert, weshalb mir dieses Thema (etwa bei AMD vs Nvidia) so wichtig erscheint.
Ja, dass interessiert zwar Kunden bei einem Teilmarkt nicht sondernlich, aber wenn eine Architektur 40-60% effizienter ist, dann ist offensichtlich wer als erster vor der Power-Wall hängen bleiben wird.
Rein technisch und auch für die Marktsituation ist es wichtig, bei der Perf/Watt sehr konkurrenzfähig zu sein, ansonsten kann man Teilmärkte gar nicht konkurrenzfähig beliefern.

Ich wusste nicht, dass dem so ist (gestrichen). Ich dachte Keller hätte dieses Projekt vorangetrieben. Da hat AMD aber ordentlich Geld verballert: Microserver-Unternehmen gekauft, wieder (mit Verlust?) verkauft, ARM Chips entwickelt, dann doch eingestellt, Keller (dafür?) eingestellt, Ressourcen abgezogen. Und jetzt ist man dennoch nicht mit im Markt? Da muss man aber Vertrauen in die x86 Zukunft haben bzw. vielleicht Dinge wissen, die wir nicht wissen? Was ist mit Mobile und Automotive? Will man da nicht früher oder später mitmischen?
Keller hat eig. das ganze Team geleitet und was er konkret gemacht hat, weiß man höchst offiziell nicht, laut Computerbase hat er (auch) an Server-Features gearbeitet, möglicherweise am Infinity-Fabric und dessen Methodologie, Keller war ganz früher der Co-Author von Hypertransport, worauf Infinity-Fabric teilweise basiert.
Falls AMD mit den entwickelten ARM-Kernen nichts mehr anfangen will, dann ja, dann hat AMD Zeit und Energie umsonst investiert.

Laut AMD konzentriert man sich (in naher Zukunft?) nur auf x86 und das scheint auch der richtige Plan zu sein.
Die ursprünglichen ARM-Server-Prognosen sehen nämlich überhaupt nicht mehr so rosig aus wie anfangs gedacht, möglicherweise auch wegen x86-Zen, wo der Markt einfach einen weiteren starken Player, neben Intel haben wollte und das jetzt ordentlich gedeckt wird.

Bezüglich des Automotive-Bereichs hat man Interesse, aber laut Lisa Su wird AMD den Markt nur beliefern, wenn sich ein Kooperationspartner findet, also sprich AMD möchte keine Lösung entwickeln auf den Markt werfen und darauf hoffen das jemand anbeißt, sondern jemand muss mit Vertragsinteresse schon an AMD herantreten wie bei den Konsolen.
 
Dank 7nm könnte sich AMD eig. schon den Folgeschritt leisten, mit nativem 256-Bit AVX-Durchsatz, aktuell braucht ein Kern zwei Durchläufe für eine 256-Bit Operation, da immer nur die Hälfte pro Rechenschritt berechnet werden kann, da ein Zen-Kern sehr schmal mit nur 128-bit Datenleitungen ausfällt.
Cool wäre es noch, wenn Zen2 schon AVX512 unterstützen könnte, eben wie aktuell 256-Bit AVX nur mit halber Rate, aber immerhin den Befehlssatz unterstützen, dass bringt auch schon Vorteile.

Es gab ja auch Gerüchte, dass AMD AVX aus Kostengründen so stark beschnitten hat. Hast du Informationen wie groß AVX flächenmäßig ausfällt?
Macht das wirklich so einen großen Unterschied? Wenn es die Fläche stark vergrößert, dann wäre es besonders bei einem neuen Prozess wegen der höheren Yields interessant AVX wieder größer zu beschneiden. Privatanwender werden es eh aktuell wenig verwenden. Bei Epyc wäre natürlich AVX512 deutlich interessanter.
 
AMD hat mit Absicht den Kompromiss gewählt, weil es die Kerne größer macht, zu mehr Komplexität führt und einen relativ geringen Anwendungsbereich besitzt.
So kann AMD 8-Kerne in nur 213mm² packen und den Großteil des Marktes beliefern und rein vom Ausgangspunkt ergibt es mehr Sinn einen Kompromiss zu wählen, der 20% des potentiellen Marktes schadet, als 80%.

Bei Skylake-X kann man sehen wie viel eine AVX512-Bit Einheit an Fläche verbraucht:
https://en.wikichip.org/w/images/1/1d/skylake_sp_mesh_core_tile_zoom_with_client_shown.png
Skylake (server) - Microarchitectures - Intel - WikiChip

Das ist auf dem Bild nicht soviel, aber Intels Fetch-Unit kann schon seit Haswell theoretisch bis zu 64-Bytes holen und hat diese Anbindung auch zu den L1$ Caches.
Bei Zen liegt das Ganze nur bei der Hälfte und die Einheiten selber sind logischerweise dann auch nur 128-Bit breit.
Intel hat eine Unified Port-Architektur, Integer- und FP-Einheiten hängen gemeinsam an den Ports und können sich Leitungen zum Cache teilen und müssen diese nicht jeweils so breit haben, wie für einen bestimmten Durchsatz notwendig.

Bei AMD ist das nicht so, dort sind Integer-Cores und FP-Pipes jeweils getrennt aufgestellt, die müsste AMD jeweils getrennt doppelt so breit zum Cache verbinden.
Full-Rate AVX512 ist vermutlich zu kostspielig für AMD und mit dem aktuellen Kompromiss fährt man ziemlich gut, aber bei Zen2 kann man darüber spekulieren, ob AMD den Mittelweg gehen wird und AVX256-Bit auf Full-Rate aufrüsten.

Bei Full-Rate AVX512 kann man auch darüber nachdenken, ob zwei getrennte Masken für Konsumenten und Serverkunden nicht Sinn ergeben.
Aber ich denke das ist frühstens bei Zen 3 oder eher bei Zen 4 ein Thema.
 
Ich glaube, ich werde auf Zen2 warten. Ich wollte zwar eigentlich einen 2700x kaufen, aber vn 7nm verspreche ich mir einen ordentliche Performancesprung.
 
Offiziell heißt es von AMD nur das Zen2 in mehreren Dimensionen besser, als Zen1 ausfallen wird.
Mike Clark als Zen-Lead hat auf der Hot-Chips Konferenz jedenfalls gesagt, dass man aus Zeitgründen die SMT-Implementierung etwas simpler gehalten hat, deswegen wird unter anderem die Store-Queue (noch) statisch zwischen den Threads partitioniert:
Ich nehme an diese Aussage bezieht sich auf Zen1 und du meinst, mit Zen 2 wird / kann sich das ändern.
Cool wäre es noch, wenn Zen2 schon AVX512 unterstützen könnte, eben wie aktuell 256-Bit AVX nur mit halber Rate, aber immerhin den Befehlssatz unterstützen, dass bringt auch schon Vorteile.
Es wäre nicht zuletzt auch ein gutes "Checklist" Feature. Wenngleich mir gerade noch der (Praxis-) Bezug zu AVX 512 fehlt. Also mir fällt gerade nicht ein, wo außer beim Video Encodieren mir das behilflich sein könnte.

Bezüglich des Automotive-Bereichs hat man Interesse, aber laut Lisa Su wird AMD den Markt nur beliefern, wenn sich ein Kooperationspartner findet, also sprich AMD möchte keine Lösung entwickeln auf den Markt werfen und darauf hoffen das jemand anbeißt, sondern jemand muss mit Vertragsinteresse schon an AMD herantreten wie bei den Konsolen.
Wusste ich so noch nicht, danke!
 
Zuletzt bearbeitet:
Ja, dass war nicht klar heraus zu lesen, aber Michael (Mike) Clark hat eine Präsentation zu Zen1 auf der Hot-Chips gehalten:
YouTube

Es kommt relativ selten vor, dass man bei der Präsentation von neuen Architekturen gleich sagt, welches Feature wegen Zeitgründen simpel ausfällt und in der Zukunft verbessert wird.

Bei AVX512 herrscht ein kleiner Zoo, es gibt gleich mehrere unterschiedliche Befehlssätze und Funktionen.
Aber abseits vom höheren Durchsatz, falls man 512-Bit Operationen in einem Schritt ausrechnen möchte, bietet AVX512 Vorteile an, es gibt mehr Register, mehrere Funktionen welche die Programmierung verbessern und die Autovektorisierung für Compiler erleichtern.

Aber ähnlich wie bei AVX1&2 wird die Verbreitung erst einmal leiden, aber es ist viel besser, wenn man schon früh den Befehlssatz unterstützt.
Mit AVX1 hat AMD gute Umsetzungen dank Bulldozer und Jaguar auf den Markt veröffentlicht, während Intel ihr Low-End Zeug mit Absicht beschnitten hat und den Support dafür gestrichen.
Ja das hilft sicher der potentiellen Verbreitung in der Zukunft. :schief:

Ein PS3 Emulator verwendet AVX512, um die SPUs schneller zu emulieren, aber Skylake-X hat auch vollen Durchsatz für zwei 512-Bit Operationen.
 
Es wäre nicht zuletzt auch ein gutes "Checklist" Feature. Wenngleich mir gerade noch der (Praxis-) Bezug zu AVX 512 fehlt. Also mir fällt gerade nicht ein, wo außer beim Video Encodieren mir das behilflich sein könnte.

AVX könnte man theoretisch sehr breit einsetzen, aber die Marktdurchdringung ist noch zu niedrig. Bei AVX würdest du alle CPUs vor Sandy Bridge oder Bulldozer ausschließen und somit noch viele Server. Bei AVX-512 hat noch fast jeder Prozessor von Intel einen anderen Befehlssatz.
Zusätzlich soll die Spieleindustrie ein riesiges Nachwuchsproblem zu haben. Das macht die Sache natürlich auch nicht einfacher.
 
AVX könnte man theoretisch sehr breit einsetzen, aber die Marktdurchdringung ist noch zu niedrig. Bei AVX würdest du alle CPUs vor Sandy Bridge oder Bulldozer ausschließen und somit noch viele Server. Bei AVX-512 hat noch fast jeder Prozessor von Intel einen anderen Befehlssatz.
Zusätzlich soll die Spieleindustrie ein riesiges Nachwuchsproblem zu haben. Das macht die Sache natürlich auch nicht einfacher.
Ja, ich meinte eh damit, dass ich für mich als Privatanwender NOCH den Vorteil nicht sehe, natürlich ist es ein Henne-Ei Problem und erst mit gewisser Verbreitung können es die Entwickler als Grundvorraussetzung in ihre Engines einbauen und hoffentlich sinnvoll verwenden.
Das mit dem Nachwuchsproblem habe ich nicht ganz verstanden, die Indieszene blüht und bei uns in den "Game-Design" Kursen sind jedes Semester mehr Anmeldungen als Plätze
 
Zurück