AMD Epyc: Zen 2 wurde in Hinblick auf Intels Ice Lake (10 nm) entwickelt

Ich freue mich schon auf Zen 2. Eigentlich war ein Hexacore geplant.
Wenn aber mit einem 7nm DIE der Takt von des Threadripper 1920X von 3,5-4,0 GHz gehalten werden kann (oder gar verbessert wird) könnte ich mir auch den Vollausbau mit 12 Kernen vorstellen. Hängt dann natürlich auch vom Preis ab. Wenn Intel hinterher hängt, könnten die Chips sicher auch teurer werden.


Wobei CannonLake letztes Jahr hätte erscheinen sollen, wo CoffeLake eingeschoben wurde. Somit wäre IceLake für dieses Jahr geplant und der Serverableger IceLake-E wäre dann ein Jahr später, also 2019 erschienen.
 
Zuletzt bearbeitet:
jo wenn die IPC stimmt könnt ich mir auch Rome vorstellen aber wofür um himmels willen brauch ich das^^ Wenn Ryzen 3000 wirklich mit bis zu 12 Kernen kommt und tatsächlich nebst kleinen abstrichen auf AM4 370X lauffähig sein wird, bin ich erstmal zu frieden. 12 Threads ist für meine Zwecke momentan noch ausreichend^^ Noch..
Wenn das nicht funktioniert wie gewünscht muss ja eh eine andere Platform her auch wenn das erst mit ausgereifteren DDR5 geplant war.. ich bin sehr gespannt.
Dann noch eine futuristisch-fiktive AMD Voyager 3 mit Captain J.K.(eller) aus dem Orion Nebel von Beteigeutze. Der von den CPU-Invasoren überläuft
 
Zuletzt bearbeitet:
Arbeitet man nicht immer so als Firma? Guckt und überlegt was die Konkurrenz macht und versucht es besser zu machen?

Verstehe die News dazu nicht!

Einzige Vorteil bei AMD, ist aktuell wirklich die Fertigung. Intel hat massive Probleme mit 10nm und kommt nicht in die Hufe und AMD bringt Ende des Jahres den 7nm Prozess in Serie in Form von Epyc. Nächstes Jahr dann für Zen 2. Dieses Jahr noch 32 Kerne mit 12nm LP.

Wenn AMD das Tempo halten kann was die Fertigung und vor allem auch die Produktion angeht, sehe ich AMD spätestens nächstes Jahr vor Intel. Alleine schon wenn man überlegt das der 28 Kerner auf Q2 2019 geschoben wurde, Cannon Lake noch lange nicht kommt und Cascade Lake auch verschoben wurde! Ice Lake und Tiger Lake sehe ich nicht vor 21 oder gar 22!

Es ist schön das wir endlich wieder diese Konkurrenz haben! Bei den CPUs läuft es bei AMD aktuell wirklich Rund und machen Fortschritte und bei Intel kommt ein Rückschlag nach dem anderen! Normal wäre dieses Jahr Tiger Lake dran gewesen.
 
Selbst wenn man Intels Tick-Tock-Schema stur ab der Einführung mit Penryn abzählt, wäre 2015 erst Cannonlake erschienen. Von Ice Lake war damals aber nicht einmal der Codename bekannt. Erste Mutmaßungen zu technischen Aspekten gab es erst 2015 im Skylake-Umfeld als Ice Lake im Server-Bereich für 2019 erwartet werden konnte. Ohne Insider-Informationen aus dem engsten Intel-Entwicklerkreis hätte AMD damals aber die Leistungszuwächse über vier Generationen vorhersagen müssen; konkrete Anhaltspunkte zu kommenden Intel-Scalable-Prozessoren gibt es erst seit Skylake X 2016 und damals war schon klar, dass Ice Lake nicht vor 2020 gegen Epyc antreten würde.

Zugegebenermaßen wirkt die AMD-Aussage auch unter diesen Voraussetzungen merkwürdig, da Zen 2 gut ein Jahr früher erscheinen soll. :-)

Vielleicht läuft es ja so gut bei Zen 2 bzw. bei den Nachfolgern dass sie nicht warten wollen schließlich müssen sie noch etwas drauflegen um mehr Marktanteile zu bekommen
 
Ich muss ganz ehrlich sagen, dass ich, nachdem ich das Brodeln im Hintergrund teilweise mitbekommen habe, noch gespannter auf Zen2 bin. Wird das etwa doch ein Hammer?

Selbst wenn man Intels Tick-Tock-Schema stur ab der Einführung mit Penryn abzählt, wäre 2015 erst Cannonlake erschienen. Von Ice Lake war damals aber nicht einmal der Codename bekannt. Erste Mutmaßungen zu technischen Aspekten gab es erst 2015 im Skylake-Umfeld als Ice Lake im Server-Bereich für 2019 erwartet werden konnte. Ohne Insider-Informationen aus dem engsten Intel-Entwicklerkreis hätte AMD damals aber die Leistungszuwächse über vier Generationen vorhersagen müssen; konkrete Anhaltspunkte zu kommenden Intel-Scalable-Prozessoren gibt es erst seit Skylake X 2016 und damals war schon klar, dass Ice Lake nicht vor 2020 gegen Epyc antreten würde.

Zugegebenermaßen wirkt die AMD-Aussage auch unter diesen Voraussetzungen merkwürdig, da Zen 2 gut ein Jahr früher erscheinen soll.
01 sm_B-).gif

Du bist wirlich manchmal ein Meister der kryptischen Formulierungen. :) Ich kann dir nicht ganz folgen. Schließt du aus, dass AMD in der Designphase von Zen2 davon ausgegangen ist, dass Ice Lake 2019 kommt? War das wirklich so unwahrscheinlich? Wann wurde Zen2 eigentlich designt? Ende 2016/Anfang 2017?
 
Zuletzt bearbeitet von einem Moderator:
Einzige Vorteil bei AMD, ist aktuell wirklich die Fertigung. Intel hat massive Probleme mit 10nm und kommt nicht in die Hufe und AMD bringt Ende des Jahres den 7nm Prozess in Serie in Form von Epyc. Nächstes Jahr dann für Zen 2. Dieses Jahr noch 32 Kerne mit 12nm LP.

Wenn AMD das Tempo halten kann was die Fertigung und vor allem auch die Produktion angeht, sehe ich AMD spätestens nächstes Jahr vor Intel. Alleine schon wenn man überlegt das der 28 Kerner auf Q2 2019 geschoben wurde, Cannon Lake noch lange nicht kommt und Cascade Lake auch verschoben wurde! Ice Lake und Tiger Lake sehe ich nicht vor 21 oder gar 22!

Es ist schön das wir endlich wieder diese Konkurrenz haben! Bei den CPUs läuft es bei AMD aktuell wirklich Rund und machen Fortschritte und bei Intel kommt ein Rückschlag nach dem anderen! Normal wäre dieses Jahr Tiger Lake dran gewesen.


Du bist aber sehr optimistisch, was die Release-Zeitpunkte angeht. Ich denke nicht, dass noch dieses Jahr mit neuen Epycs zu rechnen ist, eher früh im nächsten Jahr. Und obwohl Intels neue Fertigung ganz sicher massive Probleme macht, ist es unwahrscheinlich, dass sich die erste größere Generation auf deren Basis noch bis 2021 verschiebt. Bis 2020 vielleicht, wenn die Blauen wirklich Pech haben, aber kaum noch länger. Käme es anders, müsste man in der Zwischenzeit längst noch einen Plan B neben 14nm++++ entwickelt haben, sonst fiele man viel zu weit zurück. Immerhin schlafen TSMC und co. auch nicht. Und der Core-Nachfolger soll ja auch schon in Entwicklung sein - liefe es wirklich so schlecht, würde man die letzten Core-Ableger vermutlich einfach einstampfen. Teuer, sicher, aber nichts, was für Intel finanziell ausgeschlossen wäre.

Cannon Lake gibt es im Übrigen schon, aber eben nur als Dual-Cores mit deaktivierter Grafikeinheit - mehr gibt 10nm aktuell noch nicht her. Und der 28-Kerner ... war der jemals für einen früheren Zeitraum vorgesehen? Das würde mich stark wundern, da ja allein dessen Vorführung nur von AMDs bevorstehender Vorstellung eines 32-Kern-TR getriggert wurde, ansonsten würde man solche monumentalen Dies niemals auf eine zweite HEDT-Plattform drücken - deren Vorbereitung wiederum auch Zeit kostet, als Hau-ruck-Aktion ist Q2/2019 fast noch als schnell zu beurteilen. Seinen 18-Kerner konnte man letztes Jahr immerhin noch auf LGA2066 bringen - auch wenn die Plattform selbst damit auch schon mehr belastet wurde als sie hätte werden sollen und man die Partner damit verärgerte.

So oder so, auf TSMCs / GloFos 7nm-Prozess und darauf, wie er performt, darf man sehr gespannt sein. Der dürfte uns ja dann eine ganze Weile erhalten bleiben.
 
Du machst Intel allein an den CPUs fest und vergisst andere Sparten. Darüber hinaus isr er der erfolgreichste Chef den Intel je hatte wenn man eines beachtet- und zwar das einzig wirklich wichtige: Umsatz und Gewinn

Dass er jetzt gehen muss hat wohl eher mit Meltdown, Spectre/ Aktienverkäufe und der Verkrüppelung der GPU Sparte zu tun die man jetzt wieder aufbauen muss
Welche anderen Sparten? Wir haben letztes Jahr 54% Umsatz- bzw. 48% Gewinnanteil für Client Computing und beides rund 31% für Data Center. In den beiden Bereichen war man ja konkurrenzlos. Die nächstgrößten ausgewiesenen Bereiche sind Speicher mit 5,6% Umsatz und IoT mit 2,4% Gewinn.
Dabei will ich Intel keineswegs den Versuch der Innovation in einigen Bereichen (bspw. Optane) absprechen. Aber sobald es Konkurrenz gab, war man nicht unbedingt erfolgreich (z.B. Mobile).

Krzanich größte Leistung bestand darin, die Preise bei einem Quasi-Monopol anzuziehen. Da hält sich meine Bewunderung in Grenzen, das schafft ein BWL-Erstsemester.
Wird sicher nicht der einzige Grund sein, wie du sagst gibt es noch andere Punkte. Aber für gewöhnlich wird die Reißleine immer dann gezogen, wenn es ums Geld geht. Wobei ich es durchaus für möglich halte, dass Krzanich selbst diese "Exit-Strategie" gewählt hat.

Intel war nie wirklich im Hintertreffen. Leistungstechnisch ist Intel immer noch "vorne" (wenn man gleiche Technologie gegenüberstellt, nicht gleiche Preise!) und es wird andere Gründe geben, warum er den Hut nehmen muss, als die Leistung der CPUs alleine. Das einzige Problem, welches Intel gerade hat, ist dass AMD den Servermarkt aufmischen kann, da sie ihre CPUs einfach viel günstiger fertigen können, als Intel (das ist der wahre Vorteil von Ryzen!). Im Heimcomputermarkt ist Intel nach wie vor absolut dominant.
Ich vermute viel eher, es hängt damit zusammen, dass

  1. es quasi keine Reaktion auf die Spectre- und Meltdown-Entdeckungen gab,
  2. er kurz vor den Veröffentlichungen über die Sicherheitslücken all seine Aktien verkauft hat, die er nur verkaufen konnte
  3. und Intel den 10 nm Prozess einfach nicht auf die Reihe kriegen will, während die Konkurrenz das erste Mal seit Jahren der Intel-Dominanz davonzieht.
gRU?; cAPS

IPC-mäßig sind es noch ca. 5-10% die mit der nächsten Ryzen-Iteration weg sein könnten/dürften und eben der Taktvorsprung der auch immer schmäler wird. Beides wird man nicht mehr so stark ausbauen können, IPC weil Core "totoptimiert" wurde und Takt wegen physikalischen Grenzen.
Im Gegenzug hat man sowohl im Datacenter als auch beim Consumer bei Kernanzahl das Nachsehen und bei der Produktion hat man den Vorsprung verspielt. Das monolithische Design ist zwar bei der Geschwindigkeit ein leichter Vorteil, in der Produktion aber um Längen teurer. Dazu auch noch die Probleme mit 10nm wodurch die Prozesse anderer Hersteller derzeit gleichauf und schon bald vorne sind.

Das AMD im Serverbereich nach wie vor kaum vertreten ist liegt dabei eher in der Natur des Marktes und Intels geschlossenem Ökosystem. Hier wird erst einmal 1-2 Jahre getestet wie das Ganze läuft bevor man einen Umstieg plant (oder eben nicht).

Wie du und Rollora sagen und ich weiter oben einräume, gibt es sicher mehrere Ursachen für den Rücktritt die sich kumulieren. Spectre/Meltdown und die Aktiengeschichte sind mir mit fast einem halben Jahr zu lange her um jetzt daraus Konsequenzen zu ziehen. Aber in Kombination mit anderen "Verfehlungen" wie Grafiksparte, Aktien, 10nm und eben den verlorenen Wettbewerbsvorteil?
 
Klar ist das AMD Lunte gerochen hat im CPU Markt. Das Intel auch alles dran setzen wird um AMD auf abstand zu halten ist auch klar, genau so das AMD alles versuchen wird um den Abstand zu verkleinern. Intel ist sicher noch beim Takt vorne, AMD bei Multicore. So wie AMD versuchen wird im Takt aufzuholen wird das Intel auch bei Multicore versuchen. Das ist mal sicher.

Auf der anderen Seite. Wenn Intel sich hin stellt eine neue tolle CPU vorstellt und vergisst dabei zu erwähnen das man die massiv übertaktet hat und gar nicht verrät wie sie die gekühlt haben ( weil das ist auch entscheiden) und wie lange die CPU das durch gehalten hätte. Vor sie zu heiß wird. Dann sagt mir das, das ganze hat nur dazu gedient um die "Kunden" davon abzuhalten bei AMD ein zukaufen. Was wieder um heißt so locker nimmt das Intel zur Zeit nicht. Man könnte auch sagen das ist einer leicht nervös.
Aber wir werden es sehen was die Zukunft bringt.

Für uns Kunden wäre es am besten wenn AMD jetzt so an Intel vorbeizieht bis sie beide ca einen Marktanteil von 40 bis 60% haben und dann Intel wieder gleich zieht.

Zu hoffen bleibt das AMD so was wie der Ryzen dann in 2-3 Jahren auch bei den GPUs gelingt.
 
Du machst Intel allein an den CPUs fest und vergisst andere Sparten. Darüber hinaus isr er der erfolgreichste Chef den Intel je hatte wenn man eines beachtet- und zwar das einzig wirklich wichtige: Umsatz und Gewinn.

Intels Rekordeinnahmen sind aber eine Momentaufnahme und mit Blick darauf, dass es bei großen Unternehmen oft Jahre braucht, bis die Implementierung bestimmter Änderungen bestimmte Wirkungen erzielt, müssen die Faktoren, die zu diesen Rekorden geführt haben (genaueren Einblick vorausgesetzt) nicht unbedingt unter seinem Gürtel zu suchen sein.

Du erwähnst etwa die "Verkrüppelung der GPU-Sparte", die man nun wieder aufbauen müsse - Entscheidungen, die dazu geführt haben und eventuell maßgeblich von ihm getroffen wurden, könnten zukünftigen Fiskaljahren bedeutenden Schaden zufügen, weil Grafikprozessoren in ihrer Wichtigkeit so sehr wachsen. Das wäre ein deutlicher Misserfolg für Krzanich, unabhängig davon, wie groß Umsatz und Gewinn ausfielen, als er selbst am Steuer saß.

Ähnliches gilt für die offensichtlich vernachlässigte Entwicklung einer neuen Architektur, die viele Jahre nach den ersten Core i7 längst in den Startlöchern stehen könnte - klar, Gewinnoptimierung war für den Moment möglicherweise wichtiger und eventuell auch das betriebswirtschaftlich natürlichste Vorgehen. Langfristig könnte dieses Versäumnis Intel nun aber jagen - das wird freilich nur die Zukunft zeigen, möglich ist es aber immerhin.

Und davon abgesehen: Was ist Intel denn, wenn es kein Prozessorgigant ist? Andere Produkte als x86-Prozessoren für Großrechner-, Server- und Desktop-Umgebungen hatten nie signifikanten Erfolg. Nvidia zeigt derzeit etwa, wie es besser geht und erschließt sich mit Automotive einen völlig neuen Markt, Intel ist dagegen auf den Mobile-Zug viel zu spät aufgesprungen und konnte die Konkurrenz dort nicht mehr schlagen, der langfristige finanzielle Erfolg von Innovationen wie Optane ist mehr als fraglich.
Sicher, Intel wird kaum von einem Jahr auf das andere verschwinden und es wird immer die Möglichkeit geben, sich weiterzuentwickeln, entsprechende Innovationskraft vorausgesetzt. Ob sie die aber auch haben, muss die Blauen erstmal beweisen. Es gibt sicher Lagen, in denen der Konzern heute lieber wäre als in der, in der er sich aktuell befindet.
 
Es ist aber kein Marketing-Blabla, sondern praktische Realität indem Fall.
Skylake selber kam erst 2015 heraus und Cannon Lake sah nach 2017 aus, dort hat Intel aber praktisch jede Variante außer die kleinen Gestrichen und fährt eine Low-Volume-Produktion.
Nun hat AMD ein schönes Fenster, es sieht nach Anfang 2019 für Zen 2 mit Rome aus, Ice Lake für den Server könnte erst 2020 erscheinen und somit in der Tat deutlich später, als man vor ein paar Jahren angenommen hat.
Jetzt so zu tun, als wäre er als Kontrahent gegen Ice Lake designet worden halte ich für Blabla. Man hat sicher schon vor 3 Jahren gewusst, wie Zen 2 aussehen wird bzw hat diesen geplant(bis auf Details) und da wusste man noch sehr wenig davon, wann Ice Lake kommt. Von daher halte ich es Marketing-Blabla. Und wären wir jetzt nicht bei Ice-lake sondern bei Tiger-Lake wäre es wohl dieselbe Aussage mit Tiger Lake. Reines Blabla, bei AMD weiß kaum jemand wie Ice Lake performt.

Wenn sie es allgemein formulieren (designet in Richtung dessen, was wir von der Konkurrenz 2019 erwarten) - dann ja, aber es auf einzelne Chips/Codenamen zu beziehen halte ich halt für unrealistisch in Anbetracht der Verzögerungen von denen AMD halt nichts wissen konnte. Vor 1-2 Jahren, als man dann in der finalisierung war, hätte man Ice Lake ja immer noch Anfang 2018 erwarten können (oder früher), was wäre dann die Begründung gewesen? Hätte man dann auch gesagt "ja, wir haben Zen 2, der erst 2019 rauskommt auf Ice Lake (2017) hin designet? Und deshalb halte ich es für Blabla bzw eine Übertreibung
Selbst wenn man Intels Tick-Tock-Schema stur ab der Einführung mit Penryn abzählt, wäre 2015 erst Cannonlake erschienen.
Mea Culpa, dachte 10nm und habe Ice Lake im Kopf gehabt weil man derzeit von Cannonlake kaum noch was hört (außer die kürzlich erschienenen 2 Kerner).
Dennoch, sich vor Jahren festzulegen auf eine CPU die vielleicht 2017/18 erscheint? Der Zen 2 Entwicklungsprozess hat ja sicherlich nicht erst 2016 begonnen. Inwiefern du von 2015 (Cannonlake) auf 2020 (Ice Lake) weiß ich jetzt aber nicht.
Zugegebenermaßen wirkt die AMD-Aussage auch unter diesen Voraussetzungen merkwürdig, da Zen 2 gut ein Jahr früher erscheinen soll.
01 sm_B-).gif
Jetzt wo du das so formulierst, merke ich, dass das bei AMDs Marketing (drum: Marketingblabla) nicht unüblich ist. Poor Volta!
Intels Rekordeinnahmen sind aber eine Momentaufnahme und mit Blick darauf, dass es bei großen Unternehmen oft Jahre braucht, bis die Implementierung bestimmter Änderungen bestimmte Wirkungen erzielt, müssen die Faktoren, die zu diesen Rekorden geführt haben (genaueren Einblick vorausgesetzt) nicht unbedingt unter seinem Gürtel zu suchen sein.

Du erwähnst etwa die "Verkrüppelung der GPU-Sparte", die man nun wieder aufbauen müsse - Entscheidungen, die dazu geführt haben und eventuell maßgeblich von ihm getroffen wurden, könnten zukünftigen Fiskaljahren bedeutenden Schaden zufügen, weil Grafikprozessoren in ihrer Wichtigkeit so sehr wachsen. Das wäre ein deutlicher Misserfolg für Krzanich, unabhängig davon, wie groß Umsatz und Gewinn ausfielen, als er selbst am Steuer saß.

Ähnliches gilt für die offensichtlich vernachlässigte Entwicklung einer neuen Architektur, die viele Jahre nach den ersten Core i7 längst in den Startlöchern stehen könnte - klar, Gewinnoptimierung war für den Moment möglicherweise wichtiger und eventuell auch das betriebswirtschaftlich natürlichste Vorgehen. Langfristig könnte dieses Versäumnis Intel nun aber jagen - das wird freilich nur die Zukunft zeigen, möglich ist es aber immerhin.

Und davon abgesehen: Was ist Intel denn, wenn es kein Prozessorgigant ist? Andere Produkte als x86-Prozessoren für Großrechner-, Server- und Desktop-Umgebungen hatten nie signifikanten Erfolg. Nvidia zeigt derzeit etwa, wie es besser geht und erschließt sich mit Automotive einen völlig neuen Markt, Intel ist dagegen auf den Mobile-Zug viel zu spät aufgesprungen und konnte die Konkurrenz dort nicht mehr schlagen, der langfristige finanzielle Erfolg von Innovationen wie Optane ist mehr als fraglich.
Sicher, Intel wird kaum von einem Jahr auf das andere verschwinden und es wird immer die Möglichkeit geben, sich weiterzuentwickeln, entsprechende Innovationskraft vorausgesetzt. Ob sie die aber auch haben, muss die Blauen erstmal beweisen. Es gibt sicher Lagen, in denen der Konzern heute lieber wäre als in der, in der er sich aktuell befindet.
Ich gebe dir großteils recht, beim Fettgedruckten möchte ich kurz anmerken:
Zumindest bis vor kurzem war man größter und modernster Halbleiterhersteller der Welt.
Ob er rechtzeitig die Entwicklung vom Core Nachfolger eingeleitet hat, wird sich zeigen.
Warum man die Entwicklung der integrierten GPUs nicht auf Dedizierte vorangetrieben hat (und die Bereiche die sich um die Software kümmern ausgebaut hat) war mir immer ein Rätsel. Jetzt anzufangen ist halt etwas spät, nachdem AMD lange geschlafen hat, hätte man dort schon vor 5 Jahren anfangen können in die Fußstapfen zu treten, noch dazu hätte man damals wenigstens den Prozessvorteil noch gehabt. (22 vs 28nm und später 14vs 28nm, zumindest mal bis 2016).
 
Zuletzt bearbeitet:
Ich gebe dir großteils recht, beim Fettgedruckten möchte ich kurz anmerken:
Zumindest bis vor kurzem war man größter und modernster Halbleiterhersteller der Welt.
Ob er rechtzeitig die Entwicklung vom Core Nachfolger eingeleitet hat, wird sich zeigen.
Warum man die Entwicklung der integrierten GPUs nicht auf Dedizierte vorangetrieben hat (und die Bereiche die sich um die Software kümmern ausgebaut hat) war mir immer ein Rätsel. Jetzt anzufangen ist halt etwas spät, nachdem AMD lange geschlafen hat, hätte man dort schon vor 5 Jahren anfangen können in die Fußstapfen zu treten, noch dazu hätte man damals wenigstens den Prozessvorteil noch gehabt. (22 vs 28nm und später 14vs 28nm, zumindest mal bis 2016).
Man hat Larrabee in gewisser Weise vorangetrieben, die Xeon Phi Prozessoren bauen darauf auf. Einer der Hauptgründe, warum die dGPU-Entwicklung eingestampft wurde ist wohl dem Management geschuldet. Typische Schnapsidee: man hat Abteilungen in direkte Konkurrenz ums Budget zueinander gesetzt. Hier eben iGPU und dGPU, obwohl komplett unterschiedliche Anwendungsfälle.

Obwohl LTT ist das Video diesbezüglich recht informativ falls dich die Abläufe interessieren: YouTube
 
Ich gebe dir großteils recht, beim Fettgedruckten möchte ich kurz anmerken:
Zumindest bis vor kurzem war man größter und modernster Halbleiterhersteller der Welt.
Ob er rechtzeitig die Entwicklung vom Core Nachfolger eingeleitet hat, wird sich zeigen.
Warum man die Entwicklung der integrierten GPUs nicht auf Dedizierte vorangetrieben hat (und die Bereiche die sich um die Software kümmern ausgebaut hat) war mir immer ein Rätsel. Jetzt anzufangen ist halt etwas spät, nachdem AMD lange geschlafen hat, hätte man dort schon vor 5 Jahren anfangen können in die Fußstapfen zu treten, noch dazu hätte man damals wenigstens den Prozessvorteil noch gehabt. (22 vs 28nm und später 14vs 28nm, zumindest mal bis 2016).


Das stimmt wohl, aber die Krux an der Sache ist, dass man ja nur für sich produziert und nicht auch noch ein Auftragsfertiger ist (zumindest, wenn sich dort nichts geändert hat? Vielleicht bin ich auch schlecht informiert). Will heißen: Die Intel-Fabs produzieren auch größtenteils x86-Prozessoren, die Schlüsseltechnologie des Konzerns. Es stimmt aber, die Position als modernster Halbleiterhersteller hat Intel in der Vergangenheit große Vorteile beschert. Nun zeigt sich allerdings, dass Eigenfertigung auch immer ein gewisses Risiko ist: Einerseits muss man die Fabriken auslasten können (aktuell wohl eher kein Problem für Intel), andererseits muss man sie erfolgreich modern halten können, was im Idealfall große Forschungsbudgets bedeutet und am Ende zusätzlich noch funktionieren muss. An letzterem hapert es ja nun und Intel hat daran zu knabbern. Gut möglich, dass 10nm ein weiteres mal der weltbeste Fertigungsprozess sein wird, wenn er Marktreife erreicht hat. Aber hier findet befindet man sich nun wirklich weit hinter jedem Zeitplan, die eigenen Ambitionen haben den einstigen Vorteil beinahe getilgt.

Trotzdem rechne ich damit, dass man mittelfristig wieder der "größte" Halbleiterhersteller sein wird, Samsungs Werte fluktuieren der Speicherlastigkeit wegen hier vermutlich weit stärker.

@GPU: Mann, ich wünschte wirklich , man hätte hier anständig investiert und Hardware- wie Treiberentwicklung vorangetrieben. Raum für einen weiteren Hersteller bietet der Markt wahrlich genug. Und selbst wenn AMDs Grafiksparte zwischen den Giganten Intel und Nvidia unter Umständen aufgerieben worden wäre, aktuell sieht es dort ja nicht viel besser aus.
 
Man hat Larrabee in gewisser Weise vorangetrieben, die Xeon Phi Prozessoren bauen darauf auf. Einer der Hauptgründe, warum die dGPU-Entwicklung eingestampft wurde ist wohl dem Management geschuldet. Typische Schnapsidee: man hat Abteilungen in direkte Konkurrenz ums Budget zueinander gesetzt. Hier eben iGPU und dGPU, obwohl komplett unterschiedliche Anwendungsfälle.

Obwohl LTT ist das Video diesbezüglich recht informativ falls dich die Abläufe interessieren: YouTube
Danke, ich kenne die Geschichten dieses Dampfplauderers ;)

Und ja, aber das Problem orte ich dennoch woanders: Speziell in allen Bereichen abseits des Officebetriebs hat man den Grafiklösungen nie viel Beachtung geschenkt. Das zeigt sich doch allein schon daher, dass man eigentlich absoluter Marktführer ist was Grafiklösungen betrifft, es aber nicht der Mühe wert fand, da auch genug Entwickler hinzusetzen für ordentlichen Spielesupport.
John Carmack hat dies mal in seinem Blog bemerkt, als er gemeinsam mit Intel bessere Spieletreiber entwickeln wollte, aber es nicht möglich war, weil man für seine Anfragen und Vorschläge keine Entwickler hatte. Diese Stiefmütterliche Behandlung von zuerst kleinen Märkten die dann groß werden (aber man dann zu spät dran ist), ist eine Intel "Tradition" ;) :
Spiele, KI/Deep Learning, Physik, der Handymarkt...
 
Danke, ich kenne die Geschichten dieses Dampfplauderers ;)

Und ja, aber das Problem orte ich dennoch woanders: Speziell in allen Bereichen abseits des Officebetriebs hat man den Grafiklösungen nie viel Beachtung geschenkt. Das zeigt sich doch allein schon daher, dass man eigentlich absoluter Marktführer ist was Grafiklösungen betrifft, es aber nicht der Mühe wert fand, da auch genug Entwickler hinzusetzen für ordentlichen Spielesupport.
John Carmack hat dies mal in seinem Blog bemerkt, als er gemeinsam mit Intel bessere Spieletreiber entwickeln wollte, aber es nicht möglich war, weil man für seine Anfragen und Vorschläge keine Entwickler hatte. Diese Stiefmütterliche Behandlung von zuerst kleinen Märkten die dann groß werden (aber man dann zu spät dran ist), ist eine Intel "Tradition" ;) :
Spiele, KI/Deep Learning, Physik, der Handymarkt...

Naja, der Spielemarkt hat starke Konkurrenz (Nvidia und früher auch AMD) und verhältnismäßig kleine Margen, geht also komplett wider Intels Natur ;) . Da verdient es sich mit Co-Prozessoren im Professional-Bereich deutlich leichter.
 
Sehr interessant zu lesen das AMD Zen 2 angeblich wegen Intel,s Ice Lake entwickelt wurde .

Wirft zwei Fragen auf .

Erstens woher wusste AMD vor Jahren schon als Zen entwickelt wurde , was Intel mit Ice Lake bringen wird ?

Zweitens wie kann man Zen auf die schnelle auf Intels Ice Lace weiter entwickeln ?


Das sieht mir eher nach viel gerede und heißer Luft aus , wie bei den Vega GPU,s ( HBM , Effizienz usw.... ) und was dabei rauskam sieht man an der Tatsache das mangels Konkurrenz Nvidia seine neue Generation immer weiter nach hinten verschieben kann :devil:
 
Nachdem ich schon gegrübelt hatte ob ich nicht doch einen Ryzen 2 (Zen+) kaufe, lass ich das jetzt bleiben und warte auf Ryzen 3 (Zen2). Der 1600X macht seinen Job gut genug. Er stört nur bei Spielen die die CPU quasi fressen und gleichzeitig nur einen Kern ansprechen. Das werde ich auch überleben. Wird vielleicht mit Ryzen 3 nicht viel besser weil der Fokus sicher auf effizienterer Mehrkerntechnik liegt (logisch).
Ist doch super, dass AMD aktuell Intel feuer unter dem Hintern macht.
Was Grafik angeht, dachte ich ursprünglich, dass Navi schon nicht mehr GCN basierend sein wird. Hab ich wohl falsch gedacht. Ich hoffe da bekommt AMD bald die Kurve sonst könnte es in einigen Jahren lauten "AMD steigt aus Gaming-GPU Sparte aus".
 
Klar braucht alles immer seinen Zeit.

Apple ist auch sehr lange bei den von ihnen einst eingesetzten Power Prozessoren geblieben. Die waren zwar gut wenn es darum ging große Datenmengen zu berechnen. Aber am Ende war man im Takt gut 1/3 hinter den Anderen. Der letzte ( hatte ich selbst auch) hatte gerade mal 2.1GHZ da war man schon bei 3GHZ. Aber man hat halt doch gehofft man könnte noch aufholen und daran festgehalten und so einfach ist halt so ein Umstieg auch nicht.


Man muss sich ja auch mal ansehen wie lange AMD für die Entwicklung des Ryzen gebraucht hat. Auch wenn sie damit Erfolg haben, so sieht man doch das es sich in den Markanteilen noch nicht wirklich niederschlägt. Das wird noch dauern. Wenn jetzt AMD INTEL mit dem Ryzen wirklich am kalten Fuß erwischt hat wird auch INTEL seine Zeit brauchen bis sie darauf Antworten können. Man sieht es auch, mehr als einen 6 Kerner war INTEL nicht in der Lage AMD entgegen zuwerfen und man weiß noch immer nicht genau wann der 8 Kerner kommen soll. Das AMD INTEL im Takt noch näher kommen wird, wird so kommen. Ob INTEL noch viel drauf legen kann im Takt ist fraglich.


Bis AMD im GPU Markt wieder mit halten kann, da werden jetzt sicher 2-4 Jahre vergehen. Außer sie hätten etwas super Geheimes im Ofen was nicht anzunehmen ist. Würde AMD aus dem Spielmarkt aussteigen wäre das für uns Kunden das schlechteste was passieren kann. Denn da würde Nvidia allein übrigbleiben. Konkurrenz belebt nun mal das Geschäft und zwingt die Anbieter am Ball zu bleiben. Wir haben das ja in den letzten Jahren am CPU Markt gesehen was es heißt wenn nur einer der Platzhirsch ist.

Daher hab ich es auch immer Schade gefunden das es Commodore mit den Amiga und Atari es mit dem ST nicht geschafft haben. Genau so das es Windows Mobile nicht geschafft hat.
 
Erstens woher wusste AMD vor Jahren schon als Zen entwickelt wurde , was Intel mit Ice Lake bringen wird ?
Roadmap lesen und vorherige Iterationen extrapolieren - kein Hexenwerk
Zweitens wie kann man Zen auf die schnelle auf Intels Ice Lace weiter entwickeln ?
Das war schon früher in der Entwicklung von Zen bekannt, als es um tatsächliche consumable Products ging. Denke die Strategie wird irgendwann Anfang 2016 erarbeitet worden sein, eventuell Mitte 2015.

Das sieht mir eher nach viel gerede und heißer Luft aus
Immerhin hat AMD schon funktionsfähige 7nm Chips für hohe Performance mit etwa den Gate-Längen von Intels 10nm in der Hand und wohl schon bei Partnern, so viel heiße Luft kann nicht mal Intels Kompressorkühlung von der Computex weg kühlen :ugly:
 
Ich muss ganz ehrlich sagen, dass ich, nachdem ich das Brodeln im Hintergrund teilweise mitbekommen habe, noch gespannter auf Zen2 bin. Wird das etwa doch ein Hammer?



Du bist wirlich manchmal ein Meister der kryptischen Formulierungen. :) Ich kann dir nicht ganz folgen. Schließt du aus, dass AMD in der Designphase von Zen2 davon ausgegangen ist, dass Ice Lake 2019 kommt? War das wirklich so unwahrscheinlich? Wann wurde Zen2 eigentlich designt? Ende 2016/Anfang 2017?

Ich bitte um Entschuldigung, gestern hatte ich die Abgabe der PCGH 08/18 noch nicht hinter mir. Heute kann ich die Forumlierung noch einmal entzerren. Das Intel sich nie an das eigene Release-Schema gehalten hat, macht die Sache leider sehr unübersichtlich. :-)
Nach den ursprünglichen Tick-Tock-Ankündigungen (2007 "ab 2006" eingeführt. Don't ask.) wäre 2016 das Ice-Lake-Jahr gewesen, aber insbesondere im Server-Bereich gab es schon sehr früh Verschiebungen. Bis 2011 (Westmere EX) hätte man Ice-Lake-Prozessoren im Epyc-Marktsegment noch für 2019 erwarten können. Aber bis Mai 2015 hatte Intel bereits soviel Verzögerungen angehäuft, dass statt "Cannon Lake EX" erst Haswell EX vorgestellt wurde. Bis "Ice Lake EX" waren es also gemäß Tick-Tock-Schema noch weitere vier Generationen, die bis dahin im Schnitt 15 bis 18 Monate gebraucht hatten. Zur Festschnürung der Zen2-Eckdaten, vier Jahre vor 2019, hätte AMD also bereits mit einer Veröffentlichung von Server-Ice-Lake-CPUs nicht vor 2020 rechnen müssen. Konkrete Leistungserwartungen für Ice Lake SP lassen sich meiner Meinung nach aber erst seit dem letztjährigen Skylake-SP-Launch formulieren und da verschoben sich die Release-Erwartungen bereits auf 2021.

AMD hätte also im Jahre 2015 Intel-Informationen aus dem Jahr 2017 benutzen müssen, um ihren "Ice Lake Konkurrenten" anhand einer Roadmap von 2011 zu planen. Entweder hat die firmeneigene Zeitmaschine einen Treiberbug, oder die AMD-Marketing-Abteilung schmeißt hier nachträglich ein paar Stichworte zusammen, um die derzeitige technische Position zu betonen. ;-) Und ganz ehrlich, glaubt irgend jemand den logischen Umkehrschluss der AMD-Behauptungen? Dass sie Zen2 langsamer gemacht hätten, wenn ihre Erwartungen an Ice Lake realistischer gewesen wären? Jede Firma versucht das bestmögliche Produkt abzuliefern. Marktstrategische Feinabstimmungen mit Blick auf die Konkurrenz erfolgen bei der Festlegung einzelner SKUs wenn Yield-Raten bekannt sind: Takt versus TDP, Preis versus Stückzahlen, Gewinnspanne versus Konkurrenzstärke.


Jetzt wo du das so formulierst, merke ich, dass das bei AMDs Marketing (drum: Marketingblabla) nicht unüblich ist. Poor Volta!
Ich gebe dir großteils recht, beim Fettgedruckten möchte ich kurz anmerken:
Zumindest bis vor kurzem war man größter und modernster Halbleiterhersteller der Welt.
Ob er rechtzeitig die Entwicklung vom Core Nachfolger eingeleitet hat, wird sich zeigen.
Warum man die Entwicklung der integrierten GPUs nicht auf Dedizierte vorangetrieben hat (und die Bereiche die sich um die Software kümmern ausgebaut hat) war mir immer ein Rätsel. Jetzt anzufangen ist halt etwas spät, nachdem AMD lange geschlafen hat, hätte man dort schon vor 5 Jahren anfangen können in die Fußstapfen zu treten, noch dazu hätte man damals wenigstens den Prozessvorteil noch gehabt. (22 vs 28nm und später 14vs 28nm, zumindest mal bis 2016).

Das Erkennen und ausnutzen von Marktlücken ist nicht Intels Stärke. Man jahrelang zugegeben, dass die ersten Pentium 4 für Spieler schlecht geeignet ist, hielt das aber für unwichtig – genauso wir Prozessoren für Konsolen. Gegen den Athlon 64 hielt man Netburst anfangs für voll konkurrenzfähig und die stetig steigende Verlustleistung von Netburst für voll marktkompatibel. Den Smartphone- und Tablet-Boom hat man komplett verschlafen und sogar noch die eigene ARM-Sparte abgestoßen. Dem GPU-Markt hat man nur kurz Aufmerksamkeit geschenkt und gedacht, man könne mit einem halbwegs performanten Universal- respektive auch-Raytraycing-Beschleuniger von jetzt auf gleich eine komplett Rasterizing-basierte Industrie ablösen und von den diversen Fehlschlägen bei Speichertechnologien will ich gar nicht erst anfangen. Wenn man es sich recht überlegt, hat Intel seit dem 8086 eigentlich nur zweimal einen Trend erkannt: Notebook mit hohen Laufzeiten (Centrino-Initiative) und billige Einsteigersysteme (Atom). Sonst nutzt man die erheblichen Firmenressourcen eher für Reaktionen – und jetzt ist wohl endlich jemandem aufgefallen, dass 80 Prozent der genutzten Rechenleistung in und der Umsätze mit Privat-PCs nicht mehr von CPUs generiert werden.
 
AMD hätte also im Jahre 2015 Intel-Informationen aus dem Jahr 2017 benutzen müssen, um ihren "Ice Lake Konkurrenten" anhand einer Roadmap von 2011 zu planen. Entweder hat die firmeneigene Zeitmaschine einen Treiberbug, oder die AMD-Marketing-Abteilung schmeißt hier nachträglich ein paar Stichworte zusammen, um die derzeitige technische Position zu betonen. ;-)
Genau so meinte ich das, und ich verstehe deshlab nicht, weshalb an meiner Aussage, es sei alles Marketing, so viel Kritik kommt.
Und ganz ehrlich, glaubt irgend jemand den logischen Umkehrschluss der AMD-Behauptungen? Dass sie Zen2 langsamer gemacht hätten, wenn ihre Erwartungen an Ice Lake realistischer gewesen wären? Jede Firma versucht das bestmögliche Produkt abzuliefern. Marktstrategische Feinabstimmungen mit Blick auf die Konkurrenz erfolgen bei der Festlegung einzelner SKUs wenn Yield-Raten bekannt sind: Takt versus TDP, Preis versus Stückzahlen, Gewinnspanne versus Konkurrenzstärke.
Eben.
Das Erkennen und ausnutzen von Marktlücken ist nicht Intels Stärke. Man jahrelang zugegeben, dass die ersten Pentium 4 für Spieler schlecht geeignet ist, hielt das aber für unwichtig – genauso wir Prozessoren für Konsolen. Gegen den Athlon 64 hielt man Netburst anfangs für voll konkurrenzfähig und die stetig steigende Verlustleistung von Netburst für voll marktkompatibel. Den Smartphone- und Tablet-Boom hat man komplett verschlafen und sogar noch die eigene ARM-Sparte abgestoßen. Dem GPU-Markt hat man nur kurz Aufmerksamkeit geschenkt und gedacht, man könne mit einem halbwegs performanten Universal- respektive auch-Raytraycing-Beschleuniger von jetzt auf gleich eine komplett Rasterizing-basierte Industrie ablösen und von den diversen Fehlschlägen bei Speichertechnologien will ich gar nicht erst anfangen. Wenn man es sich recht überlegt, hat Intel seit dem 8086 eigentlich nur zweimal einen Trend erkannt: Notebook mit hohen Laufzeiten (Centrino-Initiative) und billige Einsteigersysteme (Atom). Sonst nutzt man die erheblichen Firmenressourcen eher für Reaktionen – und jetzt ist wohl endlich jemandem aufgefallen, dass 80 Prozent der genutzten Rechenleistung in und der Umsätze mit Privat-PCs nicht mehr von CPUs generiert werden.
Mir ist schon mal aufgefallen, dass Intel eigentlich ziemlich viele "Fails" produziert, für das was sie eigentlich an Mitteln aufbieten könnten. Ihre erste Grafikkarte in den späten 90ern, Itanium. Das Abstoßen von ARM, das leichtfertige Hergeben der Führungsposition aus dem SSD Markt, der nunmal explodiert ist (ich möchte nicht wissen wieviele Milliarden Samsung in den letzten Jahren dort gemacht hat), auch das Einsteigen in Raytracing, Spiele (Project Offset), Physik (Havok), Mobile (Handy samt Querfinanzierung, also "verschenkung" der CPUs) ist deutlich gefloppt. Eigentlich hat man eine Sache, die Funktioniert, nämlich die "High-Performance" x86 CPUs (damit sind aber auch die Laptopchips gemeint) - und das vermarktet man eigentlich ganz gut. Aber man hat es in den letzten 20 Jahren trotz Marktdominanz nicht geschafft sich woanders gut aufzustellen.
Dabei waren immer wieder gute Ansätze dabei: SSDs, Optane, die iGPUs sind rein technologisch gesehen eigentlich tolle Chips, lediglich die Treiber bei Spielen und die Performance generell (man müsste halt größere Chips auflegen) lässt zu wünschen übrig. Auch der Kauf von Havok und hoffentlich endlich ordentliche CPU Physik zu haben starb irgendwann...
 
Zurück