AMD im Zeitplan: Zen 4 in 5 Nanometern, Zen 3 noch 2020, keine Angst vor ARM

Nein, Itanium ist gescheitert, weil er viel zu lahm war.

Das ist nicht korrekt, der Itanium war sehr schnell. Nur lief ein Gro der Software in einer Emulationsmodus, weil diese nicht portiert wurde. Und genau das hat den Itanium langsam gemacht.
Neben der Softwareunterstützung ist Itanium auch am Zeitverzug und mangelnder Unterstützung durch Intel gescheitert.

Btt: Ich sehe ARM nicht als Konkurrenz zu x86 CPU, da das Instruktionsset zu eingeschränkt ist. ARM ist und bleibt ein Effizienz ausgelegtes CPU Design, wenn man mehr Power benötigt, veriert diese eigentlich all ihre Vorteile, da Leistungsaufnahme und Abwärme dann enorm ansteigen.
 
Wann denn? x86-64 hat den PowerPC gekillt. Das weiß ich noch. Dann ist Apple noch zeitig auf x86 umgestiegen. Jetzt steigen sie auf ARM um.

ARM hat schon Neon, was sich sehr ordentlich gegenüber SSE macht
NEON is the new black: fast JPEG optimization on ARM server
und sie haben nun SVE (ARM + Fujitsu), was sich mit Sicherheit nicht schlechter schlägt als AVX/AVX2 (und bis 512 bit geht)

Abseits der Verbreitung in Desktops ;) sind sie technisch überall weit vorn. Für x86 spricht die Verbreitung und die Softwarebasis. Die Technik nicht. Jedenfalls nicht die von Intel. Die haben seit spätestens 2014 Siesta abgehalten.

Jetzt hat auch noch Fujitsu gezeigt, daß man damit in der Tat ernsthafte Alternativen zu Xeons oder auch den eigenen Sparc64 XIfx bauen kann. JEdenfalls schonmal für HPC. Cray wollte das sofort haben.
96 Kerne in einem Einschub halber Breite :(
A Success on Arm for HPC: We Found a Fujitsu A64FX Wafer

Die Technologie für Exascale ist leider kein x86
Cray & Fujitsu - Cray
@DKK007
Das hat Apple mit Rosetta gelöst und sie werden das jetzt mit Rosetta2 wohl auch lösen können.
Itanium starb nicht am Softwaremangel. Er kam erst garnicht soweit an solchem zu leiden. AMD hat ihn mit x86-64 in kürzester Zeit gekillt (anschließend mit Microsoft)


wenn sich was arm mäßiges am desktop durchsetzt, ist es nicht arm selbst. sondern eher was wie risc v und dann auch erst in 20 jahren.

itanium lief gut mit itanium software die so ziemlich nicht vorhanden war. und die paar großkunden, guck was mit larrabee geworden ist. eine sockel cpu alias knights landing. die paar leute die es haben wollten.:ugly:

arm setzt sich nicht durch, die prozessoren sind teilweise zu krass unterschiedlich in ihrer leistung, das die kunden sich verappelt fühlen. mal ebend x86 im emulator auf arm ausführen. genial, dannn hätt ich noch ein os unabängigen emulator und werf das teil weg, weil es ebend langsam ist.
x64 mit emulator war halt schneller und einfacher als ebend mal komplett neuzuschreiben.

bulldozer war auch eine gute cpu, aber nur in ein oder zwei benchmarks wieder für eine kleine handvoll leute. nope lohnt nicht.
wenn sich was risc mäßiges durchsetzt ist es nicht windows und nicht in absehbarer zeit. für email, videos & co reicht das. ich hoffe das dann in 10-20 jahren der kack schön opensource ist und sich die mpeg mafia getröst verknödeln kann.
 
2022 wird ein brutales Hardware Jahr werden.

* 5nm Grafikkarten von NVIDIA und AMD
* PCie 5.0
* 5nm Prozessoren von AMD und neuer Sockel
* Hochfrequenzierter DDR5 RAM, der mittlerweile dann in bezahlbare Regionen kommen wird.

Nett, Nett, Nett..

Nett ja aber wird wohl nicht (alles) so kommen.
Chancen stehen gut das die kommen GPU Karten 2021/22 nur ein Update mit mehr Speicher kriegen werden.
Ob AMDs neuen CPUs schon 5nm haben werden bzw. die auch sovort mit dem neuen Sockel inc. DDR5 Ram & PCie 5.0 (fals das auch passiert) auf dem Markt kommen wage ich zu bezweifen.
Neuer Speicher der Schnell, größer und in bezahlbare Regionen (sehr schwammige Formulierung) kommen wird ist auch fraglich.
 
Das wird nicht in Hardware gemacht - solche Datenformate gibt es dann rein in Software (einfach schon weil es nicht möglich ist das ganze in Hardware abzubilden
Ah sag an? ;) Aber die Wissenschaftler und Ingenieure brauchen mehr als 64bit? :)

Und das gibts bei x86 auch schon lange. Mit den XeonPhi gibts 60 kerne schon seit 2012.
Man müsste nur kurz rausgehen und rumfragen warum das die HPC-Welt nicht in helle Aufregung versetzte... Immerhin sind die Kerne von KnightsCorner P54C (1994) und die von KnightsLanding sind vom Atom.

Itanium war - und ist - alles andere als Lahm.
Nochmal. Dem Itanium hat x86-64 den Gar ausgemacht. Und ob Itanium schnell oder lahm ist entscheidet PRIMÄR nicht der Programmierer, sondern der Compiler. Das war den Leuten auch immer ziemlich suspekt gewesen...

@takan
Du quotest mich und schreibst was dazu, was ich schon in dem Quote selbst bereits relativiert hab. Faszinierend...
 
Nein, Itanium ist gescheitert, weil er viel zu lahm war.

Itanium war nicht lahm. Er kam mit geringeren Taktraten als gewünscht, war aber in seinen Disziplinen sehr flott. Letztlich scheiterte er daran, dass es schwierig war für ihn Compiler zu bauen und deshalb viele Tasks nicht nativ sondern emuliert liefen
 
Und das gibts bei x86 auch schon lange. Mit den XeonPhi gibts 60 kerne schon seit 2012. Itanium war - und ist - alles andere als Lahm.[/QUOTE schrieb:
Das Teil war selbst Intel zu lahm, weshalb die Produktion eingestellt wurde. Der Haswell-Kern war da viel leistungsfähiger. ;)
 
@Casurin
Und trotzdem ist die Behauptung das Itanium langsam gewesen wäre einfach falsch. Es hat sich nicht durchgesetzt weil es einen Bruch zu x86 darstellt und das einzige was langsam war - und das wurde dir hier auch schon erklärt aber du versuchst es zu ignorieren[…]
Ist dir das mit dem Quoten zu kompliziert? Kannst du bisschen rumscrollen und mir die Stelle zeigen wo ich was von langsam/lahm erzähle? Keine Ahnung was du willst.

Und weiter. Ja, es sind x86 Kerne. Eine Erfolgsgeschichte ohne gleichen... Letzter Absatz ist auch mega :)
Xeon Phi ist tot, es lebe der Xeon-H | heise online

Und weiter.
Es kommt immer darauf an was genau man berechnet. 64bit double können auch im wissenschaftlichen Bereich mehr als ausreichend sein - oder nicht mal annähernd.
Erstmal gibt's kein 64bit double. Man sagt ja auch nicht "nasses Wasser" ;) Und wenn die 64bit nicht reichen, was macht man da? Eben. Man macht was man bisher immer dafür tat. Es scheiterte gestern nichts an x86 FP64 und wird es morgen auch nicht tun.
Für gewöhnlich reichen Epycs selbst dem CERN aber aus
Teilchenforschung: CERN setzt auf AMD-Prozessoren | Elektronik
 
Zuletzt bearbeitet:
[Für Zen 4 sind 5nm längst bestätigt.] Ja genau wie bei Intel die 10nm Massenproduktion für das Jahre 2018 (oder früher?)? :D

Nicht ganz genau so ;-) 5nm treffen hier tatsächlich zu. TSMC fertigt aktuell schon im N5, den Apple für seinen A14 nutzt. Im 1HJ21 steht dann der optimierte N5P zur Verfügung, den voraussichtlich AMD nutzen wird, u. a. mit Zen4. Diese CPUs sollen jedoch erst ab Anfang 2022 in den Markt kommen. Von AMD hörte man bereits, dass diverse Epyc/Genoa-Modelle das ganze Jahr 2022 hindurch veröffentlicht werden sollen.
Und wenn es weiterhin bei der Chiplet-Fertigung bleibt, würde das bedeuten, dass auch bei den Consumer-Modellen das Compute-Chiplet in 5 nm gefertigt sein wird. Würde AMD dagegen im Mainstream auf großtenteils monolithische Chips wechseln, käme auch hier ggf. der N6 als günstigere Alternative infrage.

Was noch in 5 nm kommt ist derzeit unklar. Ein potenzielles CDNA2-Design wäre ein Anwärter, dagegen mit Blick auf RDNA3, das grob auch etwa ab dem Jahreswechsel 2021/22 herum erscheinen soll, ist die Wahrscheinlichkeit eher geringer, weil der Prozess in diesem Kontext zu teuer sein dürfte. Hier wäre der N6 eine mögliche Alternative.
 
Zurück