AW: AMD Roadmap für CPU und GPU bis 2022
@Solavidos: 5nm & Nanoröhrchen
5 nm wird man auf dem PC in 2020 definitiv nicht zu sehen bekommen, frühestens ab 2021 und ggf. sogar erst später. Die Entwicklung und Fertigung eines Chipdesigns in dieser Strukturgröße wird noch einmal beträchtlich teuerer.
Nanoröhrchen wird noch etwas dauern, denn diese Forschung bezieht sich auf die 3 nm-Fertigung. Klassisches FinFET nähert sich dem Ende, sodass Samsung und Globalfoundries unabhängig voneinander an Nanosheet FET forschen, während sich TSMC zurzeit sowohl Nanosheet FET als auch an Nanowire FET ansieht. (Intel lässt sich grundsätzlich nicht in die Karten schauen.) Diese Entwicklungen laufen unter dem Stichwort gate-all-around technologies (LGAA), siehe
Gate-All-Around FET - Semiconductor Engineering
@shootme55: HPC-Leadership
Ist halt eine Marketingaussage. AMD hat ein gutes, universelles Server-Upgrade mit Rome geschaffen. Intel hat dennoch genügend weitere Technologien, wie customized Xeons, AVX-512, eine höhere Skalierbarkeit, die solidere Plattform und bessere Verfügbarkeit und zudem etliche weitere Datacenter-relevante Produkte.
AMDs Datacenter-Marktanteil liegt bei gerade mal etwa 5 % (gemäß IDC) und AMD selbst geht davon aus, dass man bis Jahresende oder spätestens bis Mitte 2020 rund 10 % erreicht haben wird.
Aktuell gibt es nicht ein einziges Naples-System in den Top500 und nicht ein System mit AMD-Beschleunigerkarten. Den Frontier wird es erst ab 2021 geben, d. h. hier greift man sehr weit vor. Was man natürlich nicht erwähnt, ist dass es im 2021 ebenfalls den Aurora geben wird, ebenfalls ein Exaflops-System, das komplett auf Intel-Hardware basieren wird inkl. Xe-GPGPUs und bereits in 2022 folgt der El Capitan, der voraussichtlich erneut nVidia-Beschleuniger verwenden wird. Alle drei Systeme werden in den USA gebaut und diese drei gehören alle zum Verbund des DoE ... AMD ist hier nur ein Rädchen im Getriebe. (Wobei natürlich zu berücksichtigen ist, dass mit AMDs langer Abwesenheit bzw. mangelnder Konkurrenzfähigkeit der Frontier durchaus ein signifikanter Erfolg für sie ist.)
@derneuemann: GPU & RDNA2
Das "Hinterherrennen" ist nachvollziehbar und in deren bisheriger Geschäftsstrategie begründet. AMD entckelt nun einmal keine dedizierten PC-GPUs und will/kann ebensowenig mit nVidia im HighEnd-Segment konkurrieren. Polaris, Vega, Navi sind alles Auftragsfertigungen, die lediglich zusätzlich auf dem PC ausgekoppelt wurden. In Ermangelung fehlender Ressourcen bemühte man für ein HPC-Design erneut Vega und pimpte diese zu Vega 20 und koppelte schließlich (nicht einmal geplant, sondern schlicht, weil sich die MI50 voraussichtlich zu schlecht verkaufte und Datacenter eher die MI60 im Vollausbau bevorzugten) die Radeon VII aus, die daher fertigungstechnisch viel zu teuer war, da es sich hierbei um ein nahezu unverändertes MI50-Design handelte, mit dem man kaum (bis am Ende gar kein) Geld verdienen konnte.
Bezüglich Raytracing muss man abwarten. Aktuell gibt es noch keine belastbaren Aussagen für einen Zusammenhang zwischen RDNA2 und Raytracing. AMD hält sich hier sehr zurück, wahrscheinlich, weil man dieses IP nicht zu früh verwenden darf mit Blick auf die neuen Konsolen. Im worst case wird RDNA2 nur eine einfache Architekturüberarbeitung. Im best case wird sie Raytracing inkludieren, wobei dann die Frage sein wird, wann RDNA2 dann auf dem Markt kommt, denn im schlechteren Fall könnte das gar erst Anfag 2021 sein.
@Threshold/Tech_Blogger: DDR5
Wird man definitiv nicht mit Zen3 zu sehen bekommen, den F.Norrod hat dem schon eine Absage erteilt. Milan wird weiterhin den SP3 nutzen und in Verbindung mit DDR5 wird laut seiner Aussage ein neuer Sockel eingeführt. Zen4/Genoa wird somit ab 2HJ21+ den frühesten Zeitpunkt einer möglichen Einführung darstellen.
@jadiger: neue Konsolen-SoCs
Etwas wie einen "RDNA-Vollausbau" gibt es hier nicht. Die SoCs sind semicustomized (u. a. HW-Raytracing) und stehen für sich selbst, d. h. es gibt keinen vollen und halben Ausbau irgend einer Art, da es keine Vergleichsmöglichkeit gibt. Sony und Microsoft bekommen jeweils das, was sie geordert haben.
Und Standard-PC-Hardware ist es daher ebensowenig. Genaugenommen nutzt der PC in diesem Falle in Form der Radeon 5700 (XT) eher Konsolen-Hardware, denn Navi wurde explizit für die neuen Konsolen-SoCs entwickelt und wurde jetzt lediglich zusätzlich auf dem PC ausgekoppelt (ohne Raytracing, denn schließlich brauchen die Konsolen auch einen guten Start).
Die Xbox One X wird mit rd. 6 TFlops angegeben, zumindest die neue Xbox soll den bisherigen, sich langsam verdichtenden Gerüchten zufolge eine Leistung zwischen 10 - 11 TFlops haben. (Die GTX 1080 FE kommt auf maximal 9 TFlops in SinglePrecision.)
Dass 8K nur dem Streaming oder Upscaling dient, dürfte schon vor MS' "Offenlegung" jedem klar gewesen sein, der auch nur ein wenig technisches Verständnis besitzt und 4K@120Hz wird man in fordernden Titeln wohl auch nur höchst selten sehen, aber die neue Hardware sollte nun stabiles 4K mit vergleichbar hohen Frameraten abliefern können.
Der gemittelte Takt der Zen2-Kerne wird weitaus höher liegen, als nur bei 1,6 GHz. Eine konkrete Angabe macht möglicherweise keinen Sinn, wenn AMD hier auch dazu übergegangen ist, ein umfangreiches Boostverhalten zu implementieren, denn dann können Frequenzen im Bereich von bspw. 2,0 - 3,2 GHz liegen. Faktisch werden die neuen CPU-Kerne durch die Zen2-Architektur und höheren, mittleren Takt deutlich mehr Leistung zur Verfügung stellen.
Abseits dessen ist die genaue Auslegung der Stromversorgung sowie der Kühlung noch nicht bekannt, sodass man hier auch noch zusätzlich ein paar Watt mehr zur Verfügung stellen könnte und ebenso unbekannt ist, ob die SoCs final in TSMCs N7 oder effizienterem N7+ gefertigt werden. (Die bereits bei den Entwicklern laufenden Dev-Kits könnten durchaus aus der Risk-Production stammen.)
Da sind durchaus noch einige Variablen im Spiel, aber Du stapelst mit Deinen Äußerungen zweifelsfrei deutlich zu tief bzgl. beider Konsolen. In 4Q20 wird man alles nötige wissen
@DKK007: 7 nm-Prozesse
Aktuell nutzt AMD TSMCs N7 noch komplett ohne EUV. Der N7+ verwendet dagegen vier per EUV-belichtete Schichten und wird insgesamt etwas energieeffizienter sein und eine etwas kleinere Chipfläche ermöglichen, ist also durchaus ein willkommendes Prozess-Upgrade.
Intels "10nm" (P1274) sind in etwa grob vergleichbar mit TSMCs N7 (alias 7FF). TSMCs ab frühestens Ende 2020 zur Verügung stehender N6 ist ebenfalls ein 7 nm-Prozess mit in etwa vergleichbaren Charakteristika wie der N7+, hat jedoch den Vorteil, dass die Design Rules und das Tooling hier weitestgehend dem bisherigen N7 entsprechen, was Kosten einzusparen hilft.
Einen größeren Sprung wird es jedoch erst wieder mit dem Wechsel auf einen 5 nm-Prozess geben (bspw. mit Intels "7nm"-Prozess (P1276), der mit diesen in etwa vergleichbar sein wird). Gerüchten zufolge plant Intel eine GPGPU für das Datacenter in ihren 7nm bereits für 2021. Die um den Jahreswechsel 2020/21 zu erwartenden Consumer-Xe-GPUs werden dagegen einen optimierten 10nm+ verwenden.
@derneuemann: Unabhängiger Server-Vergleich
Was meinst Du damit? Im wesentlichen relevant ist der prozessierte Workload, denn wie auch auf der Consumer-Plattform bringt es wenig, Rendering-Tasks mit Cinebench zu messen, wenn man eine Aussage über die Gaming-Performance haben will und vice versa.
Du kannst Dir bspw. die SPEC CPU 2017-Ergebnisse ansehen. Da sind mittlerweile auch genug Epyc 7002 mit drin. Abseits dessen ist Rome ein sehr guter Wurf geworden. Die INT- und FP-Performance kann problemlos mit Intel mithalten. Vor- oder Nachteile sind von konkreten Workloads abhängig und der wesentliche Leistungszugewinn ist der größeren Kernzahl zuzuschreiben und damit einher geht auch das bessere P/L-Verhältnis (damit, und weil es sich AMD markttechnisch halt derzeit einfach noch nicht leisten kann, zu viel zu verlangen), wobei der Preis im Datacenter jedoch eher ein sekundärer Faktor ist.
Geht es dagegen in Richtung spezieller Workloads, die bspw. hochgradigen Gebrauch von AVX-512 machen, hat AMD zumindest leistungstechnisch noch das Nachsehen, denn in bspw. NAMD und GROMACS kann ein Platinum 8280 (28 C) auch einen Epyc 7742 (64 C) schlagen.
Wie aber schon beim Preis angemerkt, sind die Anforderungen im Datacenter weitaus vielschichtiger. Faktoren wie die Verfügbarkeit, Zuverlässigkeit und Ausgereiftheit der Plattform spielen hier ebenfalls eine beträchtliche Rolle (bei Naples sah es diesbzgl. noch sehr durchwachsen aus). Und Rome kommt gerade jetzt erst in den Markt, denn Datacenter kaufen keine CPUs, sondern Server, d. h. AMD ist hier nun auf die (Zu)Arbeiten der OEMs und Partner angewiesen.
Beispielsweise PCIe 4.0 ist ein tolles Feature aber vorerst eher für Storage-Server relevant oder für die langfristige Planung, wenn ein System später ggf. aufgerüstet werden soll, denn aktuell gibt es bspw. von nVidia keine PCIe-4.0-Tesla's und die dominieren nun einmal den Markt und hier verwendet man für einen schnellen Interconnect nicht umsonst NVLink, schlicht weil auch PCIe 4.0 noch zu langsam ist. Das alles sind viele kleine Punkte, die in Summe auf das Konto von Rome einzahlen, Intel-Hardware machen sie damit aber nicht automatisch obsolet und das weiß auch ein Forrest Norrod und äußert sich entsprechend vorsichtig bzgl. der zu gewinnenden Marktanteile im Datacenter-Segment.
@gaussmath: Epyc PCH
Der Chipsatz (oder I/O-Hub) bei Epyc 7002 (Rome) basiert auf dem Die des 14 nm-IODs für Epyc. AMD ist hier (zwangsweise) sehr effizient unterwegs und deaktiviert lediglich einige Funktionen wie die Speichercontroller, etc.
160 PCIe-Lanes stehen bei Rome nur zur Verfügung in der Dual-Socket-Konfiguration und auch nur, wenn man den Inter-Socket-Connect beschneidet. Zwischen den Sockets werden 4x16 Lanes für den Infinity Fabric Link genutzt. Systemhersteller können sich optional entscheiden, einen 16er-Link stattdessen für reguläres I/O zu nutzen, d. h. es kommen auf jedem Socket 16 Lanes für PCIe hinzu, was zu den 160 Lanes führt. Das Vorgehen kommt jedoch nur für bestimmte Anwendungszwecke sinnvoll infrage, da sich die Inter-Socket-Bandbreite damit um 1/4 reduziert.