AMD Roadmap für CPU und GPU bis 2022

AW: AMD Roadmap für CPU und GPU bis 2022

@derneuemann: GPU & RDNA2
Das "Hinterherrennen" ist nachvollziehbar und in deren bisheriger Geschäftsstrategie begründet. AMD entckelt nun einmal keine dedizierten PC-GPUs und will/kann ebensowenig mit nVidia im HighEnd-Segment konkurrieren. Polaris, Vega, Navi sind alles Auftragsfertigungen, die lediglich zusätzlich auf dem PC ausgekoppelt wurden. In Ermangelung fehlender Ressourcen bemühte man für ein HPC-Design erneut Vega und pimpte diese zu Vega 20 und koppelte schließlich (nicht einmal geplant, sondern schlicht, weil sich die MI50 voraussichtlich zu schlecht verkaufte und Datacenter eher die MI60 im Vollausbau bevorzugten) die Radeon VII aus, die daher fertigungstechnisch viel zu teuer war, da es sich hierbei um ein nahezu unverändertes MI50-Design handelte, mit dem man kaum (bis am Ende gar kein) Geld verdienen konnte.
Bezüglich Raytracing muss man abwarten. Aktuell gibt es noch keine belastbaren Aussagen für einen Zusammenhang zwischen RDNA2 und Raytracing. AMD hält sich hier sehr zurück, wahrscheinlich, weil man dieses IP nicht zu früh verwenden darf mit Blick auf die neuen Konsolen. Im worst case wird RDNA2 nur eine einfache Architekturüberarbeitung. Im best case wird sie Raytracing inkludieren, wobei dann die Frage sein wird, wann RDNA2 dann auf dem Markt kommt, denn im schlechteren Fall könnte das gar erst Anfag 2021 sein.


@derneuemann: Unabhängiger Server-Vergleich
Was meinst Du damit? Im wesentlichen relevant ist der prozessierte Workload, denn wie auch auf der Consumer-Plattform bringt es wenig, Rendering-Tasks mit Cinebench zu messen, wenn man eine Aussage über die Gaming-Performance haben will und vice versa.
Du kannst Dir bspw. die SPEC CPU 2017-Ergebnisse ansehen. Da sind mittlerweile auch genug Epyc 7002 mit drin. Abseits dessen ist Rome ein sehr guter Wurf geworden. Die INT- und FP-Performance kann problemlos mit Intel mithalten. Vor- oder Nachteile sind von konkreten Workloads abhängig und der wesentliche Leistungszugewinn ist der größeren Kernzahl zuzuschreiben und damit einher geht auch das bessere P/L-Verhältnis (damit, und weil es sich AMD markttechnisch halt derzeit einfach noch nicht leisten kann, zu viel zu verlangen), wobei der Preis im Datacenter jedoch eher ein sekundärer Faktor ist.
Geht es dagegen in Richtung spezieller Workloads, die bspw. hochgradigen Gebrauch von AVX-512 machen, hat AMD zumindest leistungstechnisch noch das Nachsehen, denn in bspw. NAMD und GROMACS kann ein Platinum 8280 (28 C) auch einen Epyc 7742 (64 C) schlagen.
Wie aber schon beim Preis angemerkt, sind die Anforderungen im Datacenter weitaus vielschichtiger. Faktoren wie die Verfügbarkeit, Zuverlässigkeit und Ausgereiftheit der Plattform spielen hier ebenfalls eine beträchtliche Rolle (bei Naples sah es diesbzgl. noch sehr durchwachsen aus). Und Rome kommt gerade jetzt erst in den Markt, denn Datacenter kaufen keine CPUs, sondern Server, d. h. AMD ist hier nun auf die (Zu)Arbeiten der OEMs und Partner angewiesen.
Beispielsweise PCIe 4.0 ist ein tolles Feature aber vorerst eher für Storage-Server relevant oder für die langfristige Planung, wenn ein System später ggf. aufgerüstet werden soll, denn aktuell gibt es bspw. von nVidia keine PCIe-4.0-Tesla's und die dominieren nun einmal den Markt und hier verwendet man für einen schnellen Interconnect nicht umsonst NVLink, schlicht weil auch PCIe 4.0 noch zu langsam ist. Das alles sind viele kleine Punkte, die in Summe auf das Konto von Rome einzahlen, Intel-Hardware machen sie damit aber nicht automatisch obsolet und das weiß auch ein Forrest Norrod und äußert sich entsprechend vorsichtig bzgl. der zu gewinnenden Marktanteile im Datacenter-Segment.

Ich dachte immer AMD entwickelt seine dGPUs schon selbst, wer hat denn dann die R9 290X entwickelt zum Beispiel. Klar wird die Fertigung ausgelagert, aber die Entwicklung?

Zu Epic, hängt halt stark vom Anwendungsfall ab. Außerdem muss man auch schauen, das Intel ja auch noch die Platinum 9xxx Modelle hat mit bis zu 56 Kernen. Wenn der Preis jetzt mal eine untergeordnete Rolle spielt.
Was der Preis nun mal macht, wenn es um Betrachtung der Leistung geht. ;)

Aber schöner Post ! ;)
 
AW: AMD Roadmap für CPU und GPU bis 2022

Wirklich sinnvoll nutzen kann man so viele Lanes nur für Storage. Für HPC ist PCIe (in vielen, nicht in allen Fällen) schlicht zu langsam, sodass nVidia hier parallel NVLink verwendet, und AMD Infinity Fabric.

Was willst du denn sonst nutzen? Ein externer Link, also boardübergreifend, lässt sich doch nur mit PCIe realisieren. Der IF ist intra CPU und inter Socket, aber nur innerhalb der Boardtopologie.
 
AW: AMD Roadmap für CPU und GPU bis 2022

Natürlich entwicklet AMD seine GPU-IP selbst, aber die Zielsetzung ist (zumindest bis jetzt) eine andere (gewesen).
nVidia's größrerer Geschäftszweig ist immer noch das Gaming-Segment, trotz der extremst teueren Quadro's und Tesla's. Hier entwickelt man gezielt für x86 und den PC inkl. HighEnd-GPUs.
AMD tritt bei den GPUs eher als semi custom manufacturer (also Auftragsfertiger) auf, d. h. ein Kunde (Apple, Sony, Microsoft, Samsung) kommt mit einer Anforderung auf sie zu und man entwickelt eine neue Architektur und hat zusätzlich eigene Verwendungszwecke für diese IP im Hinterkopf, die dann später zu einer Auskopplung als dedizierte PC-GPU führt. Diese Art der Entwicklung impliziert aber auch, dass die Rahmenbedingungen und Anforderungen dieser Kunden im Vordergrund stehen und nicht Funktionalitäten, die ein solches Desing bspw. auch als HighEnd-GPU nutzbar machen würden.
Polaris, Vega und Navi kommen bspw. aus dieser Ecke. Die Navi Architketur wurde bspw. explizit für die neuen Konsolen-SoCs und auf deren spezifische Bedürfnisse hin entwickelt. Diese unterscheiden sich bspw. grundlegend von einer HighEnd-GPU, was auch die schlechte Skalierbarkeit von Navi nach oben hin erklärt, so dass man vorerst nur das MidRange-Segment abdeckt. (Beispielsweise die 5700 XT ist relativ gut vergleichbar mit einer RTX 2070 (Super), im Hinblick auf Takt, GDDR-Geschw., Leistung, Verbrauch und auch Transistorgröße, was eigentlich überraschen sollte, denn die Radeon nutzt mit TSMCs N7 ein deutlich moderneres Fertigungsverfahren, dass beträchtliche Power Savings ermöglicht, während die Geforce nur im sehr betagten 12 nm-Verfahren gefertig wird. Im Umkehrschluss bedeutet das, dass nVidia's Architektur immer noch deutlich effizienter ist.)

Beispielsweise mit dem Samsung-Deal verkauft AMD seine IP und stellt zusätzlich auch einige Ingenieure bereit, die es Samsung ermöglichen sollen, eine bessere GPU-Architektur für ihre Devices zu entwickeln. Der Deal wird AMD in 2019 rd. 100 Mio. US$ in die Kassen spülen, wobei das jedoch kein Reingewinn ist, weil auch AMD hier aktiv mitarbeitet, dennoch ein lukratives Geschäft. Weiterhin sieht der Vertrag vor, dass Samsung AMDs Märkte nicht bedrohen darf, d. h. man bleibt auf Mobile-GPUs (Smartphone/Tablet) beschränkt und darf nicht etwa in den PC-Markt eindringen.


Der 56-Kerner ist aktuell Cascade Lake-AP als 9200er-Serie mit 32, 48 und 56 Kernen. Intel bewirbt diese als high-performance, high-density compute platform, was wortlich zu nehmen ist, denn wenn erstere beiden Punkte nicht maßgeblich sind, ist die Plattform viel zu teuer. Die CPUs gibt es nur als verlötete BGAs auf vorkonfigurierten Mainboards.
Mit Cooper Lake (ab Anfang 2020) versucht Intel das Konzept anscheinend etwas breitbeiniger aufzustellen (schlicht weil man kurzfristig AMDs Packungsdichte nichts anderes entgegenstellen kann), was voraussichtlich auch zu etwas erwschinglicheren CPUs führt (vielleicht sogar gesockelt?), wobei ei "erschwinglich" hierbei dennoch ein sehr relativer Begriff bleiben dürfte. ;-)
Den aktuellen Cascade Lake-AP gibt es maximal als 2-Sockel-System und auch der wird sich nur mit AVX-512 nennenswert (bis deutlich) von einem 2-Sockel-7742 absetzen können, wohingegen sich zumindest aktuell der Preis beträchtlich unterscheiden dürfte. (Genaue Preise für CDL-AP sind kaum zu bekommen.)
 
AW: AMD Roadmap für CPU und GPU bis 2022

@gaussmath:
Intel verwendet bspw. für seine AI-Beschleuniger (Nervana, NNP-T), die auch PCIe 4.0 unterstützen, für den Interconnect 64 schnelle SerDes HSIO Lanes auf den Karten, die eine kumulierte Bandbreite von knapp über 400 GiB/s (3,58 Tbps) ermöglichen. Diese werden für Node-to-Node-Verbindungen über eine Backplane bzw. in Form separater Kabel ausgeführt und können bis zu 1024 Nodes direkt verbinden.

nVidia hat zusätzlich zu NVLink den NVSwitch entwicklet, der Node-intern genutzt wird und damit bis zu 16 GPUs mit maximaler Performance zusammenschalten kann und die Gesamtperformance noch einmal deutlich steigert (im Vergleich zur HGX-2 oder DGX-2), d. h. auch hier wird der Großteil des Kommunikationsbedarfs jenseits von PCIe abgewickelt.

Wie AMD das mit dem IF-Link bei GPUs macht, kann ich Dir aus dem Stegreif nicht sagen. Zudem sind hier mit Blick auf die neue Beschleuniger-Architektur und bspw. den Frontier ggf. durchaus noch Erweiterungen zu erwarten.
 
Zuletzt bearbeitet:
Zurück