Pro_PainKiller
Gesperrt
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2
@Cleriker
Was will denn AMD mit High-End-Navi mit HBM2 oder Vega 20 (in 7 nm) primär für den High-Performance-Computing-Markt (HPC) im Jahre 2019/2020 im HPC Sektor erreichen ... weisst Du das ???
Kleiner Tip für AMD CEO's: HBM2 für Gaming (Consumer) Grafikkarten, rechnet sich nicht .... (Fiji HBM1 = FAIL /// Vega HBM2 = FAIL)
Denn die Nvidia Corporation, grösster Entwickler von Grafikprozessoren - hat heute schon 1'000'de (DGX-1) DGX-2 & HGX-2 Servers mit Tesla V100 bei HPC Kunden .... >>> Quanta Cloud Technology erweitert mithilfe der NVIDIA HGX-2 Plattform sein Angebot an AI Cloud-Losungen | GlobalCom PR Network
AMD 'HPC' GPU Marktanteil = nicht Vorhanden! (ROCm)
Künstliche Intelligenz (KI, englisch AI) und Machine Learning (ML) waren auf der Computex große Themen, von der winzigen Webcam mit ARM-Chip bis hin zum Rack-Server mit bis zu 8 oder 16 GPU- oder FPGA-Beschleunigern. Bei mehreren Serverherstellern war die Nvidia-Appliance HGX-2 mit 16 Tesla-V100-Chips zu sehen, die per NVLink verschaltet sind. Jeder GPU stehen 32 GByte HBM2-RAM zur Verfügung. Nvidia verspricht bis zu 2 PFlops an KI-Rechenleistung und 125 TFlops Gleitkommaleistung bei doppelter Genauigkeit. Auf der anderen Seite der Skala stehen winzige ARM-Controller mit KI-Einheiten, die einfache Bildanalyse beispielsweise direkt in Überwachungskameras ermöglichen. Die IT-Branche erwartet, dass KI-Anwendungen einen schier unstillbaren Bedarf an Rechenleistung und somit hohe Umsätze nach sich ziehen.
Für mehr Informationen besuche die Datenschutz-Seite.
@Cleriker
Was will denn AMD mit High-End-Navi mit HBM2 oder Vega 20 (in 7 nm) primär für den High-Performance-Computing-Markt (HPC) im Jahre 2019/2020 im HPC Sektor erreichen ... weisst Du das ???
Kleiner Tip für AMD CEO's: HBM2 für Gaming (Consumer) Grafikkarten, rechnet sich nicht .... (Fiji HBM1 = FAIL /// Vega HBM2 = FAIL)
Denn die Nvidia Corporation, grösster Entwickler von Grafikprozessoren - hat heute schon 1'000'de (DGX-1) DGX-2 & HGX-2 Servers mit Tesla V100 bei HPC Kunden .... >>> Quanta Cloud Technology erweitert mithilfe der NVIDIA HGX-2 Plattform sein Angebot an AI Cloud-Losungen | GlobalCom PR Network
AMD 'HPC' GPU Marktanteil = nicht Vorhanden! (ROCm)
Künstliche Intelligenz (KI, englisch AI) und Machine Learning (ML) waren auf der Computex große Themen, von der winzigen Webcam mit ARM-Chip bis hin zum Rack-Server mit bis zu 8 oder 16 GPU- oder FPGA-Beschleunigern. Bei mehreren Serverherstellern war die Nvidia-Appliance HGX-2 mit 16 Tesla-V100-Chips zu sehen, die per NVLink verschaltet sind. Jeder GPU stehen 32 GByte HBM2-RAM zur Verfügung. Nvidia verspricht bis zu 2 PFlops an KI-Rechenleistung und 125 TFlops Gleitkommaleistung bei doppelter Genauigkeit. Auf der anderen Seite der Skala stehen winzige ARM-Controller mit KI-Einheiten, die einfache Bildanalyse beispielsweise direkt in Überwachungskameras ermöglichen. Die IT-Branche erwartet, dass KI-Anwendungen einen schier unstillbaren Bedarf an Rechenleistung und somit hohe Umsätze nach sich ziehen.
Eingebundener Inhalt
Youtube
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst:
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.Für mehr Informationen besuche die Datenschutz-Seite.
Anhänge
Zuletzt bearbeitet: