AMD Raven Ridge: Weitere angebliche Details zur ersten Ryzen-APU

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Raven Ridge: Weitere angebliche Details zur ersten Ryzen-APU

Die russische Hardware-Seite 3DNews scheint nun mit neuen Angaben einige vorab kursierende Gerüchte zu den ersten Ryzen-APUs namens Raven Ridge zu bestätigen. Dennoch sind alle Informationen mit Vorsicht zu genießen, da AMD bislang noch nichts offiziell bestätigt hat.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Raven Ridge: Weitere angebliche Details zur ersten Ryzen-APU
 
Was mich interessieren würde: Ryzen soll nur Dual Channel unterstützen, DDR4 ermöglicht aber auch Triple und Quadchannel. Wäre das nicht gerade für Highend APUs ideal?
 
Was mich interessieren würde: Ryzen soll nur Dual Channel unterstützen, DDR4 ermöglicht aber auch Triple und Quadchannel. Wäre das nicht gerade für Highend APUs ideal?
Mehr Bandbreite ist immer ideal, allerdings muss man auch den Aufwand und die Kosten im Auge behalten.
Ein 128-Bit bzw. gar 256-Bit Interface kostet eine Menge Chipfläche, erhöht die Mainboard-Kosten und muss entsprechend bestückt werden.
Der Markt scheint das nicht herzugeben.

So etwas würde jedenfalls nicht dem aktuellen HBM(2)-Standard entsprechen.
Der Standard sieht immer 1024-Bit vor (128-256 GB/s, je nach Taktrate) und pro Layer kommen 1GB zum Einsatz.
 
Was mich interessieren würde: Ryzen soll nur Dual Channel unterstützen, DDR4 ermöglicht aber auch Triple und Quadchannel. Wäre das nicht gerade für Highend APUs ideal?

Das Problem ist dann die Attraktivität von High End APUs. Im Prinzip kämen dafür dann nur ultrakompakte Zocker PCs in betracht und der Markt dafür ist vorsichtig gesagt überschaubar. Ansonsten fährt man mit einer dedizierten Graka eigentlich immer besser und ist flexibler. Im Laptop wären 4 Module, für bis zu 64GB RAM zwar wünschenswert, jedoch bezweifle ich auch da den Nutzen.
 
Die APUs verhungern bei AMD schon seit Jahren an der Bandbreite, völlig sinnlos so viele Shader zu verbauen und den gesamten Chip so aufzublähen. Die Preise waren wegen der großen IGP auch nicht sonderlich attraktiv, zumindest bei den Top-Modellen.
 
Das Problem ist dann die Attraktivität von High End APUs. Im Prinzip kämen dafür dann nur ultrakompakte Zocker PCs in betracht und der Markt dafür ist vorsichtig gesagt überschaubar. Ansonsten fährt man mit einer dedizierten Graka eigentlich immer besser und ist flexibler. Im Laptop wären 4 Module, für bis zu 64GB RAM zwar wünschenswert, jedoch bezweifle ich auch da den Nutzen.

für high end apu´s gibt es schon einen markt. allerdings macht es wenig sinn die apu´s gesockelt anzubieten. eher sowas wie den intel nuc bauen mit verlöteten apu´s und hbm bzw gddr5 (ist halt die frage ob man sich ein größeres speicherinterface leisten möchte mit dem man dann teurer und weniger flexibel ist), wenn da eine gute schnittstelle mit verbaut wird (sodass sich die "pc´s" einfach koppeln lassen und mit voller performance laufen) lässt sich sogar im hpc markt was reisen.
 
Vielleicht bauen sie ja einen L4 ähnlich wie Intels EDRAM mit drauf. Ansonsten können sie sich die 256 zusätzlichen Shader eigentlich fast sparen.
 
Gab schon vor Langem das Gerücht, dass DDR4-3200 unterstützt wird, also 51,2 GB/s im Dual Channel Betrieb.

1,3GHz für die iGPU halte ich für weit hergeholt, schließlich gehts hier um den "kleinen" Chip der bis 35W TDP bekommen soll.
Bisher hatte man bei den 35W-Modellen 512 Shadereinheiten die mit maximal 800 MHz getaktet haben.
(Beim FX-9830P liegt der GPU-Takt bei 900MHz, aber da sinds 25-45W TDP, und das Modell wird von den OEMs eh links liegen gelassen)

Energieeinsparungen hin oder her, ich kann mir schwer vorstellen dass man 768 Shader @1,3GHz in 35W packen wird, zumal da noch CPU, NB und diverse SoC-Sachen dazukommen.
Was den Bandbreitenhunger angeht, das ist bereits mit Carrizo ein gutes Stück weit besser geworden durch die überarbeitete Farbkomprimierung.
Wenn das mit Vega noch besser wird, und die iGPU wohl eher bei 1GHz -> 1,5TFLOPs landen wird dann sollte das kein allzukleiner Flaschenhals sein.
 
Einfach mal quergedacht.
Eine Zen-APU mit etwas grösserer GPU und 8-16GB HBM2 als unified-memory wäre doch was Feines bsw. für kleine einfache Büro-Computer. Gleich den separaten DDR4 sparen :)
 
Einfach mal quergedacht.
Eine Zen-APU mit etwas grösserer GPU und 8-16GB HBM2 als unified-memory wäre doch was Feines bsw. für kleine einfache Büro-Computer. Gleich den separaten DDR4 sparen :)

Wenn man für den HBM Speicher ein vielfaches an normalen RAM bekommt nicht. Dann kauft man sich einfach 8-32GB normalen RAM und stopft noch eine Graka mit 2-8GB RAM rein und ist schneller deutlich sowie billiger unterwegs. Teure Preise von Spezialram haben Intel beim P4 zuerst das Genick gebrochen, irgendwie sind sie aus den Verträgen mit Rambus rausgekommen und konnten so SDRAM und DDR1 RAM einführen, was ihnen den Arsch gerettet hat. Für 16GB HBM2 wird man wohl knapp 128GB DDR4 bekommen, was bei Büromaschinen wohl noch der sinnvollere Overkill wäre.
 
für high end apu´s gibt es schon einen markt. allerdings macht es wenig sinn die apu´s gesockelt anzubieten. eher sowas wie den intel nuc bauen mit verlöteten apu´s und hbm bzw gddr5 (ist halt die frage ob man sich ein größeres speicherinterface leisten möchte mit dem man dann teurer und weniger flexibel ist), wenn da eine gute schnittstelle mit verbaut wird (sodass sich die "pc´s" einfach koppeln lassen und mit voller performance laufen) lässt sich sogar im hpc markt was reisen.

Einen derartigen AMD-Rechner nennt man "PS4" ;-)
 
Zurück