AMD Renoir: Picasso-Nachfolger angeblich mit deutlich mehr GPU-Takt

Die Framerate wird aktuell deutlich stärker durch das Speicher-Interface denn durch die Rechenleistung der iGPU begrenzt. Da AMD an ersterer nur wenig ändern kann (selbst wenn sie deutlich mehr als DDR4-3200 spezifizieren, ist passender RAM einfach zu teuer für die mehrheitlich im Einsteigerbereich liegenden Einsatzgebiete), könnte auch der höhere Takt in vielen Szenarien einfach verpuffen.

Vielen Dank für die Erklärung. Das war mir so gar nicht bekannt. Welche Möglichkeiten außer Architekturwechsel wäre denn dann noch möglich? Würde die Einführung von Quadchannel etwas bringen etc.?

Btw: Das wäre mal ein spannender Artikel für die Print, wenn es das noch nicht gab.
 
Vielen Dank für die Erklärung. Das war mir so gar nicht bekannt. Welche Möglichkeiten außer Architekturwechsel wäre denn dann noch möglich? Würde die Einführung von Quadchannel etwas bringen etc.?

Btw: Das wäre mal ein spannender Artikel für die Print, wenn es das noch nicht gab.

Quadchannel, und auch HBM sind sicherlich Verbesserungsmöglichkeiten, aber aus Kostengründen passt das aber wohl auch nicht zu den Billig-APU's.
Da wird man wohl einfach auf DDR 5 warten müssen, wenn es ohne dedizierte Grafikeinheit für Normalanwender schnell und einfach Mehrleistung bringen soll.
Eigentlich ist es aber auch nicht Sinn der Sache, da mit aller Gewalt eine vollwertige Grafikkarte in den Prozessor reinquetschen zu wollen.
Das stört und behindert sich dann ja nur gegenseitig.
 
Am besten wären spezielle Mainboards mit extra Ram-Slots für die Grafikeinheit.

Das dürfte nicht viel bringen, im Gegenteil wäre ein gemischter Zugriff besser, weil die GPU oft mehr Bandbreite brauchen wird als die CPU, also ein Interface mit mehr Kanälen, auf die wie bis jetzt zugegriffen wird. Ist aber für die Zielgruppe zu teuer. Dann lieber einen bandbreitenstarken SDRAM-Cache oder direkt dedizierten Speicher für die GPU auf das CPU-Substrat dazupacken. Bei letzterem könnte allerdings der Platz eng werden und beides wäre vermutlich immer noch zu teuer. Prinzipiell finde ich es auch nicht verkehrt zu sagen, dass man entweder bei einer iGPU versucht, aus der Bandbreite möglichst viel zu machen, ohne sie aufwändig künstlich zu strecken und ansonsten eben auf eine dGPU zurückgreift. Oder halt ein SoC, wenn es möglichst klein und sparsam oder leistungsfähig sein muss, aber teurer sein darf.
 
Das dürfte aber primär nur eine Sache des Marketings sein.
Hatte mit nem Kaveri (~ 7850k) erste Schritte gemacht und nutze nun ein 2400G.
Vier Kanal mit DDR4-3600+ sollte schon was bringen (in Spielen).

Wäre es möglich das akt. Chiplet Design so zu nutzen um auf eine Seite die CPU und auf der anderen Seite ne GPU unterzubringen?

Wenn AMD eine GPU mit IF-Verbindung baut, könnten sie diese als Chiplet auf einem Matisse(-ähnlichen ) Substrat platzieren. Allerdings ist im Moment nicht klar, ob sich so ein Spezialchip für AMD lohnt oder ob es günstiger wäre, einfach einen 14-nm-Chip mit Shadereinheiten und I/O-Interface zu fertigen und den bisherigen I/O-Die dadurch zu ersetzen. Auch ein monolithisches Design ist nicht komplett ausgeschlossen, denn AMD hat nur CPU-Chiplets mit acht Kernen bereitliegen. Endprodukte mit weniger als sechs Kernen aus diesen abzuleiten bedeutet eine Verschwendung von 50+ Prozent der Chipfläche, bislang stemmen Vierkerner aber den Großteil der IGP-Nutzung und Zweikerner dürften auf Platz 2 folgen.


Also soweit mir bekannt ist stinkt der Intel 630 gegen Vega 11 komplett ab.
Dazu kommt mir unter 12 Threads nichts ins Haus, der 9900 ist mir persönlich zu teuer.

Intels normale Grafikeinheiten sehen kein Land gegen AMD, aber für viele Indie-Games reichen sie aus und nur danach wurde gefragt.


Vielen Dank für die Erklärung. Das war mir so gar nicht bekannt. Welche Möglichkeiten außer Architekturwechsel wäre denn dann noch möglich? Würde die Einführung von Quadchannel etwas bringen etc.?

Btw: Das wäre mal ein spannender Artikel für die Print, wenn es das noch nicht gab.

Quad-Channel würde viel bringen, aber eben so viel Kosten. AMD bräuchte eine komplett neue Plattform nur für APUs und diese würde ähnlich teuer werden wie der TRX4. Also viel zu teuer für IGP-Systeme. Das gilt im Moment auch für andere Lösungen wie beispielsweise HBM auf dem Substrat oder großer L4-Cache. Im High-End-Ultra-Mobile-Markt, der dedizierte GPUs wegen deren Platzverbrauch scheut, lässt sich so etwas refinanzieren (siehe Intel Iris Pro und Intel Vega). Aber das ist eine winzige Nische, die meisten IGPs werden als billige Alternative zu getrennten Grafikkarten gekauft. Billiger sind sie aber nicht, weil Shadereinheiten in Silizium A (CPU-intern) billiger als Shadereinheiten in Silizium B (als extra-GPU) wären, sondern weil man sich die gesamte Infrastruktur "Grafikkarte", vor allem das aufwendige Speicherinterface, spart. Würde man den gleichen Aufwand statt dessen in CPU-Package oder Mainboard investieren, hätte man nahezu die gleichen Kosten und keinen Vorteil mehr durch die IGP, und Kostennachteile sobald die gleiche Plattform auch in Kombination mit dedizierten Grafikkarten eingesetzt wird. Günstige IGPs können deswegen immer nur so stark sein, wie durch Zweitverwertung von ohnehin für die CPU benötigten Ressourcen möglich ist. Und dieses Potenzial reizt AMD schon heute weitestgehend aus.
 
Wenn AMD eine GPU mit IF-Verbindung baut, könnten sie diese als Chiplet auf einem Matisse(-ähnlichen ) Substrat platzieren. Allerdings ist im Moment nicht klar, ob sich so ein Spezialchip für AMD lohnt oder ob es günstiger wäre, einfach einen 14-nm-Chip mit Shadereinheiten und I/O-Interface zu fertigen und den bisherigen I/O-Die dadurch zu ersetzen. Auch ein monolithisches Design ist nicht komplett ausgeschlossen, denn AMD hat nur CPU-Chiplets mit acht Kernen bereitliegen. Endprodukte mit weniger als sechs Kernen aus diesen abzuleiten bedeutet eine Verschwendung von 50+ Prozent der Chipfläche, bislang stemmen Vierkerner aber den Großteil der IGP-Nutzung und Zweikerner dürften auf Platz 2 folgen.

An AMD's Stelle würde ich einen kleinen Navi - Chip entwickeln, den ich einerseits als eigenständigen DIE auf einer normalen Grafikkarte verwenden kann, gleichzeitig aber auch als Chiplet auf einer APU.

Das wäre kostentechnisch natürlich Ideal, wenn man nicht nur Chiplets hat die nur für APU's geeignet sind, sondern auch in Entry - Level GPU's verkauft werden können damit (an z.B Intelnutzer)

Allerdings habe ich keine Ahnung wie Flächenintensiv es wäre, gleichzeitig GDDR6 IMC und IF-Leitungen vorzusehen, damit man wahlweise eben Single GPU und APU Modus fahren könnte...
 
Zurück