AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Das einzige mal dass es bisher MCM Lösungen auf dem Konsumer Markt gab, war der Pentium D und die Core 2 Quad Reihe von Intel.

Du hast die ersten Dualcore Atoms vergessen.

Seitdem ist diese Idee gestorben und wurde nun nach ~10 Jahren das erste mal wieder mit Epyc und TR implementiert.
dh. auch wiederum dass die letzten 10 Jahre kein MCM Produkt seinen Weg auf den Markt gefunden hat, geschweige den die Option für den Grafikmarkt wurde wahrscheinlich bisher noch nie abgewogen.

Das große Problem ist, dass die Probleme die gleichen sind, wie bei den Lösungen mit mehreren Karten oder Sockeln. Bei CPUs ist das noch relativ egal, da lassen sich die paar Prozent Leistungsverlust verschmerzen, Probleme mit der RAM Verwaltung kann man durch mehr RAM kompensieren und last but not least kann auch das OS einiges tun, damit sich der Leistungsverlust nicht ausweitet (Anpassungen auf jede CPU).

Bei den GPUs ist das nicht ganz so einfach. Wenn SFR weiterhin nur 30% Mehrleistung, für mehr als die doppelte Chipfläche benötigt, dann hat sich dieser Ansatz fast erledigt. Bei AFR würde dann neben dem Problem der Mikroruckler noch das viel größere Problem bestehen bleiben: man muß jedes Spiel einzeln anpassen. Somit hat man bei vielen AAA Titeln super Werte, dann sieht es allerdings düster aus.

Solange das nicht behoben wurde, bin ich sehr skeptisch. Ich lasse mich da gerne überraschen und würde das auch begrüßen. Allerdings bezweifle ich, dass AMD mal ebenso den Heiligen Gral aus dem Hut zaubert, das wird wohl noch etwas dauern.
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Im Prinzip sind TR und Epyc 2 und 4 Sockelsysteme, die man in ein Package gequetscht hat, mit allen Vor- und Nachteilen, die das so mit sich bringt. Die Frage ist, ob Intel genauso kontert, die könnten dann, aus dem Stand, 36 und 72 Kern CPUs bringen. Das ganze wollte Intel schonmal zu Zeiten des Core2Duo, unter dem Namen Skulltrail (allerdings mit zwei Packages, was Vorteile hat), einführen, leider ist es nie dazu gekommen.



Weil sie nun seit gut 15 Jahren an dem Problem herumdoktern und bisher keine vernünftige Lösung gefunden haben. Als das Problem vor 13 Jahren dann von der Öffentlichkeit erkannt wurde, hat man baldige Abhilfe versprochen, getan hat sich seither eher wenig. Wenn sie SFR mal endlich in den Griff bekommen, dann wäre es der Heilige Gral, damit würde ein Multi GPU System endlich das halten, was damals versprochen würde. Nach gut 13 Jahren warten bin ich eher wenig optimistisch, dass sie es bald hinbekommen, ich lasse mich aber gerne vom Gegenteil überzeugen.

Wenn Navi wirklich so erscheint, wie einige hier spekulieren, dann haben sie die ultimative Möglichkeit auch den 3. High End Chip zu verpfuschen (gut, vorher hat HBM einen gewissen Teil beigetragen). Poor Volta, er wird auch dann keinen Spielkameraden bekommen.

Vielleicht war es auch einfach noch nicht nötig genug, weil alle paar Jahre ein Shrink anstand.:)
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Bei den GPUs ist das nicht ganz so einfach. Wenn SFR weiterhin nur 30% Mehrleistung, für mehr als die doppelte Chipfläche benötigt, dann hat sich dieser Ansatz fast erledigt. Bei AFR würde dann neben dem Problem der Mikroruckler noch das viel größere Problem bestehen bleiben: man muß jedes Spiel einzeln anpassen. Somit hat man bei vielen AAA Titeln super Werte, dann sieht es allerdings düster aus.

SFR dient ja schließlich nur dazu um die miserablen Frametimes von AFR in einem mGPU Setting zu kaschieren. Und
der Teil der schließlich nicht in einem Leistungsplus resultiert, dient nur dazu um die Bildrate zu stabilisieren.

dh. die 30 % mehr Leistung sollten nur dann eintreten, wenn das SFR schlecht implementiert ist. Ergo die GPUs passen nicht die Last an und rendern beide jeweils unabhängig von der Last ein gleich großes Bild, da gehen schon theoretisch 25% Gesamtleistung flöten, wenn eine der GPUs nur zu 50% ausgelastet ist und die andere zu 100%, weil das teil Bild Rechenlastiger ist.

Schon könnte man bei so einer Umsetzung sagen, dass diese im Vergleich zu AFR "nur" 50% mehr Leistung im Vergleich zu sGPU bietet. Obwohl eine der Karten überhaupt nicht ausgelastet wird.
Kann man aber die Auslastung variieren lassen, könnte man dafür sorgen dass beide GPUs im SFR auch immer ihre +90% Auslastung haben, wenn man in der Lage ist diese dynamische Anspassung der Rechenlast korrekt anzulegen.

Meinetwegen soll man das wie beim echten SLI machen und auf die Scan-Line-Interleave-Methode setzen. rein von der Statistik lässt sich mit Sicherheit ein Mittelweg finden um die grobe Auslastung zu postulieren.

Entsprechend hätte man auch nicht die Probleme vom SFR die "Last" exakt vorhersehen zu müssen und dynamisch anzupassen.


Was mir aber Stirnrunzeln bereitet, ist dass diese dynamische Anpassung schon viele Spiele integriert haben um die Leistung on the go anzupassen, warum nicht auch für SFR ?

In den letzen 5 Jahren hab ich gefühlt von einer einzigen SFR Umsetzung gehört und das auch nur wegen DX 12....
 
Zuletzt bearbeitet:
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

von 14nm auf 7nm?

hast du dazu mal n Link ... das kommt mir so wenig vor ^^

TSMC nennt von 16nm auf 10nm 2x Packdicht und von 10nm auf 7nm 1,6x Packdichte

das wären dann 3,2x Packdichte von 16nm auf 7nm


Samsung 7nm soll ja wohl sogar noch besser sein als der von TSMC


Edit: wie akkurat is eig semiwiki?

das steht 123,7 Milliarden Transen/mm² (7nm) vs 32,5 Milliarden Transen/mm² (14nm)

also 3,8x Packdichte xD

https://www.semiwiki.com/forum/content/6713-14nm-16nm-10nm-7nm-what-we-know-now.html

Wäre auch geil wenn AMD mit Samsung enger kooperiert. Qualcomm macht das ja vor:
Qualcomm's upcoming 5G-enabled Snapdragon chipsets will be built on Samsung's 7nm node | Android Central

Für Vega würde gelten:
von 14nm auf 7nm sind es +40% Performance (-60% Verbrauch) und -30% Chipkosten
GlobalFoundries to Soon Pilot 7nm and EUV Production - ExtremeTech

Eine Vega64 auf 242nm² würde noch ~110W verbrauchen.
 
Zuletzt bearbeitet:
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Bei den GPUs ist das nicht ganz so einfach. Wenn SFR weiterhin nur 30% Mehrleistung, für mehr als die doppelte Chipfläche benötigt, dann hat sich dieser Ansatz fast erledigt. Bei AFR würde dann neben dem Problem der Mikroruckler noch das viel größere Problem bestehen bleiben: man muß jedes Spiel einzeln anpassen. Somit hat man bei vielen AAA Titeln super Werte, dann sieht es allerdings düster aus.
Bei den GPUs geht das heute sogar eher noch schlechter als früher, im Gegensatz zu CPUs.

Wo früher z.B. noch jeder Pixel individuell gerendert werden kann, brauchen viele Rendertechniken von heute das komplette Ergebnis eines vorherigen Renderschritts. Populäre Beispiele sind z.B. Screen Space Reflections, Schatten via Shadowmaps, "Godrays", Ambient Occlusion, und diverse Post-Processing Effekte wie Motion Blur oder Bokeh.

Deswegen funktioniert heute SFR nicht mehr so einfach wie früher, und wenn dann nur mit mieser Performance. Weil die GPUs den größten Teil ihrer Zeit damit verbringen, auf Daten vom Nachbarn zu warten.

Eine Multi-Die GPU müsste irgendwie gemeinsam auf einen Speicher zugreifen könne, und das sehr latenzfrei. Ansonsten wird das nichts.
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Wie sieht es bei Threadripper/Epyc eigentlich mit Hardware-Threadsynchronisation aus? Wenn ich z.B. unter Windows die Interlocked-Funktionen nutze, dann geht das ja nur so lange gut, solange ich nur eine CPU verwende. Threadripper ist eine CPU aus mehreren Chips. Was trifft in diesem Fall dann zu? (Oder habe ich das alles falsch in Erinnerung?)
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Eine Multi-Die GPU müsste irgendwie gemeinsam auf einen Speicher zugreifen könne, und das sehr latenzfrei. Ansonsten wird das nichts.

Also Quasi das was Huma bei der PS4 und One macht ( also der Speicherpool für GPU und CPU) ? diese technische Grundlage wurde schließlich für APUs entwickelt und sollte sich problemlos auch auf ein Multi GPU Die übertragen lassen. Dazu trägt auch die Infinity Fabric und der HBCC bei.

HBM hat schließlich die Grundlage geschaffen mehr oder weniger "Kostengünstig" viel Speicher mit hoher Bandbreite direkt an das Die zu koppeln ohne sich mit der Problematik des Platzes auseinandersetzen zu müssen.
Am Ende wird bei so einer "Multi Die Lösung " der HBCC von jedem Chip die Aufgabe der Verwaltung des Speichers übernehmen sowie die IF für die Kommunikation zwischen den Dies dient .

Sowie sich das ließt könnte man meinen, dass AMD seit Jahren still eine Technik nach der anderen für seinen großen Coup vorbereitet.

HBM, IF, Huma, dann noch der HBCC ^^

Ich denke das ist kein Zufall, dass diese oben genannten Techniken alles daran setzen, die Notwendigkeit von nötigen zwischen Speicherprozessen zu reduzieren.
HBM senkt zudem die Latenz und erhöht die Bandbreite. ( Platz Ersparnis, mehr Bandbreite, weniger Verbrauch )

HBCC mobilisiert alle Cache Reserven im PC um die Bandbreite zu maximieren ( Verknüpft wahrscheinlich sogar mehrere HBM Stacks zu einem größeren Speicher Block ) ( Zeitersparnis, weil jedes "Chip" Modul auf jeden HBM-Stack über den HBCC zurückgreifen kann )

Huma legt für CPU und GPU denselben Speicherpool an um direkt von der GPU auf die im Speicher bereits gelegten Daten von der CPU zurückzugreifen zu können ohne diese erst in den VRAM kopieren zu müssen. ( Zeitersparnis -> Latenz! )

Und letzten Endes die Infinity Fabric... eine Schnittstelle um mehrere Dies zu einer Funktionellen Einheit zu verbinden.
Vor einem Jahr im Ryzen noch als Ringbus, lag es 6 Monate später bei Vega schon als Mesh vor. ( von Ringbus zu Mesh = geringere Latenz )

Kombiniert man alles, dann hätte man praktisch die Perfekte Voraussetzung für eine totalitäre Gaming APU oder eben die Möglichkeit einen Modularen Highendchip zu basteln ^^
 
Zuletzt bearbeitet:
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Eine Vega64 auf 242nm² würde noch ~110W verbrauchen.
Nvidia schläft halt derweil nicht.
Shrinkt man derweil die 1080, wäre diese dann auch nur noch 160mm² groß und vom Verbrauch... naja reden wir lieber nicht ;)

Der 7nm Prozess ist also schon ein riesen Schritt vorwärts, aber wird ja von beiden durchgeführt und kommt erst 2019 im Massenmarkt (bei GPUs) an.

Mich würds nicht wundern, wenn AMD wieder 7-10 Monate lang ihre GPUs ankündigt und dann kommt einfach Nvidia dazwischen, ohne Ankündigung und allem und sagt "so, hier ganz ohne Geschwafel, das sind unsere neuen GPUs"
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Die Kostenersparnis ist von den Stückzahlen abhängig. Intel fertigt weitaus mehr CPUs als AMD und betreibt eine Vielzahl an Fertigungsstraßen. Hier werden ohnehin zusätzliche Belichtungsmasken benötigt und der Entwicklungsaufwand für verschiedene Kernzahlen hält sich bei den modularen Designs in Grenzen.

Muss ich Dir jetzt ganz hart widersprechen!

Erstens: Jedes Unternehmen ist dem Markt und der Realität unterworfen kosteneffektiv und effizient zu fertigen. Wenn der Konkurrent 17% effektiver fertigt, dann kann man sagen ist seine Rendite auch 17% höher. Das würden die Aktionäre und Geldgeber nicht lange auf sich sitzen lassen. Klar, Intel hat noch die Macht und ist etabliert aber sagen wir auf lange Sicht von Jahren würde das Intel umbringen!

Zweitens: Die Anzahl der gefertigten CPUs sagt oder kann nur was über die Marktmacht und evtl. den Umsatz was aussagen. Und schon gar nicht über den Gewinn. Grad hier können diese 17% teuflisch wirken!

Drittens: Die Vielzahl der Fertigungsstraßen ist eben das große Risiko jetzt von Intel. Je schneller AMD sich in den Märkten etabliert, desto massiver wird Intel unter Druck geraten. Auch deren Fertigungsstraßen müssen ausgelastet werden. Andernfalls rutscht Intel ins Minus hinein.

Viertens: Der Entwicklungsaufwand und somit die Kosten und Ausgaben und auch Rendite sind massiv davon betroffen wenn man nur ein Die entwickelt und damit daraus sich massivst viele Prozessorvarianten herausgeleitet werden. Noch schlimmer - und das kann gar nicht in Geld so richtig direkt bewertet werden - ist der massive Entwicklungsaufwand hinsichtlich benötigter Mannschaft (weniger Kapazitäten für andere Produkte) und weiter das eventuelle Risiko daraus Termine nicht halten zu können und somit daraus abgeleitet Risiken entstehen wie Verlust von Geld, Zeit, Entwicklungszeit und Konkurrenzfähigkeit am Markt.

Ich bleibe bei meiner Behauptung: Intel bastelt bereits jetzt schon an einem Design, dass sehr ähnlich dem zu AMDs sein wird. Auch Intel wird dazu übergehen die Dies zusammen zu kleben.

Mehr gibts dazu nicht zu sagen.

Derzeit skaliert die IF bis zu 512GB/s und VEGA ist schon innerhalb des Chips an mehreren Stellen per IF verbunden. Ich hab das immer als Vorarbeit für alles kommende verstanden. Abgesehen davon, arbeitet die IF innerhalb von VEGA auf Mesh-Basis, was sicherlich die benötigten Transferraten auf einigen Lanes verringern würde. Die Problematik der Latenzen bleibt sicherlich. Eine Aufteilung nach Pipelines, mitsamt ROPs und TMUs fände ich ziemlich interessant, auch wenn es dann einen gemeinsamen L2 Cache geben müsste, wie eben auch schon bei VEGA intern. Aber gut, bin auch kein Chipdesigner.

Anhang anzeigen 989726
https://i.imgur.com/jsRXHIG.png
http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Danke für diesen Beitrag. War mir jetzt neu. Letztens weniger Zeit gehabt zu lesen. Danke!

PS: Einzig klar war mir, dass Vega per IF an Ryzen angebunden ist. Das finde ich stark!
 
Zuletzt bearbeitet:
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Also Quasi das was Huma bei der PS4 und One macht ( also der Speicherpool für GPU und CPU) ? diese technische Grundlage wurde schließlich für APUs entwickelt und sollte sich problemlos auch auf ein Multi GPU Die übertragen lassen. Dazu trägt auch die Infinity Fabric und der HBCC bei.
Naja, eben nicht. Die PS4 APU hat eben nur EINEN Die, auf dem sowohl die GPU als auch die CPU sitzen. Dadurch können beide den gleichen Speichercontroller verwenden, damit auch auf den physikalisch gleichen, und gleich addressierten Speicher zugreifen.

Bei mehreren Dies geht das nicht. Denn auch toller "Next-Gen" Speicher muss von genau EINEM Speichercontroller angesprochen werden. Wenn dieser Speichercontroller nicht auf dem gleichen Die sitzt wie die GPU selbst, muss ein "Hop" über einen anderen Die gemacht werden - und dann sinkt die Performance ins Bodenlose.

Daran wird auch Infinity Fabric oder HBCC nichts ändern. Nimm mal eine moderne High-End GPU, die hat eine Speicherbandbreite von ~500 GB/s. Nun teilen wir das auf zwei Dies auf. Jeder Die hat nun also einen Speichercontroller mit 250 GB/s Bandbreite zum DRAM, und einem "Infinity Fabric" zum gegenüberliegenden Die. Der momentan verwendete Infinity Fabric hat eine Bandbreite von gerade mal 42 GB/s - also gerade mal ein Fünftel einer Direktverbindung. Als zusätzlicher Performancehit kommt da noch die Latenz des zusätzlichen "Hops" drauf. Beim 1950X beträgt die Die-To-Die Latenz zwischen 180 ns und 250 ns - sprich eine mit 1 GHz getaktete GPU dreht minimal 180 bis 250 zusätzliche Takte Däumchen, bevor die Daten kommen.

Ich lasse mich gerne vom Gegenteil überzeugen (in Form eines performanten Produkts zum Beispiel...) aber für mich klingt das nicht nach einer erfolgversprechenden Strategie.
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Es geht hier doch nicht um SLI/CF!

Dennoch um die Latenzzeit eines solchen idiotischen Fertigungsprozesses.

Was wollen wir eigentlich immer noch von diesem minderwertigen Silizium!? Wir sind in der hypothetischen Kenntnis über die Elemente und Stoffe des Universums schon wesentlich weiter vorangeschritten und vielleicht entdecken wir irgendwann das Gold der Goa'uld, das Naquadah.

Ernsthaft ... Ein Blick in das Periodensystem und den neuentdeckten Actinoiden lässt mich hinterfragen, weshalb wir nicht in mindestens den unerschöpflichen Vorrat an Deuterium verwenden anstelle dem antiquierten Silizium - die Marsianer lachen über unsere infantile Intelligenz.
 
Zuletzt bearbeitet:
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Ernsthaft ... Ein Blick in das Periodensystem und den neuentdeckten Actinoiden lässt mich hinterfragen, weshalb wir nicht in mindestens den unerschöpflichen Vorrat an Deuterium verwenden anstelle dem antiquierten Silizium - die Marsianer lachen über unsere infantile Intelligenz.[/I]

Was würden dir Actinoide bringen? Die Atome sind größer als die von Silizium, teiweise sind es atomare Spaltprodukte. Sie sind auch nicht in Massen vorhanden. Und Deuterium ist ein Gas, wäre also auch kein Ersatz, Halbleiter schon gar nicht.

Man kann nicht so schnell von der Halbleitertechnologie auf eine andere Art umschwenken. Schau dir an, wie lange Quantenrechner schon entwickelt werden, es gibt sie immer noch nur in kleinem Maßstab. Abgesehen davon, werden siliziumbasierte Rechner noch über 10 Jahre weiterentwickelt werden können.


fab8_media_day_patton_final-page-002.jpg
The Future of Silicon: An Exclusive Interview with Dr. Gary Patton, CTO of GlobalFoundries
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

3D Multichip Stacking & Photonics finde ich sehr spanndend. Also gestapelte Prozessoren, die per optischen Interconnect verbunden sind? Wow!

Edit: Das Interview von Anandtech mit dem CEO von GloFo sollte man wirklich lesen. Sehr interessant und schon geplant, wohin die Reise geht. -> The Future of Silicon: An Exclusive Interview with Dr. Gary Patton, CTO of GlobalFoundries
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Es ist eben nur ein Stichwort und bisher spuckt auch die Gerüchteküche nichts genaues aus, entsprechend ist es nur geraten, ob Navi schon so ein Konzept umsetzen wird.
ich spielte eben genau darauf an: eigentlich weiß man derzeit noch nichts, aber fast alle hier scheinen davon fix auszugehen, dass es eine Multichip-Lösung wird. Komisch

Und wieder mit TIM, da man da ja noch ein paar Cent rausquetschen kann:ugly:
Gut, dass AMD das nun auch macht, dann bleibt ihnen vielleicht auch mal etwas Geld.
Ach ich hab ganz vergessen... wenn AMD das macht, ist es ja gut, nur bei Intel ist es böse
Ich bleibe bei meiner Behauptung: Intel bastelt bereits jetzt schon an einem Design, dass sehr ähnlich dem zu AMDs sein wird. Auch Intel wird dazu übergehen die Dies zusammen zu kleben.

Das ist ja keine AMD Erfindung, Intel hat das schon vor 12 Jahren so gemacht.
Und Silizium gibt es ja wie Sand am Meer.
biggrin1.gif
Zumindest langfristig wird er knapp werden
Sand: Begehrt, aber knapp - science.ORF.at
Dem Wustenstaat geht der Sand aus - news.ORF.at
 
Zuletzt bearbeitet:
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

(...)
Weil sie nun seit gut 15 Jahren an dem Problem herumdoktern und bisher keine vernünftige Lösung gefunden haben. Als das Problem vor 13 Jahren dann von der Öffentlichkeit erkannt wurde, hat man baldige Abhilfe versprochen, getan hat sich seither eher wenig. Wenn sie SFR mal endlich in den Griff bekommen, dann wäre es der Heilige Gral, damit würde ein Multi GPU System endlich das halten, was damals versprochen würde. Nach gut 13 Jahren warten bin ich eher wenig optimistisch, dass sie es bald hinbekommen, ich lasse mich aber gerne vom Gegenteil überzeugen.(...)
Was meinst du mit in den Griff bekommen? Läuft in jedem Spiel mit etwa 50% Performancegewinn durch die Bank bei 100% mehr Leistungsaufnahme und 100% mehr Preis? Das wäre dann zwar etwas massenmarkttauglicher als AFR, (einige Spiele mit etwa 80% mehr FPS, andere mit etwa 0%, dafür Microruckler und dennoch 100% mehr Preis und Leistungsaufnahme) aber immer noch nur eine absolute Nischenlösung...

(wie andere hier sage ich auch: MCM-GPUs würden (daher) einen anderen Ansatz brauchen)
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

3D Multichip Stacking & Photonics finde ich sehr spanndend. Also gestapelte Prozessoren, die per optischen Interconnect verbunden sind? Wow!

Edit: Das Interview von Anandtech mit dem CEO von GloFo sollte man wirklich lesen. Sehr interessant und schon geplant, wohin die Reise geht. -> The Future of Silicon: An Exclusive Interview with Dr. Gary Patton, CTO of GlobalFoundries

Klingt äußerst spannend.

Allerdings frage ich mich, wie und ob (durch die kleineren Strukturen) sich das dann Letztendlich auf die Höhe des Dies auswirkt.
Mit der gestiegenen Packdichte durch das "stacken", wird die Wärmeabfuhr doch besonders für die untere Schicht erschwert, oder?

Silizium ist mit 150 W(m*K) ja leider nicht der beste Wärmeleiter, Kupfer z.B. hat 400 W(m*K).
 
Zuletzt bearbeitet:
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

Gut, dass AMD das nun auch macht, dann bleibt ihnen vielleicht auch mal etwas Geld.
Ach ich hab ganz vergessen... wenn AMD das macht, ist es ja gut, nur bei Intel ist es böse

AMD macht das ja nur bei den APUs. Bei diesem Preis ist es auch für mich OK. Da erwarte ich kein Lot.
Und die Ryzen 2xxx ohne GPU sind wieder verlötet.

Bei Intel ist es nur deshalb "Böse", da die Prozessoren trotz des höheren Preises nicht verlötet sind. Da bekomme ich von AMD für weniger Geld ne verlötete CPU.
 
AW: AMD Ryzen Threadripper & Epyc: Multi-Die-Strategie spart viel Geld

mein senf dazu:
HBM, oder irgend ein anderer speicher:
verschiedene speichergrössen an ein DIE oder teil-DIE zu binden dürfte eine lösung sein. so könnte man den speicherausbau abstufen und die positionierung der speicher beibehalten. d.h. zb 4 speicherbauteile mit unterschiedlichen grössen ergäben bei 1GB, 2GB 4GB oder 8GB je modul, 4 ,8, 16,oder gar 32GB VRAM, oder wie der dann auch immer heisst und könnte alles mit dem selben interposer und fertigung gelöst werden.

GPU-aufbau:
entweder in alle einbaubaren GPU-teil-DIE's alle technik mit einbauen und nur untereinander schnell genug verbinden, ähnlich wie AMD's zen-technik mit den modulen,
oder,
ein chip der mindestens einen teil des RAM ansteuert, und die post-prozessing-features liefert kann, und mehrere kleine weitere chips, die daran angebunden sind (mengen hier zu- und abschaltber) die die restlichen rechenaufgaben erledigen.
dazu müsste man, und das dürften die hersteller wohl, wissen wie und mit welchen latenzen usw, die verschiedenen GPU-bereiche ausgelastet sind. wenn zb für post-prozessing nur 10% der performence gebraucht würde, plant man diese mit 30% max-leistung und hätte genug puffer-leistung.
bei den shader usw dann vergleichbar vorgehen.
ob diese dann je noch etwas cache und wieviel sie brauchen würden, düften die hersteller schon jetzt wissen und danach den VRAM des einzelmodules bemessen können.

ich schätze damit dürfte man auf eine 5-chip lösung kommen wo für die shader-usw-DIE's eine hohe scalierbarkeit ereicht werden kann.
zb: die muli-chips mit 1000/2000/4000(später) shadern bauen, teildeaktivierbar wegen minimierung de ausschusses,
das ansteuer- und postprozessing-modul, scallierbar über die speicherausbaustufen.

so ergäbe sich dann eine karte die 4 - 32GB RAM, und wenn der ansteuerbaustein zb 4 shader-module ansteuern kann soviele shader wie je mindestens ein modul eben freigeschaltet hat.
bei zb 1000, 2000, 4000, später 8000 shadern je modul, ergäben das dann zwischen 1000 shadern minimal möglich bis 32000shadern maximal.

damit könnte man dann ähnlich zen, die ganze palette karten abbilden.

die kleinen dann wohl mit etwas weniger marge, die grossen dafür mit umso mehr marge und in zukunft, wo die kleinen karten dann mit der ziet wegbröckeln weil die keiner mehr kauft, höhere gesamt-marge. an der leistungsspitze könnte man relativ billig weiter hochskallieren.

mir ist dabei bewusst das das theorie ist und man da sicher mit diversen problemen zu kämpfen haben muss, aber dazu hab ich nicht das nötige hintergrundwissen um das abschätzen zu können, wie zb wie stark die einzelnen bereiche wie post-prozessing, shader usw je nach anwendungsfall ausgelastet werden usw ;-)

vieleicht hilft ja was zb latenzen und datenraten zu den modulen angeht, eine glasfaser-verbingund, soll ja mittlerweile schon auf silizium machbar sein und da dürfte mindestens die maximal mögliche datenrate höher sein, wenn ich das richtig überblicke ;-)
hintergedanke dabei: eine bis zwei glasfaser-verbindungen je modul, dürfte günstiger sein als hunderte kupfer/silizium-bahnen- interposer-connects zu den DIE's....

natürlich, damit hätte man 2 fertigungen, einmal shader und einmal ansteuer-modul, aber hin zu grösseren leistungsfähigeren karten, wäre man im vorteil UND hätte einen grundstock für die zukünftige erweiterung.
schlimmstenfalls braucht man dann bei zeiten ein ansteuer-DIE das mehr shader-kerne ansteuern kann, aber ds hätte noch etwas zeit weil man ja jetztschon bis hier im beispiel gerechnete 16k shader ansetuern könnte.
 
Zurück