Navi: Vega 10 könnte AMDs letzte große GPU sein

AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Es gibt aber den SFR' bzw. Split Frame Rendering Modus der zumindest ohne Framedrops skaliert - aber halt nicht so gut wie der andere (AFR), welcher den längeren ePenis erzeugt.
Es wäre ja heute schon mit Dual-GPU-Setups möglich, ohne großartige Mikroruckler zu zocken, nur legen die Hersteller bisher mehr wert auf die Länge des Benchmark Balkens, statt auf konstante Framerates. Wichtig wäre, dass AMD auf das richtige Rendering erfahren setzt. Dann ist das gar kein Thema.
Der AFR-Modus erzeugt nicht nur längere Benchmarkbalken, sondern kann auch ohne große Änderungen am Spiel per Treiber implementiert werden. Bei SFR hingegen MUSS sich der Entwickler des Spiels die ganze Arbeit machen, eine Arbeit, die sich bei dem kleinen Markt kaum lohnt.

Erschwerend hinzu kommt, dass SFR im Verbund mit bestimmten Techniken einfach nicht gut funktioniert. Für viele Effekte braucht man den kompletten vorherigen Framebuffer um nur einen einzigen Pixel zu berechnen, z.B. für volumetrischen Nebel, Blend- Linsen- und Motionblur Effekte, Screen-Space-Reflections, Shadow-Maps und noch einige mehr. In der 3dfx Zeit war an solche Effekte in Echtzeit nicht zu denken, da hat die GPU nur den Rasterizer Teil übernommen und vielleicht noch die Texturierung und triviale Beleuchtungseffekte per Fixed-Function Pipeline.

Heute sieht die Sache anders aus. Das 3dfx-Prinzip würde heute unglaublich schlecht skalieren. Und auch der hochgelobte Infinity Fabric ist letzlich nur ein Bus, der Stand heute sowohl deutlich höhere Latenzen, als auch weniger Bandbreite hat als eine direkte Verbindung zum GDDR5 Speicher. Ich lasse mich gerne überraschen, aber etwas Skepsis ist hier schon angebracht.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Gut möglich. Wenn auch mal wieder enttäuschend

sagen wir mal, dass 7nm eine doppelt so hohe Packdichte wie 14nm hat dann wäre ein vega 10 auf 250mm² machbar

wenn die Flagschiffkarte dann 4 davon hat wären wir bei 16000 Shadern

wenn das dann halbwegs gut skaliert wäre das doch super :D
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Und Du weißt schon jetzt (aus der Glaskugel vielleicht?), dass AMD nicht weiter an ihrer IF arbeitet und sie bei zukünftigen Einsätzen deutlich effizienter zu Werke geht? Interessant....
Nochmal: IF ist keine neue Technologie. Nur ein neuer Name dafür. Wäre sie so super, gäbs schon längst ähnliche Chips. Und selbst wenns noch nicht im GPU Bereich auf einem Träger gemacht wurde, ist es nichts, was Nvidia nicht auch machen könnte. UND es macht immer noch dieselben Probleme wie beschrieben.
Zudem hat niemand gesagt, dass AMD "über Nacht" ein Wundermittel erfunden hat. Wenn ich mich nicht irre arbeitet man schon relativ lange an der Skalierbarkeit von mehreren Chips und hat das im Grunde (auch bei Nvidia) als die Zukunft vorausgesagt.
Wie gesagt, die Forschung geht bis in die 90er zurück.
Dass man jetzt plötzlich mit IF den heiligen Gral gefunden hat, obwohl es ähnliche Technologien auch schon lange gibt, würde mich überraschen. Das hat meine "Glaskugel" dann wirklich verbockt. Ich orientiere mich daran, dass es ähnliche Ansätze schon gab und dass man ein Problem (Latenz, Bandbreite) nicht so einfach in den Griff bekommt. Klar kann man IF 2x so schnell machen. Oder 4x. Aber du hast nie die Werte einer monolitischen GPU.
Dass Nvidia ein deutlich höheres Budget hat, stimmt sicherlich, aber was passiert wenn man vergleichsweise lange in bestimmten Bereichen keine echte Konkurrenz hat, haben wir nun hinlänglich bei Intel gesehen.
Der Vergleich passt aber nur bedingt: Intel hat in den letzten Jahren 5% pro Jahr drauf gelegt. Nvidia hat in diesen Jahren das Tempo erhöht, die Marktposition verbessert, man hat NOCH mehr Geld in die Forschung reingebuttert, weil man eben noch mehr Geld pro Chip rausholen möchte.
Dass man völlig ohne Druck so viele Pascal Chips rausbringt, oder dass man einen 800+mm² Chip in einem extra entwickelten Verfahren raushaut zeigt nicht, dass man "schläft" wie der Riese Intel.
Ganz im Gegenteil. Nvidia schnappt sich immer neue Märkte damit und besetzt diese schon vorab mit Softwareentwicklern. Wenn AMD in diese Märkte später vorstoßen möchte, hat man wieder dasselbe Problem: Dort wird seit Jahren zu 90+ % Nvidia verbaut, getestet und mit ihnen zusammengearbeitet.
Man kann Intel im x86 Bereich "Innovationsarmut" vorwerfen (eigentlich nur im Desktop, sonst stimmts nämlich nicht wirklich), aber bei Nvidia sehe ich das nicht. Und Nvidia forscht an solchen Dingen nun auch schon wirklich lange und mit mehr Budget. Weil man eben weiterhin 1Mrd pro Quartal bei Professionellen GPUs einnehmen möchte. Und in die Autobranche will usw usf.
Und zu guter letzt: Vielleicht richtest Du Dich in einem Brief einfach direkt an AMD und erklärst ihnen in all Deiner vollkommenen Weisheit, dass sie mit ihren wahrscheinlichen zukünftigen Plänen total daneben liegen. Vielleicht bewahrst Du sie ja vor einem großen Fehler......
:daumen2: Was für eine sinnlose Aussage. Niveauloser geht es nicht "du superheld weißt es also besser, dann sag' es ihnen doch".
1) hier handelt es sich um ein Gerücht. Ok ich schreib ihnen "hey, AMD, ich hab hier von einem Gerücht gehört... egal ob es stimmt oder nicht, TUT ES NICHT
2) wusste mans schon vor der 4870X2 und man hats trotzdem getan. Auch damals gabs genug so "Experten".
3) wenn du die genannten Fakten nicht interpretieren magst, dann lass einfach das Posten, und versuch nicht hier persönlich angreifend zu werden.
sagen wir mal, dass 7nm eine doppelt so hohe Packdichte wie 14nm hat dann wäre ein vega 10 auf 250mm² machbar

wenn die Flagschiffkarte dann 4 davon hat wären wir bei 16000 Shadern

wenn das dann halbwegs gut skaliert wäre das doch super
biggrin1.gif
Bei fast perfekter Skalierung - die es leider nicht mehr gibt ja.
Aber dann hätte man das ja auch bei Vega so machen können - dann hätten wir jetzt einen ~8000 Shader-Vega, statt einem 4000 Shader Vega ;)
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Bei fast perfekter Skalierung - die es leider nicht mehr gibt ja.
Aber dann hätte man das ja auch bei Vega so machen können - dann hätten wir jetzt einen ~8000 Shader-Vega, statt einem 4000 Shader Vega ;)

bis die Treiber funktionieren dauert es vllt noch ne gaze Weile .. da haben sie es lieber gleich gelassen :D
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Heute sieht die Sache anders aus. Das 3dfx-Prinzip würde heute unglaublich schlecht skalieren. Und auch der hochgelobte Infinity Fabric ist letzlich nur ein Bus, der Stand heute sowohl deutlich höhere Latenzen, als auch weniger Bandbreite hat als eine direkte Verbindung zum GDDR5 Speicher. Ich lasse mich gerne überraschen, aber etwas Skepsis ist hier schon angebracht.
Nichts anderes versuche ich zu sagen. Eigentlich gehört jeder dieser 3 Sätze dick. Es geht um die nicht mehr funktionierenden alten Ansätze, der "Zauberbus" IF und, dass ich lieber Skeptisch bin, denn ich beobachte Multi-GPU Entwicklung und ihre "Wunderansätze" seit über 20 Jahren.

Hätte ich es in 2 Sätzen erklärt, würde es zerrissen werden. Jetzt wo ich es sogar mit Beispielen usw belege, Links usw anbiete, gibts immer noch Leute, die widersprechen müssen, ohne sich mit den Fakten auseinanderzusetzen. Manchmal ist es etwas mühsam hier.

Natürlich kann man optimistisch sein, wenn man von der Technik keine Ahnung hat. Dann kann man immer auf ein "Wunder" hoffen. Es ist aber sicher nichts falsches daran, sich in die angebotenen Links und Namen einzulesen.
bis die Treiber funktionieren dauert es vllt noch ne gaze Weile .. da haben sie es lieber gleich gelassen
biggrin1.gif

:D kann gut sein.
Wobei wenn man einfach 2x Fury in einem Chip gehabt hätte, wäre das vom Treiberentwicklungsaufwand wohl überschaubar gewesen. Das hätte ich ihnen auch gemacht.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Dank integriertem HBM Ram liessen sich auch gesockelte GPUs realisieren, so könnte man ein "Baseboard"
mit einer vorinstallierten GPU und 1-3 weiteren Sockeln in Form einer PCIe-Karte entwickeln, die mit weiteren,
nachkaufbaren GPUs bestückt durch das Interconnect zu einer großen GPU verschmelzen würden.
Dann wäre Crossfire komplett überflüssig und Nvidia hätte nichts vergleichbares in der Hand.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Dank integriertem HBM Ram liessen sich auch gesockelte GPUs realisieren, so könnte man ein "Baseboard"
mit einer vorinstallierten GPU und 1-3 weiteren Sockeln in Form einer PCIe-Karte entwickeln, die mit weiteren,
nachkaufbaren GPUs bestückt durch das Interconnect zu einer großen GPU verschmelzen würden.
Dann wäre Crossfire komplett überflüssig und Nvidia hätte nichts vergleichbares in der Hand.
Bis auf den Teil mit Nvidia stimmts. Denn Nvidia verfügt längst ebenso über HBM.

Die Idee mit der Grafikkarte, die eigentlich nur ein PCB ist, auf die man die GPU draufsetzt ist übrigens nicht neu, schmälert aber die Gewinne der Kartenhersteller. Ob das jemand machen wird ?
AMD hat aber trotz eingeschränktem Entwicklungsbudget enorme Innovationen am Markt etabliert.
Welche denn?
Was sagt uns das Manpower ist durch nichts zu ersetzen, Geld allein kann nicht denken und die richtigen Köpfe zur richtigen Zeit am richtigen Platz können auch bei überschaubaren monetären Aufwand ein gutes Ergebnis bringen (s. Ryzen, Athlon64), sonst hätte AMD schon vor vielen Jahren einpacken können.
CPU Entwicklung ist ja eigentlich nur ein kleiner Teil des Budgetaufwands. Ins Entwicklungsteam (also das reine Designteam) selbst laufen weder bei AMD noch bei Intel Milliarden
 
Zuletzt bearbeitet:
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

sorry doppelpost :(
Meine Gehirnhälften arbeiten gerade nicht besonders latenzfrei. Liegt am ganz persönlichen Infinity Fabric

Mach mal ein Microcode-Update :D
BTT: ich meinte damit amd hat schon sagen wir mal 4 Navi Chips auf einer GK Nvidia kommt mit einer Ultravolta (mir fällt kein anderer Name ein), AMD packt 2 - 4 Navis (:D weiste wegen schnellerer Wegfindung (omg so flach)) auf die nächste GK dann bekommen wir wieder 690, pro, x, xt, xtx, xtxv2........ etcpp :D. Und AMD kann das (hoffentlich) zeitnah umsetzten (mit großen Falls und Ob)

Mal Gesponnen :
1 Packagechip + 2-4 GB HBM Speicher alles in einem Intelligentem Bus adressiert.
1 mal für zb einfache Desktop/notebook lösungen
2 malfür "einfaches" Gaming
3 mal für midrange
4 mal für obere midrange oder Gamingnotebooks
5 mal für untere Oberklasse
6 mal fürHighend
7...... und und und und
Genial wie einfach (wenns klapt)
Intel hat nett umsonnst grade die Kinnlade auf den Schuhen :D
 
Zuletzt bearbeitet:
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Mach mal ein Microcode-Update :D
BTT: ich meinte damit amd hat schon sagen wir mal 4 Navi Chips auf einer GK Nvidia kommt mit einer Ultravolta (mir fällt kein anderer Name ein), AMD packt 2 - 4 Navis (:D weiste wegen schnellerer Wegfindung (omg so flach)) auf die nächste GK dann bekommen wir wieder 690, pro, x, xt, xtx, xtxv2........ etcpp :D. Und AMD kann das (hoffentlich) zeitnah umsetzten (mit großen Falls und Ob)

Mal Gesponnen :
1 Packagechip + 2-4 GB HBM Speicher alles in einem Intelligentem Bus adressiert.
1 mal für zb einfache Desktop/notebook lösungen
2 malfür "einfaches" Gaming
3 mal für midrange
4 mal für obere midrange oder Gamingnotebooks
5 mal für untere Oberklasse
6 mal fürHighend
7...... und und und und
Genial wie einfach (wenns klapt)
Intel hat nett umsonnst grade die Kinnlade auf den Schuhen :D
Genau das hat man ja bereits mit dem RV770 versucht, falls du meine Links diesbezüglich noch nicht gelesen hast, empfehle ich das jetzt ;)
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

mal eine dumme frage:
beim tile-based rendering werden doch einzelne tiles nacheinander jeweils gerendert.
würde es nicht mit einem sfr-ähnlichem ansatz und evtl einem übergeordnetem scheduler funktionieren jedes mcm modul eine eigene tile zu rendern und sobald es fertig ist an den scheduler ein ready-flag abzusetzen, welcher dem modul wieder eine neue tile zuweist, abhängig davon an welcher position das andere modul gerade sitzt?
damit würde man einen sehr hohen skalierungsgrad bewirken, da nur kurze auszeiten der anderen mcm module beim beenden der letzten, langsamsten tile auftreten.
oder ist das nahezu der sfr ansatz?
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Ist nicht 100% zu vergleichen, da der Ansatzt anders ist. Ein Chip nur mit mehreren DIes ist ja net neu was sie schon lange versuchen, auch mit dem RV, aber mit einer IF für GK mit einer Busanbindung von bis zu (teoretischen) 4192 Bit noch nicht
Wie auch immer bleibt spannend :D
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Im besten Fall müsste ein Treiber für eine Multi-Die-on-Interposer-GPU nichts besonderes können. Die GPUs sind ja jetzt schon in miteinander verbundene identische Blöcke auf einem Chip aufgeteilt, es ist eigentlich nur eine Frage diese ordentlich, ohne viel Overhead, direkt zu verbinden. Ich sehe den Aufwand vor allem beim Design des Command Processors, und ähnlichen Komponenten.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

mal eine dumme frage:
beim tile-based rendering werden doch einzelne tiles nacheinander jeweils gerendert.
würde es nicht mit einem sfr-ähnlichem ansatz und evtl einem übergeordnetem scheduler funktionieren jedes mcm modul eine eigene tile zu rendern und sobald es fertig ist an den scheduler ein ready-flag abzusetzen, welcher dem modul wieder eine neue tile zuweist, abhängig davon an welcher position das andere modul gerade sitzt?
damit würde man einen sehr hohen skalierungsgrad bewirken, da nur kurze auszeiten der anderen mcm module beim beenden der letzten, langsamsten tile auftreten.
oder ist das nahezu der sfr ansatz?

Das Problem besteht darin, dass eine Szene nicht in einem einzigen Renderpass gerendert wird. Üblich ist ein Renderpass für die grundlegende Geometrie, einen für transparente Objekte, dann diverse Passes für 3D-Effekte wie Schatten und Nebel, und schließlich noch ein paar für Post-Processing-Effekte wie Lensflares oder Blendeffekte. Besonders bei den letzten beiden Kategorien muss für den nächsten Renderschritt das komplette Ergebnis des vorherigen Schritts verfügbar sein. Würde die Berechnung auf verschiedene GPUs aufgeteilt, müssten diese Buffer entweder zwischen jedem Schritt auf alle GPUs verteilt werden, oder der Zugriff müsste über diese GPUs erfolgen.

Im ersteren Fall würden die Shader während des Kopiervorgangs Däumchen drehen und es müssten wieder alle zum Rendern benötigten Daten in jedem Speicher liegen. Dies hätte zur Folge, dass sich der Speicher mehrerer GPUs nicht addiert, sondern wie bei SLI oder Crossfire konstant bleibt.

Im zweiteren Fall würde die GPU über eine andere GPU auf deren Speicher zugreifen, und das während des Renderns. Da die Latenzen eines solchen Zugriffs viel höher wären als ein direkter Speicherzugriff würden die Shader beim Rendern einen Großteil der Zeit mit dem Warten auf Daten verbringen.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Es wäre ja heute schon mit Dual-GPU-Setups möglich, ohne großartige Mikroruckler zu zocken, nur legen die Hersteller bisher mehr wert auf die Länge des Benchmark Balkens, statt auf konstante Framerates. Wichtig wäre, dass AMD auf das richtige Rendering erfahren setzt. Dann ist das gar kein Thema.

Liegt aber auch nicht minder daran dass Benchmarks mit avg Framerates oft arbeiten die mM nach nutzloser nicht sein könnten. Was zählt sind die Dips, die Ruckler. Für mich gehört zu jeden Grafikkartentest auch eine Frametime Messung dazu!
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Das Problem besteht darin, dass eine Szene nicht in einem einzigen Renderpass gerendert wird. Üblich ist ein Renderpass für die grundlegende Geometrie, einen für transparente Objekte, dann diverse Passes für 3D-Effekte wie Schatten und Nebel, und schließlich noch ein paar für Post-Processing-Effekte wie Lensflares oder Blendeffekte. Besonders bei den letzten beiden Kategorien muss für den nächsten Renderschritt das komplette Ergebnis des vorherigen Schritts verfügbar sein. Würde die Berechnung auf verschiedene GPUs aufgeteilt, müssten diese Buffer entweder zwischen jedem Schritt auf alle GPUs verteilt werden, oder der Zugriff müsste über diese GPUs erfolgen.

Im ersteren Fall würden die Shader während des Kopiervorgangs Däumchen drehen und es müssten wieder alle zum Rendern benötigten Daten in jedem Speicher liegen. Dies hätte zur Folge, dass sich der Speicher mehrerer GPUs nicht addiert, sondern wie bei SLI oder Crossfire konstant bleibt.

Im zweiteren Fall würde die GPU über eine andere GPU auf deren Speicher zugreifen, und das während des Renderns. Da die Latenzen eines solchen Zugriffs viel höher wären als ein direkter Speicherzugriff würden die Shader beim Rendern einen Großteil der Zeit mit dem Warten auf Daten verbringen.

Öhm, also so wie ich das für die Zukunft verstehe, gäbe es den Flaschenhals des jeweils eigenen Speichers für jede "GPU" ja nicht mehr. Es würden ja auch nicht mehrere GPUs "meilenweit" entfernt irgendwo auf dem PCB mit ihrem jeweils eigenem Speicher sitzen, sondern es wäre ein Package mit mehreren Chips, die allesamt Zugriff auf ein und denselben Speicher haben (bei Navi jawohl HBM2). Habe so das Gefühl, dass viele hier von einem ähnlichen Ansatz ausgehen, wie bei bisherigen Multi-GPU-Karten: GPU1 mit eigenem Speicher und lahm (selbst der damalige Sideport AMDs konnte das natürlich nicht ausgleichen) an die nächste GPU2 (ebenfalls mit eigenem Speicher), die 15cm entfernt sitzt angebunden. Wie gesagt, wenn ich das richtig verstehe, gäbe es in Zukunft einfach nur vernünftig skalierende Chips, die über einen sehr kurzen (!) Weg über den IF kommunizieren und gleichzeitig ALLE auf den gleichen Speicher zugreifen.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Einzig möglich wäre, gewisse TEILE des Chips extra zu fertigen. Also nicht 2 Chips mit 2000 Shader zu haben, die dann Syncronisiert werden, sondern einen Chip mit vielen Textur, ROP usw units und einen weiteren mit dafür 10.000 Shader. Das führt dann zu weniger gestottere - hoffentlich. Aber wohl auch zu deutlich mehr Latenz.

Was viele hier immer meinen ist mir ein Rätsel. Als wäre "infinity fabric" nun ein Zaubermittel, das vorher nie wer erfunden hat und plötzlich alle Probleme der Welt löst.

Nahezu alle Teile einer GPU müssen zumindest während bestimmter Phasen des Rendervorganges auf große Teile des Grafikspeichers zugreifen können. Eine Auslagerung würde nur bei strikter sequentieller Arbeitsteilung funktionieren, aber diese wurde spätestens mit DX10 abgeschafft. Das letzte erfolgversprechende Projekt dieser Art war Sage für Direct3D – aber dann ging 3dfx Pleite.


Wenn ich das richtig verstehe, dann würde es hier auch keine X2 oder gar X4-Grafikkarten geben, wo die Chips einzeln (und das meist vergleichsweise weit entfernt) auf dem PCB sitzen, sondern man würde sie dann jeweils auf einem Die unterbringen (wie bei Ryzen und Epyc halt)? Wenn das mit der IF (die ja mit der Zeit auch sicher immer weiter verbessert wird) tatsächlich hinhaut, dann fände ich das schon interessant. Nvidia ist ja immerhin laut eigener Aussage mit dem Volta-Vollausbau an der Grenze der Machbarkeit, wenn AMD es da ebenso machen kann, wie derzeit bei den CPUs wäre das schon beeindruckend.
Allerdings steht natürlich ein großes Fragezeichen hinter der Treiberarbeit, vielleicht ist ein erstes Anzeichen (erstens schon jetzt für Vega und zweitens dann für die zukünftige Skalierbarkeit ab Navi) ja schon AMDs Abrücken von Crossfire. Im Moment konzentriert man sich ordentlich auf Polaris und Vega und ab Navi dann vielleicht nur noch auf einen einzigen Chip und dessen Skalierbarkeit, wenn man mehrere auf ein Die packt. Wenn sie dann nur noch einen einzigen Chip anbieten, dann hat man vielleicht auch genug Ressourcen dafür.

Epyc besteht aus mehreren Dies auf einem Package und hat geringere Datentransferfähigkeiten, als sie zwischen den Funktionseinheiten einer GPU benötigt werden.


Dank integriertem HBM Ram liessen sich auch gesockelte GPUs realisieren, so könnte man ein "Baseboard"
mit einer vorinstallierten GPU und 1-3 weiteren Sockeln in Form einer PCIe-Karte entwickeln, die mit weiteren,
nachkaufbaren GPUs bestückt durch das Interconnect zu einer großen GPU verschmelzen würden.
Dann wäre Crossfire komplett überflüssig und Nvidia hätte nichts vergleichbares in der Hand.

Bislang ist es nicht einmal mit fester Verdrahtung gelungen, ein ausreichend schnelles GPU-GPU-Interface zu schaffen. Auf gesockelte Ausführungen würde ich nicht hoffen – die bis auf weiteres schnellste steckbare elektrische Verbindung dürfte PCI-Express mit knapp 10 GT/s sein. Und das ist bekanntermaßen zu langsam.


mal eine dumme frage:
beim tile-based rendering werden doch einzelne tiles nacheinander jeweils gerendert.
würde es nicht mit einem sfr-ähnlichem ansatz und evtl einem übergeordnetem scheduler funktionieren jedes mcm modul eine eigene tile zu rendern und sobald es fertig ist an den scheduler ein ready-flag abzusetzen, welcher dem modul wieder eine neue tile zuweist, abhängig davon an welcher position das andere modul gerade sitzt?
damit würde man einen sehr hohen skalierungsgrad bewirken, da nur kurze auszeiten der anderen mcm module beim beenden der letzten, langsamsten tile auftreten.
oder ist das nahezu der sfr ansatz?

Wenn man es auf eine Tile pro Chip skaliert wäre es Tiled Rendering, eine Form von SFR. Und schon diese Skalierung ist technisch quasi unmöglich, denn nur wenige Render-Schritte lassen sich ausschließlich innerhalb einer Kachel absolvieren. Die Chips müssen also entweder sehr viele Informationen austauschen oder Teile fremder Kacheln zusätzlich berechnen.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Die Entwicklung war absehbar. Für AMD werrden die Entwicklungskosten für viele Dies pro Generation einfach zu hoch. Bei SLI/CF werden zwei "normale" monolithische Chips praktisch durch "Software" zusammengeschaltet. Bei einem echten modularen Design mit einem Interconnect über ein MCM oder Interposer ergibt sich ein vollkommen anderes Bild. Schon ein gemeinsamer Speicher auf den beide Dies mit voller Geschwindigkeit zugreifen können erlaubt sehr viel effizentere Methoden als AFR. Natürlich bleibt ein monolithisches Design theoretisch effizienter, aber genau so theoretisch ist Software in Assembler geschrieben effizienter und trotzdem benutzt man das heute nur noch selten.
 
AW: Navi: Vega 10 könnte AMDs letzte große GPU sein

Kann mir mal jemand den Unterschied zu dieser Variante und den Versuchen von Nvidia/AMD alias 295x2 und Titan Z erklären und warum das jetzt auf einmal funktionieren soll :huh:
 
Zurück