Radeon Pro SSG: AMD steckt zwei SSDs auf eine Grafikkarte

Gestern fragte ich noch, ob GPUs irgendwie direkt auf die SSD zugreifen können
und heute kommt AMD schon mit der Lösung. Tolle Firma, so geht Innovation!

Finde ich auch!

Was ich mich nur frage: Muss die Anwendung dass unterstützen, damit die GPU das kann oder nicht. Sollte sowas jemals auch für den Gamingmarkt erscheinen, wäre es doch eine interessante Frage, wie Engines damit zurechtkommen und ob sie es wirklich nutzen können.
 
Gestern fragte ich noch, ob GPUs irgendwie direkt auf die SSD zugreifen können
und heute kommt AMD schon mit der Lösung. Tolle Firma, so geht Innovation!

Da haben sie aber ganz schön schnell entwickelt, nachmdem sie den Forenpost gelesen haben^^
zum Thema:
Das gibt interessante Möglichkeiten. Im Amd Treiber gibts doch die Option die Shader schon vorkompiliert zu speichern, damit das Laden von Spielen schneller geht.
Ein paar Gb auf dem Board würden dazu auch aureichen und es ginge vielleicht nochmal schneller. Aber bis sowas im Consumerbereich ankommt (wenn überhaupt) wird es wohl noch lange dauern.
 
die dem normalen 0815 Kunden genau 0 bringt und dann wundert sich noch jemand wieso AMD ausm letzten Loch pfeift...

Mit so einer Einstellung hätten wir sämtliche Innovation aus der Rüstungsindustrie selbst heute nicht. (düsentriebwerke, raketenantriebe, akkumulatoren etc)
Glaubst du ernsthaft dass So Dinge wie GDDR für Consumer entwickelt wurden? Frag dich mal wieso Intel mit Larrabee sich dumm und dusslig verdient und warum man den Consumer Markt nicht bedient?
Man merkt dass du von der Materie eher keine Ahnung hat

Laut Fudzilla solls nen Fiji sein:
https://pbs.twimg.com/media/CoQn51CUkAIXWFM.jpg:thumb
Ich sehe zumindest KEINE Speicherlötstellen..
Und Polaris mit HBM Interface nunja das mag ich nicht so Recht glauben
FirePro.JPG
 
Also ich frage mich, die die Daten auf die SSDs kommen sollen?
Wenn das so kommt, wie im Artikel steht, nämlich dass das Betriebssystem da nichts zu melden hat, dann sind die SSDs für das OS quasi transparant. Das ist wie mit dem SSD-Speicher in SSHDs. den SSD-Speicher kann man da auch nicht wirklich selbstbestimmt nutzen.
Die SSDs wären also bei der Grafikkarte nur sowas wie ein rieser Buffer oder Cache, genau wie bei den SSHDs auch. Die Daten fü den Speicher müßte die Grafikkarte selbst erstellen, etwa beim Entpacken von Texturen oder beim Konvertieren von Videos.
Wollte man Spiele darauf laden, wüßte man die SSD von der GraKa stöpseln, richtig am MoBo anschließne, das Spiel darauf kopieren und dann wieder auf die GraKa stecken? Und wie kommen dann die ausführbaren daten zur CPU? Wird wohl eher nicht passieren, oder?

Spannend fänd ich ja, wenn man klassische RAM-Riegel mit SSD-Technik kombinieren würde. Arbeitsspeicher = Festplatte oder so ;)
 
Bin mal gespannt, wie sich das Projekt entwickelt und vor allem, was für Unterschiede sich durch die Nutzung verschiedener (hochwertiger und weniger hochwertiger) SSDs noch ergeben können.
 
Wäre es nicht möglich das eine der SSD doch in Verbindung mit den OS kommuniziert und die andere als Cache für die GPU herhält, warum baut man grade 2 davon drauf, eine hätte doch gereicht.
Und warum geht nur 1 Tb maximum. Aber wenn die Karte die Demo mit so hoher Bildrate hergibt, muss die doch nur noch ihre Daten abrufen wärend die neuen und der ersten SSD vorbereitet werden.
So käme sie doch auch ohne Speicher aus, weil wozu brauch sie den noch?
Ich bin jetzt nicht der Elektronik Fachmann aber so würde ich mir das erklären. (merkt man oder)
Einfach gesagt macht doch die CPU auch nichts anderes mit den OS Platte. Außer das sie es scheinbar hinbekommen haben die "Mittelsmänner" zu umgehen mit der SSD Variante.
Wenn alle wichtigen Daten des Spiels schon im SSD Speicher der Grafikkarte liegen, werden sie nur noch gelesen.
Boar ich hör mal auf, hab schon getrunken..:ugly: :hmm: Find ich Interessant. :daumen:
 
Bandi: ich glaube du denkst zu sehr an Spiele. Für solche Anwendungen sind diese Karten aber nicht ausgelegt sondern richten sich eher an professionelle Anwender. Simulationen in wissenschaftlichen Bereich oder Analysen (in welchen Bereich AMD das auch Einordnen mag) brauchen wesentlich mehr Rechenleistung und Speicherressourcen als Spiele. Und die jetzt gezeigte Lösung ist schneller als eine normale Kombination (ich sage mal incl. CPU), das bedeutet aber nicht zwangsläufig, dass sie schneller ist als VRAM. Und bevor VRAM in Größenordnungen wie von SSDs Thema sind, behilft man sich eben so. :)
 
die dem normalen 0815 Kunden genau 0 bringt und dann wundert sich noch jemand wieso AMD ausm letzten Loch pfeift...
Warum sollte eine Lösung für den professionellen Anwender einem Gamer oder einer Person die nicht versteht wofür diese Karte gebaut wurde auch was nützen? Du würdest das Ding doch nichtmal bestellen können :lol:
 
Das hat mich sofort daran erinnert.
Zwar flüchtiger Speicher aber Grafikkarten mit bestückbaren DDR -Speicher gab es schon früher.
Nicht der Speicher rechts.

Anhang anzeigen 906989
;)
Es gab auch schon Prototypen von Nvidia (wobei auch gemunkelt wurde, dass 3dfx an ähnlichem gearbeitet hat), die Flash Speicher mit dabei hatten. Wozu weiß man nicht, aber damals war Arbeitsspeicher knapp und man hat wohl versucht den Treiber und andere Dinge im Flash-Speicher unterzukriegen statt im Speicher bzw in der Auslagerungsdatei.
Wenn ich GPU+SSD lese, kommt mir als erstes eine Alternative zu einer Game Capture Card auf... Quasi Perfomanceinbußenfreies Aufnehmen von Screenvideos (zb. für Lets Plays oder sowas), vielleicht mit einem kleinen SoC, der dann auch auf der Grafikkarte ist und gleich in das Richtige Format umwandelt, ohne die CPU und Compute units der GPU dafür Plagen zu müssen.
Ein Computer im Computer also
s000.gif


Capturing ohne Performanceeinbußen gabs früher auch schon - halt nicht mitm Computer im Computer, aber mit 2 Computern
 
Die sollten lieber mal an schnelleren Grafikkarten arbeiten um mal wieder nVidia Konkurrenz zu machen.

:stupid:

Zum Topic:
Sehr Interessant! Ist ja heut schon Standard innerhalb von 4k Material zu Schwenken etc. Mit 8k Material kann man dann schon mal nen Schwenk bei 4k machen.
Sicher auch nützlich für Profi-Designed Software, sobald Bedarf am Platz der SSD besteht.
 
@ die Hater
Die 390x :devil: 13 ist ab 4k oft schneller als jede Titan
@ Top
Der Oberhammer, krasses Konzept das hoffentlich zur Marktreife kommt.
Hollywood und co wären bestimmt gute Abnehmer.
 
Zuletzt bearbeitet:
Es gab auch schon Prototypen von Nvidia (wobei auch gemunkelt wurde, dass 3dfx an ähnlichem gearbeitet hat), die Flash Speicher mit dabei hatten. Wozu weiß man nicht, aber damals war Arbeitsspeicher knapp und man hat wohl versucht den Treiber und andere Dinge im Flash-Speicher unterzukriegen statt im Speicher bzw in der Auslagerungsdatei.
Ein Computer im Computer also
s000.gif


Capturing ohne Performanceeinbußen gabs früher auch schon - halt nicht mitm Computer im Computer, aber mit 2 Computern

Ich kann mich daran erinnern und war irgendwo schon immer knapp und natürlich auch kostspielig, aber das waren andere Zeiten ;) aber coole Ideen gab es auch damals.
Gruss
 
Der HBM Controller ist deutlich kleiner als der GDDR5 Controller.
Auch das 2000 Bit HBM Interface dürfte kleiner sein.
Der Interposer und die HBM Chips gehören nicht zum DIE.
Die 14nm Fertigung erlaubt eine deutlich höhere Packdichte weshalb der GP106 DIE trotz viel weniger Transistoren nicht deutlich kleiner ist
So sollten sich 4000 Shader auf um die 350mm unterbringen lassen.
Kommen wir zum Stromverbrauch.
Hier gibt es Messungen von Thomshardware die Belegen das alleine die GDDR5 Chips fast 50 Watt verbrauchen.
Der eigentliche Chip verbraucht 110 Watt und da ist der GDDR5 Controller mit drin.
Hierzu gibt es auch einige Beobachtungen.
Asus hat es geschafft durch leichtes verringern der GDDR5 Controller Spannung 10 Watt unter der Referenz zu landen.
PCGH hat bei einem Versuch alleine durch das anheben der Controller Spannung bei der 4GB Version den GPU Takt fast halbiert.
Das legt den Schluss nahe das bei den 110 Watt die der Chip verbraucht noch mal ordentlich was auf den GDDR5 Controller geht.
Mit HBM dürfte die 480 gut und gerne 110 Watt verbrauchen anstatt 160 Watt.
Zusätzlich waren bei GCN die größeren Modelle immer Energieefizienter als die Kleinen.
Die 470 mit 110 Watt TDP dürfte in etwa 10% langsamer als die 480 sein und so irgendwo bei der 970 liegen.
Das ist was Energieefizienz Angeht schon deutlich besser.

Aber die GTX1060 und 1070 hat doch die selben Speicherchips. Verbrauchen sie dann alleine 70 bzw 100W? Kann ich mir kaum vorstellen.

Verglichen mit Pascal hat Polaris deutlich höhere Spannungen, sowohl im Leerlauf auch unter Last. Es sieht momentan so aus als wäre der TSMC Prozess einfach der bessere.

Und nein, größere GPUs sind sowohl bei Nvidia als auch AMD nicht unbedingt effizienter. Pitcairn war zB deutlich effizienter als Tahiti. GM204 effizienter als GM200.
 
Aber die GTX1060 und 1070 hat doch die selben Speicherchips. Verbrauchen sie dann alleine 70 bzw 100W? Kann ich mir kaum vorstellen.

Verglichen mit Pascal hat Polaris deutlich höhere Spannungen, sowohl im Leerlauf auch unter Last. Es sieht momentan so aus als wäre der TSMC Prozess einfach der bessere.

Und nein, größere GPUs sind sowohl bei Nvidia als auch AMD nicht unbedingt effizienter. Pitcairn war zB deutlich effizienter als Tahiti. GM204 effizienter als GM200.

Hört endlich auf mit der Prozess läuft net so gut... Das macht im Bezug auf die Leistungsaufnahme kaum was aus!

Zur Spannung: AMD hatte schon immer eine eigentlich viel zu hohe Spannung @Stock anliegen. Vielleicht möchten die damit sicher gehen das auch wirklich alle Karten laufen. Das gilt auch für Prozessoren von AMD (hab meinen kürzlich obwohl er übertaktet ist von 1,3625V glaube waren es auf 1,3V undervoltet und könnte noch tiefer was ich demnächst angehe).

Zur Leistungsaufnahme insgesamt: AMD hat einen SP: DP von 1:16 waren es glaube
nVidia von 1:32
AMD hat einfach noch Computesegmente in der Grafikkarte aktiviert (oder deaktiviert und verbraucht trotzdem Leistung?).
Das macht wenn man die Effizienz betrachtet einiges aus zusammen.
Die Fertigung hat wenn überhaupt nur einen kleinen Anteil.
 
Zuletzt bearbeitet:
Also mir ist es, wie schon öfter gesagt, scheiß egal welchen Speicher die Grafikkarte hat. Hauptsache die Spieleleistung passt. Und da ist AMD nVidia im High End Bereich deutlich unterlegen. Und gerade da sollte AMD mal nachlegen, Konkurrenz schadet ja nicht.


Ja genau so soll es sein das dann alle ihre Nvidia GPU billiger Kaufen können... im Hige end Markt macht man nun mal nicht das Geld...
 
Also mir ist es, wie schon öfter gesagt, scheiß egal welchen Speicher die Grafikkarte hat. Hauptsache die Spieleleistung passt. Und da ist AMD nVidia im High End Bereich deutlich unterlegen. Und gerade da sollte AMD mal nachlegen, Konkurrenz schadet ja nicht.
in hohen auflösungen verringert sich der abstand deutlich....
was liest du denn? nvidia pressemeldungen?
im ernst, es kommt aufs spiel and und welche version das game hat.
z.b. hatte fallout 4 in 1.4 nen massiven perfomance boost für AMD währenddessen eine TITAN X 30% leistung verloren hat... kp ob die das gefixxt haben.
und falls du nicht den kosenamen kennst. es nennt sich cheatforce

naja, wer ne gpu für mehr als 500takken kauft hat eh nen rad ab... nachn jahr ist die schon krüppel langsam. das sieht man ja jetzt mit dx12.
 

Man sollte sowieso die RX480 mit der GTX1060 vergleichen und nicht mit GP104.

Die 40 Watt Unterschied sind wirtschaftlich absolut irrelevant.
Das GDDR5-Argument betreffend Energieeffizienz zieht trotzdem nicht, da beide denselben Speicher benutzen.
Es sieht aber so aus, dass die RX480 besonders unter DX12 und Vulkan viel Effizienz wett macht (Perf/Watt) gegenüber der GTX1060, die wiederum davon faktisch nicht profitieren kann.

Unter DX12/Vulkan hat Vega daher mit HBM2 das Potenzial in Sachen Effizienz mit Pascal GP104 gleichzuziehen oder evtl. sogar zu überholen. Mal schauen, was mit Undervolting dann noch machbar sein wird. Unter DX11, glaub ich, dürfte Vega irgendwo zwischen Maxwell und Pascal-Niveau liegen.

CUDA-Shader haben mehr Transistoren als GCN-Shader, deshalb vor allem kann AMD mehr Shader auf gleicher Fläche unterbringen als NVidia.
Die Shader von GCN und CUDA sind daher nicht miteinander vergleichbar anhand deren Anzahl.
 
die dem normalen 0815 Kunden genau 0 bringt und dann wundert sich noch jemand wieso AMD ausm letzten Loch pfeift...

Klar mit dem miesen Referenzdesign 10% hinter der Konkurrenz ist aus dem letzten Loch pfeiffen, und Innovationen bringen nix....

*hust* AMD64, FreeSync, Mantle bzw. DX12 & Vulkan *hust*

Wer weiß. Es wird in den nächsten 5 Jahren sicherlich dem Consumer nix bringen, aber vielleicht sehen wir dank der Vorarbeit von heute in zehn Jahren Consumergrafikkarten mit terabyteweise Flashspeicher. Besonders für VR- bzw. Open-World-Spiele im Allgemeinen würde das unheimlich viel bringen, könnte man so viel detailiertere Welten auf der GPU parken - Nachladeruckler ade´. Vielleicht aber erweist sich das ganze auch als Irrweg.

Im Compute-Bereich kann ich mir aber gut vorstellen, dass das einschlägt wie ne Bombe. Bei FEM-Simulationen sprengt man ganz locker 16 oder sogar 32 Gbyte, mehr Speicher ist hier Trumpf. Und in dem Bereich investiert man auch viel Zeit und Geld für das letzte bisschen Performance, weshalb ich mir hier keine Sorgen wegen der Kompatibilität machen würde.
 
Also ich denke wenn ich ein Spiel auf die SSD lege und die Daten nicht erst durch den Chipsatz-CPU-RAM-CPU_Chipsatz müssen ist das ein gewaltiger GEschwindigkeistboost. Wäre echt mal interessant ob man nicht gleich auch das Betriebssystem darauf installieren könnte :D
 
Zurück