Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Na da haben wir ja Glück. Die kommende "10nm"-Fertigung von Intel liegt bei realen 40-50 nm. Da ist also noch Luft. :D

EUV wird gehandelt so bis 20-25nm was möglich sein soll (also in echt) - das nennt sich dann vermutlich "3nm-Prozess" oder so^^

Die Entwicklung wird immer so weiter gehen. Technisch können Halbleiter ja mit 4-10 Atomlagen hergestellt werden. Dann wird aber das Problem eher die Spannung am Gate des Transistors weil die Elektrische Feldstärke so groß wird dass die Isolatorschicht durchleitet.
Es ist alles eher nur eine Frage des Preises wird ja von den Chipherstellern immer wieder betont, dass technisch vieles machbar ist, nur nicht wirtschaftlich.
 
Zuletzt bearbeitet:
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Das würde ich so nicht unterschreiben ;-)

irgend ein Feature wird schon gefunden werden um den Preis hoch zu halten. Siehe Intel mit dem Raid DLS Feature :-)

Nichts desto trotz hoffe ich es natürlich ebenfalls.
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Quadcore Grafikkarten im Quad SLI mit 4x16 Lanes auf Threadripper. Wo kann ich vorbestellen? :what:

Da geht mal was nach vorne in Sachen GPU Power. :D
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Ohne behaupten zu wollen, dass ein "mehr Kerne GPU" einfach zu entwickeln ist - gerade die Schnittstellen der einzelnen "Kerne" dürften schwierig sein - halte ich diesen Weg für den vielleicht nicht effizientesten Weg im Bezug auf einzelne GPUs wohl aber insgesamt für den besseren Weg für die Produzenten (und damit hoffentlich auch für den Konsumenten).
Wenn sie mit jeder Architektur Gen nur noch die einzelnen Kerne weiter entwickeln und diese dann je nach Klasse zusammen klöppeln, sind ausfallraten, teuer bezahltes und deaktiviertes Silizium ein deutlich kleineres Problem und Chips könnten quasi beliebig groß werden.
Ein weiterer Vorteil ist, wenn man einen "Kern" kühl halten kann, kann man wohl auch deren 4 "Kerne" mit 4facher Fläche kühl halten. Der Aufwand steigt etwas aber doch sehr moderat - Takt Gleichstand vorausgesetzt. Vielleicht ist es sogar schlau (eine wirkungsvolle Schnittstelle vorausgesetzt) die einzelnen "Kerne" mindestens so klein zu halten, dass einer davon für die kleinst mögliche Aufgabe reicht - günstige Handys z.B. und das je nach bedarf Hochskaliert...

Als ich hörte, dass AMD APU - GPU Parts auch über die Fabric kommunizieren, hab ich gleich die Idee gehabt, dass man ja auch mehrer GPU Parts/Kerne so kommunizieren lassen könnte...

Intel macht es mit seinem neuen Mesh, AMD mit der Fabric, was für mich bedeutet, Skalierbarkeit ist erstrebenswert. Ob dies bei GPUs eben auch klappt oder eben schon sinnvoll wäre, keine Ahnung. Immerhin sind GPUs die parallel Meister und lachen über 64 Kerne von CPUs. Andererseits gibt es aufgrund dessen auch einen gänzlich anderen Bedarf am querquatschen, was die Schnittstelle, also deren Performance (welche bei beiden CPUs von AMD/Intel ein wenig, einem Nadelöhr gleich kommt) umso wichtiger machen dürfte.

Naja, ich bin nun wahrlich kein Architektur Experte, weder bei GPUs noch bei CPUs, aber für mich ists einfach ein logischer Schritt, welchen ich begrüße...


PS: Ich weiß, die einzelnen GPU Einheiten werden nicht Kerne genannt - mir viel nichts verständliches ein - klärt mich auf!


@ violinista7000 eine unglaubliche Grafik....g
 
Zuletzt bearbeitet:
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Ein Chip von GloFo mit 10 nm kann genau so groß sein wie ein Intel Chip in 10 nm - bei gleicher Transistoranzahl.

Absolut. Die Betonung liegt aber auf "ein Chip". Nicht "der gleiche Chip".
Wenn du eine KabyLake-CPU bei GloFo fertigen würdest wäre diese größer als bei Intel.

Transistorzahl und STrukturgröße sagt nichts über die DIE-Größe aus, da letztere sehr stark vom Chip und dessen Architektur abhängig ist. Manche Chips (wie beispielsweise SandyBridge) hatten sogar ganz bewusst "leere" Flächen im Chip mit sehr niedriger Transistorzahl, sprich man hätte den Chip kleiner bauen können, da haben nur andere Gründe (beispielsweise Hotspots) dagegen gesprochen.

AMD hat ja auch fast traditionell eine höhere Transistordichte als NVidia. Kommt halt drauf an wo die Ingenieure die Schwerpunkte setzen bzw. den optimalen Kompromiss sehen.
Du kannst auch eine GTX1080Ti auf einer 20 oder 30% kleineren Chipfläche "bauen". Technisch geht das - nur ist der Chip nicht brauchbar weil beispielsweise im Betrieb Stellen entstehen wo er durchbrennt (wenn da wo Transistoren besonders viel schalten müssen auch noch dummerweise sehr viele davon eng beieinander sind - nur als Beispiel).
Die verteilung und Optimierung Milliarden von Transistoren auf einem Die ist wesentlich komplexer als die meisten es sich vorstellen.
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Ich hab mich schon gefragt wann es soweit ist, eben weil der Chef von nVidia ja schon zu Volta sagte man wäre an der Grenze des technisch machbaren angelangt.
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Das ist ein nativer Chip.



Hat AMD nicht trotz der Fertigung bei GF eine etwas höhere Packdichte?

Dichter heißt ja nicht zwingen kleiner, detaillierter sondern voller... Bzw. die höchste Packdichte bedeutet wohl, dass der Designer/Ingenieur einverstanden war, mit dem möglichen hitze Potenzial - auch hier korrigieren, wenn falsch...
Zumindest würde es erklären, dass AMD den im Vergleich geringsten Takt fährt und damit höchste Packdichte aufweisen kann. Effizienz ist halt ne 6 Spaltige Zunge...
 
Zuletzt bearbeitet:
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Das ist ein nativer Chip.

Klar! Aber die Clusters arbeiten bei Bedarf gleichzeitig, was eine höhere Leistung von bis zu 40% verspricht, und gleichzeitig spart man Strom, wenn die volle Leistung nicht gebraucht wird.

Im Gründe steck da, das gleiche Prinzip wie bei Module oder Kerne. ;)
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Nein, das ist eine ganz normale GPU, AMD/NVIDIA haben dafür halt jeweils wieder andere Bezeichnungen.
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Eigentlich schon wenn es der selbe Chip ist.

Nö, nur mehr Fläche genutzt. Man könnte jeden Chip (von Die Grenzen mal abgesehen), quadratmeter groß machen, indem man nich alle Fläche nutzt. Sicher wäre das dumm - so eng zu packen wie es geht ist aber auch nicht immer möglich - Packdichten sind so gewählt wie sie aus verschiedensten Gründen (vor allem Hitze) sinnvoll sind - nicht so klein wie theoretisch möglich.

Eine Halle kostet Miete, trotzdem ists net immer Schlau, sie mit Produktions Maschinen so voll zu stellen wie es geht - manche müssen "Atmen" sind zu heiß für dichte Nachbarschaft und dass schlauste ist es, ihnen diesen zu lassen... Dieseselben Maschinen, 30% langsamer brauchen diesen Platz aber nicht mehr weil sie weniger Hitze produzieren - da machts vollstellen Sinn...
 
Zuletzt bearbeitet:
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Wie sieht es eigentlich mit Quantencomputern aus?
Theoretisch könnte man doch die GPUs mit dem Prinzip der Quantenverschränkung kommunizieren lassen, oder?
Wenn die mit der Forschung in dem Bereich mal ein bisschen weiter kommen, könnte das ganze richtig interessant werden.
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Wie sieht es eigentlich mit Quantencomputern aus?
Theoretisch könnte man doch die GPUs mit dem Prinzip der Quantenverschränkung kommunizieren lassen, oder?
Wenn die mit der Forschung in dem Bereich mal ein bisschen weiter kommen, könnte das ganze richtig interessant werden.

Quantenverschränkung wird nicht zur Kommunikation benutzt (da viel viel ineffizienter/langsamer als normale Verbindungen). Man nutzt den Effekt, dass ein Quantenzustand 0 und 1 gleichzeitig sein kann, was bei passenden Problemstellungen bzw. Algorithmen extrem vorteilhaft sein kann. Beispielsweise das Auffinden des richtigen Weges aus einem großen irrgarten wäre extrem schnell da der PC nicht alle Möglichen Wege nacheinander prüfen muss sondern alle gleichzeitig prüfen könnte. Zur Kommunikation ist das aber unbrauchbar. Eine Kommunikation wäre zwar extrem schnell (streng genommen unendlich schnell...), anber die Bandbreite extrem gering, wir reden hier von einzelnen Bits, nicht von Gigabytes!
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Das dauert aber noch einige Jahrzehnte, bis sowas marktreif ist. Zumal man die Quantencomputer heutzutage nicht für "gewöhnliche" Aufgaben nutzen kann.

Im Übrigen ist das Nvidia-Konzept, genau wie AMDs Infinity Fabric, ganz sicher keine Lösung für das Skalierungsproblem. Langfristig müssen sich die Hersteller einfach was anderes einfallen lassen und werden sie sicher auch tun. Das hier wäre nur ne Übergangslösung. Entweder geht man weg vom Silizium oder die Chips werden dreidimensional, oder... Möglichkeiten gibt es wohl einige, ist halt alles nur nicht marktreif.
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Wie sieht es eigentlich mit Quantencomputern aus?

Die komplexeste mathematische Berechnung, die (bis vor kurzem, ändert sich laufend) auf einem Quantencomputer berechnet wurde, ist 5x3=15. Damit ist der Quantencomputer besser als meine Finger, wenn ich die Zehen hinzuziehe, dann schlage ich ihn. Das Beeindruckende war, das nur 5 Atome für die Berechnung notwendig waren.

Theoretisch könnte man doch die GPUs mit dem Prinzip der Quantenverschränkung kommunizieren lassen, oder?

Kommt darauf an welcher Theorie man glauben schenken will. Nach dem bisherigen Verständnis von Physik, muß man (auf konventionellem Weg) immer eine Bestätigung hinterherschicken, um zu klären ob überhaupt eine Nachricht versendet wurde. Abgesehen davon ist jedes verschränkte Quantenpaar danach verbraucht, was die Einsatzmöglichkeiten etwas einschränkt (für Atomuboote durchaus brauchbar, da sich eine Botschaft auch in wenige Bit verpacken läßt (zur Not nur eines).

Alles in allem eine nette Sache in SciFi Filmen und Serien, wo man es mit der Physik nicht ganz so genau nehmen muß oder einfach eine neue Physik definieren kann.

Wenn die mit der Forschung in dem Bereich mal ein bisschen weiter kommen, könnte das ganze richtig interessant werden.

Die Frage ist eher ob wir es noch zu unseren Lebzeiten sehen können. Im Moment steht man noch recht weit am Anfang, vergleichbar mit der Entwicklung der ersten Transistoren und heutigen Computern, da sind auch 7 Jahrzehnte ins Land gegangen.
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Mit Quantenverschränkung kann keine Information übertragen werden. Man kann nur 2 gleiche Informationen an 2 verschiedenen Orten erzeugen. Quantencomputing ist nochmal was ganz anderes.
 
AW: Nvidia forscht an Multi-Chip-Modulen für Grafikkarten

Wenn 4x64 = 256 SMs gerade mal 46% schneller sind, als 128 SMs sieht es mit der Skalierung aber auch noch sehr schlecht aus.
 
Zurück