Nvidia ohne Eile beim Chiplet-Design für GPUs

AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Größere Firmen entwickelen andauernd neue Technologien und Testchips in ihren Laboren. Das ist für Intel und bspw. nVidia nichts Ungewöhnliches. (AMD ist deutlich kleiner und kann hier deshalb zweifelsfrei nicht mithalten, wird aber ebensowenig untätig sein.)

Turing's großer TU102 (RTX 2080 Ti, Titan RTX und Quadro RTX 6000) hat 754 mm2 und 18,6 Mrd. Transistoren in 12 nm. Die große Volta, ebenfalls in 12 nm, besitzt gar 21,1 Mrd. Transistoren auf 815 mm2.
nVidia wird zukünftig bei Samsung fertigen. Einen genauen Vergleich des vorgesehenen 7LPP mit TSMCs 12 nm gibt es nicht, jedoch gibt Samsung folgende Zahlen im Vergleich zum eigenen 10LPE an (der bereits etwas fortgeschrittener als der ältere 12 nm-TSMC-Prozess sein dürfte): 50 % power savings, 20 % bessere Schaltgeschwindigkeit, 40 % Platzersparnis.
Man könnte also (ohne nennenswerte Änderungen am Design) den TU102 mit Samsungs 7LPP auf eine Fläche von 453 mm2 verkleinern und zusätzlich noch deutlich weniger Abwärme einplanen (wobei abzuwarten bleibt, ob ein Wert von 50 % realistisch ist, denn die kleineren Fertigungsstrukturen werden, wie auch bei AMD und Intel zu beobachten, die Taktfreudigkeit etwas hemmen).
Wenn man sich weiterhin im Bereich um die 20 Mrd. Transistoren bewegt, hat nVidia vorerst keinen Grund die Nachteile eines MCM-Designs in Kauf zu nehmen.

@Pu244:
Aktuelle nVidia-Chips werden mit TSMCs 12 nm gefertigt. Der Prozess ist mittlerweile sehr gut eingefahren und der Yield (für diese großen Designs) vergleichsweise hoch, was nVidia auch die "Super"-Updates ermöglichte.
Pascal (GTX 1080 & Co) wurde primär in TSMCs 16FF+ gefertigt und am Ende des Produktzyklus kam noch Samsung's 14LPP hinzu, der jedoch nur geringe Vorteile bzgl. Platzbedarf und Effizienz bot (im Vergleich zum 16FF+).

@seahawk:
Der Gedanke, dass AMD Intel und/oder nVidia "vernichtet", ist absurd. AMD wird sich zweifelsfrei Marktanteile erkämpfen. Wie weit sie am Ende aber damit kommen, hängt zu einem wesentlichen Teil auch davon ab, was Intel und nVidia dem entgegenstellen werden. Bereits nVidia ist gut dreimal größer als AMD.
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Größere Firmen entwickelen andauernd neue Technologien und Testchips in ihren Laboren. Das ist für Intel und bspw. nVidia nichts Ungewöhnliches.
Du bist hier im PCGH-Forum. Hier ist es anerkannter Standard, dass nur AMD entwickelt, alle Anderen - egal ob Intel oder NVIDIA - kopieren das eigentlich nur.

Hättest du eigentlich wissen müssen ;-)

(AMD ist deutlich kleiner und kann hier deshalb zweifelsfrei nicht mithalten, wird aber ebensowenig untätig sein.)
Aber auch nicht lange, vor nicht mal fünfzehn Jahren waren sowohl AMD als auch ATI - die heute zusammen AMD sind - jeweils einzeln deutlich größer als NVIDIA.

Ja, widerspricht dem Punkt oben, ich weiß, aber so Verschwörungstheorien sind nie in sich konsistent ;-)
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Was auch immer dein Arzt dir da verschreibt, du solltest es schleunigst absetzen.
AMD hat nichts unter den Teppich gekehrt, die verkaufen schon lange die ersten Produkte mit Ciplets.

Ach - dann bitte zeig uns doch die GPUs mit Chiplets um die es hier geht - oh warte - da hat die Realität noch ein kleines Wörtchen mitzureden.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

@KillerTime:
Der war nicht schlecht ;-) - aber schlussendlich würde ich nicht jedem hier eine solch engstirnige Haltung/Sichtweise unterstellen wollen.

AMD/ATI ist schon lange her und dann kam eine lange Durststrecke für AMD ... Schulden, zwangsweise Abstoßung der eigenen Fertigungskapazitäten und "Schrumpfkur", GPUs und CPUs, die schrittweise den technologischen Anschluss verloren. Zum Glück haben die Investoren das so lange mitgemacht, sodass man die Zen-Entwicklung in die Tat umsetzen und in den Markt bringen konnte und mit der teilweisen semi custom Ausrichtung konnte man stabile und dringend notwendige Einkünfte sicherstellen (wenn auch nur mit geringer Marge / die 5 Jahre vor 2018 machte man durchgehend Verluste).
Wie schon gesagt, nVidia ist aktuell rd. 3x größer, Intel gar 7x größer als AMD. Da werden schon noch etliche Jahre ins Land ziehen, bis seahawk's Vernichtungs-Szenario überhaupt in Reichweite kommt. Zudem wird Intel's Einstieg in den Markt dedizierter GPUs und Datacenterbeschleuniger möglicherweise mehr AMD als nVidia schmerzen, auch wenn aus Sicht von Intel ganz klar nVidia der Hauptkonkurrent ist. Hier wird man abwarten müssen wie viel Ressourcen man für dieses Projekt aufwenden wird, d. h. wie ernst es Intel hier tatsächlich ist. Bezüglich des Datacenter-Marktes kann man jedoch zweifelsfrei von einer hohen Relevanz und Priorität ausgehen.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Ergo muss man eine Lösung finden, die mehrere Chiplets am gleichen Frame arbeiten lässt und dafür gibt es derzeit keinen ausreichend schnellen Bus für die Kommunikation der Chiplets.
Bus-Systeme verwendet man da auch nicht;)

Per IF würde das schon vom Datendurchsatz her gehen, da braucht man aber einen SI-Interposer!

So wie AMD - die es zuerst schön angepriesen haben und dann wurde es klangheimlich unter den Teppich gekehrt.
Warum lügst du?
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Man kriegt es halt nicht hin und wird wie Intel von AMD vernichtet. :daumen:

Dieser Kommentar ist sowas von Sinn befreit, das geht auf keine Kuhhaut. Für intel gab es bis vor 2 Jahren einfach keinen Grund innovativ zu sein - schließlich stellte AMD bis zum Release von Zen keine nennenswerte Konkurrenz dar - und ein halbherziges Update der vorhandenen Architektur war gut genug um den Kunden das Geld aus der Tasche zu ziehen. Die Probleme bei der Einführung des 10nm-Fertigungsprozesses taten das Übrige dazu. Man darf jedoch davon ausgehen, dass ein Unternehmen, das hinsichtlich Ausgaben für Forschung und Entwicklung sämtliche Konkurrenten (zusammen genommen) in den Schatten stellt, eine Antwort parat haben dürfte, BEVOR es tatsächlich "vernichtet" wurde.

Lange Rede kurzer Sinn: Konkurrenz ist gut für den Kunden. Es hätte niemand etwas davon, wenn intel vom Markt verschwinden und AMD dann deren Position einnehmen und sich auf ihren Lorbeeren ausruhen würde. Selbiges gilt für den Grafikkartenmarkt. RDNA ist ein Schritt in die richtige Richtung, allerdings ist AMD immer noch ein gutes Stück davon entfernt nVIDIA wirklich in die Suppe spucken zu können.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Dieser Kommentar ist sowas von Sinn befreit, das geht auf keine Kuhhaut. Für intel gab es bis vor 2 Jahren einfach keinen Grund innovativ zu sein - schließlich stellte AMD bis zum Release von Zen keine nennenswerte Konkurrenz dar - und ein halbherziges Update der vorhandenen Architektur war gut genug um den Kunden das Geld aus der Tasche zu ziehen. Die Probleme bei der Einführung des 10nm-Fertigungsprozesses taten das Übrige dazu.

wird wohl hauptsächlich daran liegen, dass die sich bei 10nm Prozess vollkommen verkalkuliert haben

ansonsten sähe es heut im CPU Makrt auch anders aus
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Solange AMD im GPU-Bereich nicht mithalten kann, wird Nvidia auch nicht die Handbremse lösen (siehe Intel bei den CPU´s). Wird wohl noch einige Jahre dauern bis AMD hier mithalten kann (kommt mir jetzt nicht mit ner 5700XT....die hat 2Jahre!!! später die Leistung meiner 1080Ti).....Leider!
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Ach - dann bitte zeig uns doch die GPUs mit Chiplets um die es hier geht - oh warte - da hat die Realität noch ein kleines Wörtchen mitzureden.

Casurina,

Du weißt doch das AMD bereits mit chiplets im Markt ist.
Was soll das Gerede von Dir?
Nebenbei hat AMD auch kommuniziert, dass es bei GPUs noch länger dauert, weil es schwieriger umzusetzen ist und bevor Du jetzt Belege verlangst, Belege Du erst mal das es anders war.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Warum sollte sich nVidia überhaupt in irgendeiner Weise den Hintern aufreißen. Momentan brauchen sie ja noch nicht mal einen neuen, feineren Prozess um AMD davonzueilen. Das sieht man am besten bei den Preisen, die nVidia verlangen kann. AMD kommt jetzt mit RDNA und 7nm wieder ran an nVidia, aber die können ja ebenfalls noch auf 7nm wechseln, was dann wieder einen größeren Leistungsschub mit sich bringen wird. Ich glaube sowieso nicht, dass nVidia als erster Hersteller mit GPUs im Chiplet-Design auf den Markt kommen wird. Ich denke das wird AMD sein, da sie im CPU-Bereich ja sehr erfolgreich damit sind und schon einiges an Erfahrung gesammelt haben. Ihnen traue ich auch am ehesten zu, eine brauchbare GPU dieser Art auf den Markt zu bringen.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Solange AMD im GPU-Bereich nicht mithalten kann, wird Nvidia auch nicht die Handbremse lösen
Welche Handbremse? Im Enterprise Markt gibt es auch nicht mehr Leistung zu kaufen, Volta ist fast zwei Jahre alt und ein Nachfolger noch nicht in Sicht. Der Markt stagniert allgemein momentan, die Physik und steigende Kosten werden zu einem immer größeren Hindernis.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Ja kein Wunder daß die keine Eile haben. Die Marktabsprache mit den Konsolen funktioniert.
Alle korrupt
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Schade eigentlich, dass die Entwicklung aus finanziellen Gründen in Richtung Chiplet gezwungen wird...

Das hat was mit dem Yield in Abhängigkeit von der Die-Größe zu tun. Nehmen wir mal an, du sammelst bei deiner Fertigung 100 Killerdefekte pro Wafer. Wenn du kleine Chips hast, wo sagen wir mal 500 auf einen Wafer passen, sind im schlimmsten Fall 100 Chips Schrott. Aber du hast noch 400 gute... also 80% Yield. Jetzt hat du so Monsterchips, wo vielleicht 50-100 auf einen 300mm-Wafer gehen und bei gleicher Defektdichte sind in schlimmsten fall alle Chips teildefekt oder komplett Schrott... also 0% Yield. Null Ausbeute bei einem extrem teuren Prozeß ist gleich null Verkaufswert. Umso teurer werden dann die funktionierenden Dies verkauft. So ein Wafer läuft durch die Linie über mehrere Monate, bis er fertig ist und hat zig tausende Arbeitschritte hinter sich, wenn er dann fertig ist. Ich hoffe du siehst jetzt das Problem, was auftritt, je größer die Dies werden.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Welche Handbremse? Im Enterprise Markt gibt es auch nicht mehr Leistung zu kaufen, Volta ist fast zwei Jahre alt und ein Nachfolger noch nicht in Sicht. Der Markt stagniert allgemein momentan, die Physik und steigende Kosten werden zu einem immer größeren Hindernis.

willst du also erzählen, dass wenn beide Hersteller auf Augenhöhe wäre, würde die Entwicklung genauso "langsam" verlaufen? ibts Druck vom Konkurrenten, wird die Entwicklung davon Profitieren. War schon immer so!
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

großer TU102 (RTX 2080 Ti, Titan RTX und Quadro RTX 6000) hat 754 mm2 und 18,6 Mrd. Transistoren in 12 nm. Die große Volta, ebenfalls in 12 nm, besitzt gar 21,1 Mrd. Transistoren auf 815 mm2.
nVidia wird zukünftig bei Samsung fertigen. Einen genauen Vergleich des vorgesehenen 7LPP mit TSMCs 12 nm gibt es nicht, jedoch gibt Samsung folgende Zahlen im Vergleich zum eigenen 10LPE an (der bereits etwas fortgeschrittener als der ältere 12 nm-TSMC-Prozess sein dürfte): 50 % power savings, 20 % bessere Schaltgeschwindigkeit, 40 % Platzersparnis.
Man könnte also (ohne nennenswerte Änderungen am Design) den TU102 mit Samsungs 7LPP auf eine Fläche von 453 mm2 verkleinern und zusätzlich noch deutlich weniger Abwärme einplanen (wobei abzuwarten bleibt, ob ein Wert von 50 % realistisch ist, denn die kleineren Fertigungsstrukturen werden, wie auch bei AMD und Intel zu beobachten, die Taktfreudigkeit etwas hemmen).
Wenn man sich weiterhin im Bereich um die 20 Mrd. Transistoren bewegt, hat nVidia vorerst keinen Grund die Nachteile eines MCM-Designs in Kauf zu nehmen.

50 % power savings, 20 % bessere Schaltgeschwindigkeit, 40 % Platzersparnis. Das wir aber kaum alles zusammen gleichzeitig möglich sein oder doch?

Wenn ich da als Vergleich den kommenden TSMC, 7nm+ (EUV) Prozess heranziehe der hat 20% Tranistor Density + 10% performance uplift or 15% power efficiency increase relativ zum TSMC 7nm (also entweder oder aber nicht beides zugleich)

Aber man sieht AMD hat auch noch nicht ihr gesamtes Pulver verschossen es wird sicher nächstes Jahr spannender als so manche glauben werden an der Spitze des Feldes.

Ach ja, ein Doppelter NAVI 10 mit 5120 ALUs der voraussichtlich deutlich leistungsstärker als ein TU102 (4352ALUs) ausfallen würde, kämme auf eine Fläche von 402mm2 (251*2*0.8) und selbst wenn NVIDIA die kompletten 20% Performance die ihnen der Prozess bietet mitnehmen würde, würde sich nur ein Kopf an Kopf rennen abzeichnen.

Vernichten ist sicher etwas übertrieben aber gleichziehen oder knapp dahinter sein reicht vorerst völlig.
Terminiert werden sie dann mit dem kommenden Chiplet-Design:devil:
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Nvidia forscht seit vielen Jahren in vielen Bereichen! Sie sind Technologisch und Wirtschaftlich sehr gut aufgestellt, auch breit gefächert, alles völlig klar!
Und dennoch bin ich der Meinung Nvidia sollte sich dringend vorsehen! Diese Arbeitsweise geht nämlich nur so lange gut wie man auch dem ersten Verfolger nicht im Rücken hat. AMD ist durch einige Gesichtspunkte zwar kein starker Konkurent, Aber definitv kein Schatten am Horizont mehr.
MIR is zwar sh**egal was auf meiner Grafikkarte steht aber ich schaue mir sehr gern an das AMD absolut näher kommt.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Casurina,

Du weißt doch das AMD bereits mit chiplets im Markt ist.
Was soll das Gerede von Dir?
Nebenbei hat AMD auch kommuniziert, dass es bei GPUs noch länger dauert, weil es schwieriger umzusetzen ist und bevor Du jetzt Belege verlangst, Belege Du erst mal das es anders war.

Hey Lameman - dann zeig uns doch wo AMD GPU-Chiplets anbietet.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Man kriegt es halt nicht hin und wird wie Intel von AMD vernichtet. :daumen:

na ist da gerade wer am Boosten wie der Ryzen Boostkönig im Leerlauf, oder ist diese Großmäuligkeit ne genetische angeborene AMD Eigenart?

nach Schaufelradbagger King ,nach" Overclocking furyoso King" u primitiven Sternschnuppen Vega Shader King, und nun Boost King ,würde ich ja nicht so auf den Schlamm hauen

wer hier quasi fast jeden Launch selbstverschuldet versemmelt ,ist ja nun kein Geheimnis mehr
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

willst du also erzählen, dass wenn beide Hersteller auf Augenhöhe wäre, würde die Entwicklung genauso "langsam" verlaufen? ibts Druck vom Konkurrenten, wird die Entwicklung davon Profitieren. War schon immer so!
Auch AMD kocht nur mit Wasser. Warum wohl versucht AMD die DIEs bei 7nm so klein wie möglich zu halten? Na?
 
Zurück