Nvidia ohne Eile beim Chiplet-Design für GPUs

AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

AMD bietet eine gewisse Leistung für um 450 Euro an und Nvidia etwas mehr Leistung und Zusatzfunktionen für um 530Euro. Also das man irgendetwas bei Nvidia aktuell an den Preisen schlechter redet, als bei AMD ist für mich nicht nachvollziehbar!
Beides nicht berauschend, aber seit den Super Karten nur noch halb so wild.

Wenn AMD mal wieder in der Lage ist, Top Leistung zu bieten, ohne dabei die eigenen Produktionskosten explodieren zu lassen können wir vielleicht wieder etwas bessere Preise erleben. Aber nicht so, wie es vor fünf, sechs Jahren mal war, da kommen wir aufgrund des schwachen Euros und der Inflation nicht wieder hin.



Wenn RDNA 2.0 vor der Tür steht, steht auch schon der Turing Nachfolger vor der Tür und damit dürfte die gleiche Runde eigentlich nur von vorne beginnen.
Man muss auch immer den Aufwand sehen. AMD mit angegebenen 7nm mit schlechterer Effizienz, als Nvidia mit 12nm. Da hat sich betimmt einer bei Nvidia tränen gelacht. Das ist eigentlich traurig.

Ich denke, es ist beides möglich. Wir erleben einfach eine Widerholung dessen, was wir schon aus den letzten Jahren kennen. Nvidia muss sich keine Mühe geben.
Genau so wie es möglich ist, das AMD mit RDNA2.0 einen Effizienzsprung hinlegt wie Nvidia vor ein paar Jahren und plötzlich wäre AMD effizienter und hat damit mehr Spielraum für große Chips und hohen Takt.

Zum Technologievorsprung. Auch RT bei Nvidia ist ganz klar ein Technologievorsprung!

Ich wollte ausgedrückt haben, dass der Vorsprung von nVidia rapide schmilzt, so wie er bei Intel auch dahingeflossen ist.
Intel hat jahrelang auch nur müde gelächelt, zack ist der Igel plötzlich vor dem Hasen im Ziel.
Klar kann NVidia mit dem neuen Fertigungsprozess einen drauflegen, aber AMD hat einen weiteren Technologiewandel mit Effizienzsteigerung und etwas feinerer Fertigungsstruktur im Gepäck, von NVidia ist noch nichts dergleichen bekannt (oder ich habs übersehen).
Und wenn AMD die BIG-Chip-Variante auspackt, wird es vermutlich von NVidia nicht mehr ein müdes Lächeln geben, falsl man sich dann plötzlich auf Augenhöhe begegnet.
Denn dann muss man sich mal wieder mit ernsthaft Gedanken über bessere Technologe machen, die man dem Kunden auch für günstigeres Geld verkaufen kann und muss.
NVidia in der Führungsrolle gibt derzeit den Leistungstakt und vor allem den Preis vor.
AMD hat(te) Probleme Schritt zu halten udn konnte nur über Preis kontern, also einfach 10% günstiger verkaufen, fertig.
Warum sollte AMD auch viel billiger verkaufen, das macht niemand, das wäre Selbstmord, da man auf die geringen Forschungsgelder angewiesen ist, während NVidia und auch Intel die erhöhten Gewinne durch eine überzogene Preisgestaltung einfach auf die Bankkonten der Bosse legen können.
Wenn 25% Reingewinn nach Abzug aller Unkosten so aufs Konto purzeln, ist viel Luft für eine ordentliche Preisgestaltung auf Seiten des Marktführers.
AMd hampelt wegen weniger Stückzahlen udn trotzdem vorhandener Forschungskosten am Rande des Abgrunds.
Da von zu hohen Kosten für eine Karte zu sprechen, halte ich dann für abwegig, weil die das Geld benötigen udn einfach nicht mehr billiger können.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Na in 8 bis 12 Monaten so etwa. Sagen zumindest die aktuellen Vermutungen. Und die sind auch nicht weniger Gehaltvoll, als aktuelle Ankündigen von NV... da ist mir zumindest noch so gar nix bekannt.
Der Unterschied ist, dass der letzte NVIDIA-Launch einer neuen Architektur nun fast genau 12 Monate her ist.

Der letzte AMD-Launch dagegen 3 Monate.

Wer da nun tendenziell früher mit was Neuem kommt, kann sich jeder selbst denken ;-)

Nach dem, was NV dazu von sich gibt, klingt das wirklich nicht danach. Überraschen würde es mich zwar dennoch nicht, aber ich sehe es im Moment eher Richtung 50/50
Was gibt NVIDIA denn von sich?

Und was wäre danach neu, dass sie AMD an der Nase herum führen?

Sowohl bei Pascal, als auch bei Turing kamen die Neuerscheinungen von NVIDIA immer sehr plötzlich und ohne große Ankündigungen.

Na, gar nicht. Hat ja auch keiner von geredet :schief: Sie haben mit CPU-Chiplets gearbeitet.
Eben und das ist für GPUs komplett irrelevant.

Naja, das bezog sich wohl eher auf die Richtung der technologischen Entwicklung, die halt auf Kunden mit anderen Leistungsanforderungen als Gamer abziehlt, wodurch eben der Leistungsgewinn in Games nur marginal und quasi "nebenbei" produziert wird, für seeehr viel teure Forschung in eine andere Richtung.
What? :lol:

Völliger Unfug. Aber du darfst gern mal ausführen, wie du auf das komplett falsche Brett kommst. NVIDIA hat 2,4 Milliarden R&D Ausgaben. Du sagst Games wären nur "nebenbei" wichtig. Wie viel der R&D Ausgaben geht denn Richtung Gaming? Du weißt es ja offensichtlich.

Ich wage zwar auch zu bezweifeln, dass AMD jetzt tatsächlich die als "Nvidia-Killer" (von AMD selbst so genannt) bezeichnete Karte wirklich aus dem Hut zaubern wird - aber hey, falls doch: passiert endlich mal wieder was :) Haben wir doch alle was von.
Ändert nichts daran, dass das bei AMD übliche Vorher-Gehype einfach peinlich ist, wenn der Launch wieder mal komplett versemmelt wird.

Kennen wir jetzt seit Fiji. Jedes Mal sollte der NVIDIA-Killer kommen und jedes mal war der Dead on Arrival. Egal ob er Fiji, Polaris, Vega oder Navi hieß.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Der Unterschied ist, dass der letzte NVIDIA-Launch einer neuen Architektur nun fast genau 12 Monate her ist.

Der letzte AMD-Launch dagegen 3 Monate.

Wer da nun tendenziell früher mit was Neuem kommt, kann sich jeder selbst denken ;-)


Was gibt NVIDIA denn von sich?

Und was wäre danach neu, dass sie AMD an der Nase herum führen?

Sowohl bei Pascal, als auch bei Turing kamen die Neuerscheinungen von NVIDIA immer sehr plötzlich und ohne große Ankündigungen.


Eben und das ist für GPUs komplett irrelevant.


What? :lol:

Völliger Unfug. Aber du darfst gern mal ausführen, wie du auf das komplett falsche Brett kommst. NVIDIA hat 2,4 Milliarden R&D Ausgaben. Du sagst Games wären nur "nebenbei" wichtig. Wie viel der R&D Ausgaben geht denn Richtung Gaming? Du weißt es ja offensichtlich.


Ändert nichts daran, dass das bei AMD übliche Vorher-Gehype einfach peinlich ist, wenn der Launch wieder mal komplett versemmelt wird.

Kennen wir jetzt seit Fiji. Jedes Mal sollte der NVIDIA-Killer kommen und jedes mal war der Dead on Arrival. Egal ob er Fiji, Polaris, Vega oder Navi hieß.

Sorry, ich wollte ernsthaft drüber reden, kein Fanboy-Gebrabbel.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Weil das allgemein bekannt ist und so auch von GF angegeben wird!

Warum bei AMD die 12nm REfreshes nicht kleiner wurden, ist auch allgemein bekannt, darüber wurde auf diversen Seiten, auch auf dieser, berichtet!
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

MultiGPU ist eine Sackgasse und wurde deshalb sowohl von AMD als auch Nvidia aufgegeben, da es praktisch nur
mittels AFR eine 100%ige Kompatibilität aufweist. AFR selbst hat aber eigene Probleme, nämlich die unsauberen Frametimes. Und wenn man die glättet,
geht die Performance Skalierung und die Ein- und Ausgabegabelatenz den Bach runter.

Ergo muss man eine Lösung finden, die mehrere Chiplets am gleichen Frame arbeiten lässt und dafür gibt es derzeit keinen ausreichend schnellen Bus
für die Kommunikation der Chiplets. Wenn man sowas designed, ist der Architekturaufwand auf dem PCB so groß und teuer, dass man lieber gleich
einen größeren Chip baut.

Chiplets im GPU Segement wird es erst dann geben, wenn in punkto Strukturgröße garnichts mehr geht und Chiplets die einzige Möglichkeit sind noch Performance zu generieren. Sagt Jensen (edit: nein sagt er nicht, denn das Interview hat ein anderer Nvidia Mitarbeiter gegeben) ja im Prinzip genau so.

Als ich den Thread las dachte ich eher an:
"normaler" Chip + RT-RECHENEINHEITEN + TENSOR-RECHENEINHEITEN (oder andere Dinge) und nicht eher in Richtung SLI
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Genau, schön warten. Die Hoffnung ist noch da, das irgendwann zugzwang kommt bzw. panik aufkommt wenn AMD oder Intel plötzlich was gutes in der pipline haben.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Bei den Chiplets wird es im GPU Sektor wohl so laufen müssen, dass nicht viele einzelne vollwertige Kerne verbaut werden, sondern Teilbereiche dementsprechend mehrfach als eigen Chipeinheiten unter dem Kühlblock angesiedelt werden.

Man muss halt zusehen, dass die Übertragungen da stattfinden, wo dabei wenig Daten anfallen. Ob und inwiefern das möglich ist oder möglich gemacht werden kann, wird sich zeigen müssen. Ansonsten vielleicht ein Modell, bei dem sich alles um eine I/O-Einheit anordnet, die die Kommunikation der einzelnen Funktionschips mit dem Speicher und der PCIe-Schnittstelle mit dem Speicher verwaltet und über den dann die Kommunikation läuft. Diese I/O-Einheit könnte dann auch an HBM angebunden sein, während die anderen Module je nach Bedarf über normale Busse angebunden sind. Oder man packt einfach alles auf einen riesigen Interposer. Ich glaube, die bekommt man relativ groß hin. Wird noch spannend.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Ich wollte ausgedrückt haben, dass der Vorsprung von nVidia rapide schmilzt, so wie er bei Intel auch dahingeflossen ist.
Intel hat jahrelang auch nur müde gelächelt, zack ist der Igel plötzlich vor dem Hasen im Ziel.
Klar kann NVidia mit dem neuen Fertigungsprozess einen drauflegen, aber AMD hat einen weiteren Technologiewandel mit Effizienzsteigerung und etwas feinerer Fertigungsstruktur im Gepäck, von NVidia ist noch nichts dergleichen bekannt (oder ich habs übersehen).
Und wenn AMD die BIG-Chip-Variante auspackt, wird es vermutlich von NVidia nicht mehr ein müdes Lächeln geben, falsl man sich dann plötzlich auf Augenhöhe begegnet.
Denn dann muss man sich mal wieder mit ernsthaft Gedanken über bessere Technologe machen, die man dem Kunden auch für günstigeres Geld verkaufen kann und muss.
NVidia in der Führungsrolle gibt derzeit den Leistungstakt und vor allem den Preis vor.
AMD hat(te) Probleme Schritt zu halten udn konnte nur über Preis kontern, also einfach 10% günstiger verkaufen, fertig.
Warum sollte AMD auch viel billiger verkaufen, das macht niemand, das wäre Selbstmord, da man auf die geringen Forschungsgelder angewiesen ist, während NVidia und auch Intel die erhöhten Gewinne durch eine überzogene Preisgestaltung einfach auf die Bankkonten der Bosse legen können.
Wenn 25% Reingewinn nach Abzug aller Unkosten so aufs Konto purzeln, ist viel Luft für eine ordentliche Preisgestaltung auf Seiten des Marktführers.
AMd hampelt wegen weniger Stückzahlen udn trotzdem vorhandener Forschungskosten am Rande des Abgrunds.
Da von zu hohen Kosten für eine Karte zu sprechen, halte ich dann für abwegig, weil die das Geld benötigen udn einfach nicht mehr billiger können.

AMD hat schon seit Jahren kein wirklich besseres P/L Verhältnis. Zumindest ab unterer Oberklasse. Die 980TI war schneller, effizienter und auch noch mit dem besseren P/L gesegnet.
Wie kann man da gegen Nvidias Preisgestaltung wettern.
Dann kam die GTX1070 die um Welten effizienter war und das für 500 Euro. Statt bisher für 750 Euro (GTX980TI).

Heute bekommt man mit der 2070S wieder GTX1080TI Leistung ( pi mal Daumen) für gute 530 Euro.
Hier dreht sich das Rad wenigstens weiter.
Einzig die RTX2080TI ist absurd! Und leider der fehlenden Konkurrenz zu verdanken.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

@GOA88:
Irgendwie muss man ja messen. Abgesehen davon, nVidia's R&D Expenses sowie deren R&D-Mitarbeiterzahlen übersteigen AMDs (aktuelle) Ressourcen bereits deutlich und hier geht es ausschließlich um GPUs/Rechenbeschleuniger (und ein klein wenig Tegra), während AMD hier zu einem wesentlichen Teil auch das CPU-Design mit abdecken muss, d. h. AMDs auf das GPU-Design abgestellte Ressourcen sind weitaus kleiner, als die kumulierten Zahlen ihrer Bilanzen ausweisen.

@KillerTime/@KaneTM:
nVidia unterscheidet die Marktsegmente Gaming (Geforce), Professional Visualization (Quadro), Datacenter (Tesla) und Automotive (Tegra & AV platforms).
Mit GPUs hat man 87 % Revenue gemacht, den Rest hauptsächlich mit Tegra.
Die Segmente Gaming und Professional Visualization (beides aktuell Turing) haben 63 % Anteil am Revenue, wobei Gaming alleine bereits 53 % ausmachten im Jahr 2018. (R&D wird nur insgesamt ausgegeben, was aber auch allgemein üblich ist, denn ansonsten würde man zu tiefe Einsichten in die Geschäftsstrategie geben.)
Wen es interessiert, der 2019er-Report berichtet über das abgelaufene Jahr 2018:
https://s22.q4cdn.com/364334381/files/doc_financials/annual/2019/NVIDIA-2019-Annual-Report.pdf

@Pu244/@Tech_Blogger:
TSMCs 12FFC (FinFET Compact Technology) ist eine Weiterentwicklung von deren 16 nm-Prozess, die seit 2Q17 zur Verfügung steht. Bereits der 16er hatte eine Evolution hinter sich (16FF Risk-Prod in 2013, 16FF+ 2015 und 16FFC 2016). Die Aussagen schwanken etwas, man gibt jedoch für 12FFC im Vergleich zum 16FFC an: 10 - 15 % weniger Fläche und bis zu 10 % mehr Performance ODER bis zu 25 % Power Reduction.
Da die extrem teueren HighEnd-Prozesse nur für Spitzenprodukte relevant sind, optimiert man die Prozesse auch jetzt noch, sodass ab 3Q19 der 12FFC+ zur Verfügung stehen soll, der im Vergleich zum 12FFC bis zu +7 % mehr Performance ODER bis zu 15 % Power Reduction bieten soll. (Parallel wird es auch einen 16FFC+ geben.)

@Tech_Blogger:
Bei der Ableitung von unterschiedlichen Herstellern muss man vorsichtig sein, da die Prozessparameter nicht zwingend herstellerübergreifend übertragbar sind.
Beispielsweise Globalfoundries 14 und 12 nm-Prozesse sind von Samsung lizensiert. Deine Zitierung der 10 % Flächenreduktion bezieht sich hier also auf Samsung-Prozesse (passt in diesem Fall aber dennoch in etwa ;-)).
Zen (Ryzen 1000) verwendete 14LPP (FinFET Low Power Plus, Samsungs zweite Evolutionsstufe, der erste war der 14LPE) und Zen+ (Ryzen 2000) verwendete Samsungs 12LP (Leading Performance). AMD nutzte bei Zen+ die Vorteile des 12LP jedoch für mehr Performance und weniger Power anstatt die Chipfläche zu verkleinern. (So etwas hast Du ja bereits in Deinem Post angerissen.)
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Ich wollte ausgedrückt haben, dass der Vorsprung von nVidia rapide schmilzt, so wie er bei Intel auch dahingeflossen ist.
Wo schmilzt denn da gerade was rapide?

Der Vorsprung von NVIDIA ist konstant und mit RTX/Raytracing hat man den Vorsprung nochmal ausgebaut.

Klar kann NVidia mit dem neuen Fertigungsprozess einen drauflegen, aber AMD hat einen weiteren Technologiewandel mit Effizienzsteigerung und etwas feinerer Fertigungsstruktur im Gepäck, von NVidia ist noch nichts dergleichen bekannt (oder ich habs übersehen).
Genau, NVIDIA wird mit 7nm EUV Chips bauen, die bei identischer Leistung wie heute die gleiche Leistungsaufnahme haben wie heute 12nm Chips. Die werden natürlich keine Verbesserung liefern :lol:

Und wenn AMD die BIG-Chip-Variante auspackt, wird es vermutlich von NVidia nicht mehr ein müdes Lächeln geben, falsl man sich dann plötzlich auf Augenhöhe begegnet.
Dann sollte AMD mal schnell auspacken, nicht dass NVIDIA doch nur müde lächelt, weil die "Big-Chip-Variante" sich doch wieder - wie heute - nur mit der RTX0370 misst und es oben drüber noch 3080/3080Ti/Titan gibt :-P

Sorry, ich wollte ernsthaft drüber reden, kein Fanboy-Gebrabbel.
Deshalb widerspreche ich BXBender auch :daumen:

Einzig die RTX2080TI ist absurd! Und leider der fehlenden Konkurrenz zu verdanken.
Hätten Sie auch als Titan bringen können und die 2080/2070 nach oben schieben können. Dann wäre das Geschrei nicht so groß.

Ich hab kein Problem damit eine 2080 als HighEnd anzusehen, auch wenn ne 2080Ti noch darüber steht.
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Ja klar sieht Nvidia keine Eile bei dem Thema. Die befinden sich aktuell in einem veralteten Fertigungsprozess und sind trotzdem, was Effizienz und Leistung angeht, unschlagbar. Um tatsächlich ein MCM zu entwicklen ist sehr viel Know How notwendig. NV wird erstmal af 7NM umsteigen und damit wieder ordentlich Leistung zulegen. Da muss noch nicht so viel Geld in die Forschung investiert werden. Persönlich fände ich es zwar gut aber so sind die Aktiengesellschaften nun mal. Hier mal ein interessanter Artikel zu den Forschungen von NV aus dem Jahr 2017 Artikel
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Wo schmilzt denn da gerade was rapide?

Der Vorsprung von NVIDIA ist konstant und mit RTX/Raytracing hat man den Vorsprung nochmal ausgebaut.
.

Wenn RDNA 2.0 vor der Tür steht, steht auch schon der Turing Nachfolger vor der Tür und damit dürfte die gleiche Runde eigentlich nur von vorne beginnen.
Man muss auch immer den Aufwand sehen. AMD mit angegebenen 7nm mit schlechterer Effizienz, als Nvidia mit 12nm. Da hat sich betimmt einer bei Nvidia tränen gelacht. Das ist eigentlich traurig.

ich frag mich ja ob sich die rote *zensiert* Truppe eigentlich schon mal gedanklich darüber im Klaren ist , was passieren würde, wenn diese 7nm Hüpfburg Namens Navi ,Chipfläche hätte opfern müssen für Raytracing:devil:

Und der Tag wird kommen wo sie diesen Schritt unweigerlich gehen müssen....


Diesen Spagat hinzubekommen, mit normaler Rastergrafik nicht hinter seinen Mitbewerber abzurutschen , und nebenbei Transistorlogik zu Opfern für eine neue Ära im Rendern , hat bisher nur einer demonstriert ,
Und der tritt zudem noch mit nem veralteten Herstellungsprozess an, und ist trotz all der Hürden performanter u effizienter unterwegs

Ja BxBender Nvidia muss sich geradezu fürchten vor AMDs Technologiestand:D

und bezüglich chiplet Design Nvidia ist da nicht erst seit kurzen im Geschäft

https://research.nvidia.com/sites/default/files/publications/ISCA_2017_MCMGPU.pdf



INU-Edit: Achte doch bitte mal etwas mehr auf deine Wortwahl!
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Warum interessant?

Ist die nächste logische Schritt.

Shrinking hin oder her, irgendwann sind die Chips so gross und komplex dass nicht mehr wirtschaftlich hergestellt werden können.
Und jeder ist, oder sollte, bewusst sein, dass eine gute Parallelisierung deutlich mehr Leistung bringt als mehr Takt.

Der Hacken ist nur das ganze sauber zu implementieren.

Also findest du es auch interssant.
Aber was hat das mit deinem Hacken zu tun, LOL.
 
Zurück