Nvidia ohne Eile beim Chiplet-Design für GPUs

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia ohne Eile beim Chiplet-Design für GPUs

Nvidia hat keine Eile beim Chiplet-Design für Grafikprozessoren. Die Grundlagenforschung läuft und ist wohl auch einigermaßen weit vorangekommen. Im Moment sieht man aber noch keine Notwendigkeit für einen Einsatz im auf Design und Produktions-Effizienz getrimmten Nvidia-Portfolio.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia ohne Eile beim Chiplet-Design für GPUs
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

MultiGPU ist eine Sackgasse und wurde deshalb sowohl von AMD als auch Nvidia aufgegeben, da es praktisch nur mittels AFR eine 100%ige Kompatibilität aufweist. AFR selbst hat aber eigene Probleme, nämlich die unsauberen Frametimes. Und wenn man die glättet, geht die Performance Skalierung und die Ein- und Ausgabegabelatenz den Bach runter.

Ergo muss man eine Lösung finden, die mehrere Chiplets am gleichen Frame arbeiten lässt und dafür gibt es derzeit keinen ausreichend schnellen Bus für die Kommunikation der Chiplets. Wenn man sowas designed, ist der Architekturaufwand auf dem PCB so groß und teuer, dass man lieber gleich einen größeren Chip baut.

Chiplets im GPU Segement wird es erst dann geben, wenn in punkto Strukturgröße garnichts mehr geht und Chiplets die einzige Möglichkeit sind noch Performance zu generieren. Sagt Jensen (edit: nein sagt er nicht, denn das Interview hat ein anderer Nvidia Mitarbeiter gegeben) ja im Prinzip genau so.
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Na, schauen wir mal, ob NV da recht behält :huh: Zugegeben nützt eine tolle Aufteilung der Chips rein gar nichts, wenn dabei das gleiche wie bei SLI passiert... Die Verwendung einer größeren Zahl Chiplets hat jedenfalls seit Jahren das größte Potential, endlich mal wieder einen ordentlichen Leistungssprung hinzubekommen. Jedenfalls abgesehen von der technischen Machbarkeit, die ich schlicht nicht beurteilen kann.

Zumindest hat noch keiner der Verdächtigen da mal was von einer Entwicklung verlauten lassen, die abseits von Chiplets große Erwartungen aufkommen lassen würde.

[EDIT] Wo bleiben die 0,01 nm Sub-Quanten Kohlenstoff-hexa-Oxid-Nano Prozessoren? Will endlich richtiges Echtzeit-Raytraycing!
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Im Moment sieht man aber noch keine Notwendigkeit für einen Einsatz im auf Design und Produktions-Effizienz getrimmten Nvidia-Portfoli
wofür auch, eigentlich kann Nvidia erstmal paar Monate den Laden dicht machen und dann irgendwann frisch erholt vom Urlaub weitermachen. Es gibt quasi 0 Konkurrenz und AMD kommt bei weitem nicht an das was Nvidia hat. Da gehts um ganz andere Faktoren als der 0815 User denkt.

Ich würde sagen der hat direkt gesessen bei Nvidia, gute Arbeit geleistet bisher und jetzt die verdiente Ruhe. Leider ist es auch irgendwie langweilig ohne Konkurrenz.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

keine Eile, natürlich! aber preise anziehen geht schnell... ist ja auch gut und günstig

lockt massig investoren an, wenig kosten pro stück und massivst gewinne wegen der nachfrage und der gewöhnung. mir kams damals vor dem btc-hype schon über mir eine konsole zu kaufen weil die preise nach oben gingen massivst. früher hat man ein vollausbau vom aktuellen chip bekommen für 500€+ nun musste zur rtx titan greifen für maximale leistung und zahlst krassen aufpreis. nvidia ist auch sehr restriktiv mit ihrem bios und dem powerlimit. mal ebend im bios das powerlimit erhöhen, nenene. musst schon die lüfter abklemmen.:ugly:


frage mich was nvidia für eine marge fährt pro chip in allen leistungsklassen. die chipkosten sind ja pro stück gleich egal ob mittel oder oberklasse. die schnelle selektierung haste überall als fixkosten. wenn man dann die preise der rtx 2060 nimmt z.b. oder der 2070 mit der 2080 ti vergleicht. krasser gewinn pro chip.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Spätestens wenn AMD liefert, wirds plötzlich brenzlig und höchste Eisenbahn für NVidia.
Wollen wir aber mal hoffen, dass die aus den Fehlern von Intel gelernt haben.
Schließlich ist Konkurrenz und gegenseitiges Hochschaukeln bei Ausstattung udn Leistung für den Kunden lebenswichtig, ohne dem bekomtm man imemr nur das Gleiche geliefert.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Schade eigentlich, dass die Entwicklung aus finanziellen Gründen in Richtung Chiplet gezwungen wird...
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

MultiGPU ist eine Sackgasse und wurde deshalb sowohl von AMD als auch Nvidia aufgegeben, da es praktisch nur mittels AFR eine 100%ige Kompatibilität aufweist. AFR selbst hat aber eigene Probleme, nämlich die unsauberen Frametimes. Und wenn man die glättet, geht die Performance Skalierung und die Ein- und Ausgabegabelatenz den Bach runter.

Ergo muss man eine Lösung finden, die mehrere Chiplets am gleichen Frame arbeiten lässt und dafür gibt es derzeit keinen ausreichend schnellen Bus für die Kommunikation der Chiplets. Wenn man sowas designed, ist der Architekturaufwand auf dem PCB so groß und teuer, dass man lieber gleich einen größeren Chip baut.

Chiplets im GPU Segement wird es erst dann geben, wenn in punkto Strukturgröße garnichts mehr geht und Chiplets die einzige Möglichkeit sind noch Performance zu generieren. Sagt Jensen ja im Prinzip genau so.


Bei den Chiplets wird es im GPU Sektor wohl so laufen müssen, dass nicht viele einzelne vollwertige Kerne verbaut werden, sondern Teilbereiche dementsprechend mehrfach als eigen Chipeinheiten unter dem Kühlblock angesiedelt werden.
Vielleicht wird man ja irgendwann die Shader oder sonstige Teilbereiche der Recheneinheiten als Einzelchips ausgliedern, dann gäbe es Grafikkarten mit 1, 2 oder 4 dieser Chips, wo man wiederum ein Viertel oder die Hälfte deaktivieren kann als Unterstufe. So als Beispiel. Man klebt sich also den Grafikchip sozusagen nach Leistungsklasse zusammen.
Witzig wären wie damals Nachrüstsockel.
Zack, so wird aus der 5060 eine 5080 mit doppelter Shaderanzahl. ^^ ;-)
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Chiplet gibts ja auch mit Intel+AMD.

Ansonsten reicht ja ne IF zur Verbindung ala Stadia. (wohl X3)
Oder Radeon Duo beim Mac.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

frage mich was nvidia für eine marge fährt pro chip in allen leistungsklassen.
Ziemlich hohe, sie Investieren davon aber auch sehr viel in Forschung - vor allem Software und neue Algorithmen - wo sie ziemlich viele interessante Themen raushaun. (Sie sind auch wirklich aktiv mit duzenden OpenSource Projekten).


Man kriegt es halt nicht hin und wird wie Intel von AMD vernichtet. :daumen:
jaja, das kommt sicher alles noch - irgend wann, wenn deine Halluzinationen nachlassen.

Das dachte ich mir auch, warum sollte man sonnst so arrogant über das Thema rutschen.
So wie AMD - die es zuerst schön angepriesen haben und dann wurde es klangheimlich unter den Teppich gekehrt.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Im Moment hat Nvidia einfach die Oberhand. Sie schlagen AMD mit der alten 14nm Technik und können auch noch die neuen Raytracingfunktionen etablieren. Von daher ist klar, dass der Druck etwas in den Markt zu bringen gering ist, Forschung ist allerdings immer wichtig und darf nie vernachlässigt werden.

Man kriegt es halt nicht hin und wird wie Intel von AMD vernichtet. :daumen:

Das hört sich im Moment sehr nach dem ehemaligen Staatsratsvorsitzenden Erich Honecker, am Ende der DDR, an. Auch Walter Ulbricht und der irakische Informationsminister Muhammad as-Sahhaf, hätten ihre Freude daran gehabt.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

So wie AMD - die es zuerst schön angepriesen haben und dann wurde es klangheimlich unter den Teppich gekehrt.

Was auch immer dein Arzt dir da verschreibt, du solltest es schleunigst absetzen.
AMD hat nichts unter den Teppich gekehrt, die verkaufen schon lange die ersten Produkte mit Ciplets.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Spätestens wenn AMD liefert, wirds plötzlich brenzlig und höchste Eisenbahn für NVidia.
Man kriegt es halt nicht hin und wird wie Intel von AMD vernichtet.
Wo gibt es denn Chiplet-GPUs von AMD, als dass NVIDIA hier hinterher wäre?

Was ist denn, wenn NVIDIA hier zuerst vorlegt, was angesichts des Entwicklungsvorsprung von ca. einer Generation bzw. zwei Jahre nicht so unwahrscheinlich wäre?
 
Zurück