Das nVidia Pferd springt nur so hoch wie es muss. Das heißt MCM wird noch nicht benötigt. AMD und Intel liegen volle ein bis zwei Generationen zurück, da kann sich nV die Kohle für MCM in 3nm sparen.
Chiplets senken die Produktionskosten, allein schon deshalb wird NVIDIA an Chiplets forschen.
Früher oder später wird NVIDIA auch die Chiplets-Technologie brauchen, es sind also keine gesparten Entwicklungskosten damit zu warten bis man sie braucht. Im Gegenteil, wenn sie mit der Entwicklung warten bis sie sie brauchen, geraten sie unter Druck und dabei können Fehler entstehen.
Es ist daher Sinnvoll bereits vorher Chiplets zu entwickeln und auch praktische Erfahrungen damit zu sammeln, gerade dann wenn man einen Vorsprung bei der Leistung ggü. der Konkurrenz hat. Dann kann man nämlich auch noch konkurrenzfähige Ware auf den Markt bringen, wenn man keine Bestleistung abliefern konnte.
Da bin ich echt gespannt. Weil sagen wir mal Blackwell kann dann FG+ also mit 2 Zwischen Bildern:
also Render bild FG bild FG Bild Render Bild.
Dann stelle ich mir die Frage wie fühlt sich das an ? Wie hoch ist die Latenz, wie sieht das aus?
Ich meine FG hat ja jetzt schon Problem hier und da.
Ich sags mal so du kannst nur eine Bestimmte Anzahl an Bilder berechnen ohne nicht die komplette Render pimpline durchzugehen, denn irgendwann muss ich den Input des Spieler wieder mit berechnen . (ich hoffe man versteht was ich meine).
Natürlich wäre es Super wenn wir mit nur einen teil der Rechnen Leistung der 4090 das Selbe Ergebnis erzielen können was Optik und Latenz angeht.
Solange die Generierung zusätzlicher Bilder schnell genug abläuft, kann man da durchaus mehrere Zwischenbilder dazwischen setzen ohne das es zu einem weiteren erhöhen der Latenz kommt.
Es muss eine Erkennung her, die die Zwischenbildberechnung abschaltet bzw. die Anzahl der generierten Bilder beschränken kann. Und zwar abhängig davon, wie schnell die CPU die nächsten Renderanweisungen liefern kann.
Das es eine solche noch nicht gibt, kann man an Diablo 4 - iirc war es D4 - sehen, dort kann es vorkommen dass das aktivieren von Frame Generation zu einem FPS-Verlust führt, weil die CPU zu schnell weitere FPS liefert - abhängig vom verwendeten System und Einstellungen.
Bekanntlich wird 1 Frame zurückgehalten um ein Zwischenbild zu generieren. Wenn die Generierung schnell genug abläuft um da 2, 3, 4 oder noch mehr Zwischenbilder zu generieren bevor von der CPU die Anweisungen für den nächsten Frame kommt und dieser von der GPU gerendert wurde, wird dadurch die Latenz nicht weiter erhöht.
Wenn nun eine Erkennung vorhanden ist, die bspw. nach 2 Zwischenbilder die Generierung abbricht, weil nicht mehr genug Zeit für ein drittes ist, dann bemerkt man davon nichts - außer eben das die FPS durch einschalten für "Frame Generation 2" nicht so hoch ausfällt wie möglich.
Das erscheint mir jedenfalls sogar Grund genug für NVIDIA zu sein, "Frame Generation 2" auf eine kommende GPU-Generation zu limitieren. Wenn nur diese genug Leistung liefert um mehr als 1 Zwischenbild zu generieren.