Geforce MX450: Erste GPU von Nvidia mit PCI-Express-4.0-Unterstützung

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce MX450: Erste GPU von Nvidia mit PCI-Express-4.0-Unterstützung

Die erste GPU mit PCI-Express-4.0-Unterstützung wird das mobile Einsteigersegment im Bereich dedizierter Grafiklösungen bedienen. Vorgestellt wurde sie als Ablöse für die bisher Geforce MX350 und wird als Geforce MX450 mitsamt GDDR6-Grafikspeicher verbaut. Allerdings wird es wohl optional auch Varianten mit GDDR5 geben.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce MX450: Erste GPU von Nvidia mit PCI-Express-4.0-Unterstützung
 
Ist es eigentlich sinnvoll, so viel Arbeit an alten Kernen drumherum zu machen, wenn man doch im Prinzip die Arbeit eh für eine neue Chipgeneration hat, wo man dann lediglich wenige Einheiten verbauen bräuchte, um dann auch fertig zu sein, satt die Arbeit doppelt machen zu müssen, damit die alte Technik auch mit den neuen Featuresets ausgestattet werden kann?
Das ist doch völlig sinnfrei, da Zeit und Geld reinzustecken, und am Ende bleibt doch eh alles beim Alten udn der Anwender hat nicht wirklich was davon.
 
Einzig naheliegende Erklärung wäre für mich dass Intel beim Notebook Tiger Lake plant mit 8 Lanes PCIe 4.0 oder weniger für die GPU Anbindung ins Rennen zu gehen.
 
Ist es eigentlich sinnvoll, so viel Arbeit an alten Kernen drumherum zu machen, wenn man doch im Prinzip die Arbeit eh für eine neue Chipgeneration hat, wo man dann lediglich wenige Einheiten verbauen bräuchte, um dann auch fertig zu sein, satt die Arbeit doppelt machen zu müssen, damit die alte Technik auch mit den neuen Featuresets ausgestattet werden kann?
Das ist doch völlig sinnfrei, da Zeit und Geld reinzustecken, und am Ende bleibt doch eh alles beim Alten udn der Anwender hat nicht wirklich was davon.

Wieso Sinn frei? Wie es Nvidia macht ist einfach mega. Alte Chips umlabeln und nur neu verpacken ist doch ne kosten effektive Vorgehensweise. Sie finanzieren ihr ganze Entwicklung für solch neue Anbindungen schön mit diesen Karten. Hat man mit der MX450 vielleicht nen Anfang gesetzt könnte man die ganzen Anbindungsbausteine auch gut für Ampere oder andere Karten hoch skalieren.

Das sich Nvidia das überhaupt noch bei Ryzen APUs traut ... steht auf nem ganz anderen Papier!
 
Einzig naheliegende Erklärung wäre für mich dass Intel beim Notebook Tiger Lake plant mit 8 Lanes PCIe 4.0 oder weniger für die GPU Anbindung ins Rennen zu gehen.
Exakt das. Ist ja auch eines der Probleme von AMD-CPUs im Notebook, weshalb es da immer noch zu >90% Intel ist. AMD liefert nur 8x PCIe und das bremst alles ab 2060 aus.

Alte Chips umlabeln und nur neu verpacken ist doch ne kosten effektive Vorgehensweise.
Ist kein alter Chip - besitzt ja sogar als erst NV-GPU PCIe 4.0 - und ersetzt außerdem im Segment einen Pascal-basierten Chip.

Verstehe nicht, was es da zu kritisieren gibt.
 
Ist es eigentlich sinnvoll, so viel Arbeit an alten Kernen drumherum zu machen, wenn man doch im Prinzip die Arbeit eh für eine neue Chipgeneration hat, wo man dann lediglich wenige Einheiten verbauen bräuchte, um dann auch fertig zu sein, satt die Arbeit doppelt machen zu müssen, damit die alte Technik auch mit den neuen Featuresets ausgestattet werden kann?
Das ist doch völlig sinnfrei, da Zeit und Geld reinzustecken, und am Ende bleibt doch eh alles beim Alten udn der Anwender hat nicht wirklich was davon.

Das PCI-Express-Interface bildet normalerweise eine in sich geschlossene Einheit und lässt sich somit vergleichsweise leicht austauschen. Zumindest solange man die Kommunikation mit dem restlichen Chip nicht geändert hat. Die einzige Schwierigkeit sehe ich darin, am Ende wieder einen quadratischen Grundriss zu haben, aber da der Chip wohl sowieso eine Turing-Neukonfiguration ist, fällt ein gewisser Entwicklungsaufwand sowieso an. Das heißt aber nicht, dass man in der gleichen Zeit auch direkt hätte Ampere implementieren können. Weder wissen wir, wie leicht der Ampere-Bauplan auf so kleine Chips skaliert werden kann, noch ist die Fertigung bekannt. 12 nm sind in der Preisklasse naheliegend und 8-nm-Shader-Einheiten auf 12 nm umzusetzen wäre ein im Vergleich riesiger Aufwand.


Einzig naheliegende Erklärung wäre für mich dass Intel beim Notebook Tiger Lake plant mit 8 Lanes PCIe 4.0 oder weniger für die GPU Anbindung ins Rennen zu gehen.

Bislang war nicht von einer Reduktion der Lanes die Rede, allerdings vermarktet Intel Thunderbolt immer intensiver und das verschlinkt voer Lanes pro Port. In der Preis- und Leistungsklasse der MX (GT1030?) wäre aber ×8 3.0 weder ein Leistungs- noch ein Imageproblem. Ich vermute, dass Nvidia für den neuen Chip eine ähnlich lange Laufzeit wie seine Vorgänger plant und PCI-E 4.0 vorsorglich implementiert hat. Nicht weil es nötig ist, sondern weil man 2023 nicht mehr mit 3.0 da stehen möchte.
 
Zuletzt bearbeitet:
Einzig naheliegende Erklärung wäre für mich dass Intel beim Notebook Tiger Lake plant mit 8 Lanes PCIe 4.0 oder weniger für die GPU Anbindung ins Rennen zu gehen.

Eine Reduktion (wie beim mobilen Renoir) ist eher unwahrscheinlich. Ein weiterer Punkt, der zu berücksichtigen ist und nVidia unter Druck setzt, ist Intels DG1. nVidia muss hier schnell und frühzeitig mit einem Produkt in den Markt kommen, damit Hersteller sich möglichst zugunsten dieser Lösung entscheiden, denn Intel wird hier als All-in-One-Paket zweifelsfrei einen attraktiven Preis ausrufen und damit versuchen nVidia Marktanteile bei mobilen dGPUs abzuluchsen. Zudem hat Intel bereits erklärt, dass man hier auch treibertechnisch einen Vorteil haben wird, da sowohl die interne Xe als auch die externe DG1 sich über den gleichen Treiberstack ansteuern lassen, während die Hersteller bei einer gemischten Lösung mit Intel's und nVidia's Treibern rumhantieren müssen. (Ungeklärt ist zudem weiterhin die Frage, ob ein solches Intel-Tandem möglicherweise gar zusammengeschaltet arbeiten kann. Um den Architeture Day/die Hot Chips herum hat Intel eine diesbezügliche Frage explizit unbeantwortet gelassen.)
 
Bei einer Zusammenarbeit wird auch Intel vor Anbindungsproblemen stehen und in der Gesamtleistung wird für die DG1 bislang nicht so viel mehr Leistung gegenüber der integrierten Form versprochen, dass ich mit intensivem Notebook-Einsatz rechnen würde.

Renoir hat übrigens, im Gegensatz zu Picasso und Raven Ridge, die volle Anzahl an Lanes. Meinem Wissen nach sind die auch bei den mobilen SKUs aktiv. Nur die Geschwindigkeit ist auf Niveau der Zen-/Zen+-CPUs reduziert worden.
 
Gaming'-'Notebooks in der Klemme: Ryzen 4000 APUs im Bandbreitenlimit, Tiger Lake kommt 2020 wohl vorerst mit nur 4 Kernen und Ampere braucht mehr Feuer | igor sLAB

Wie die mobile dGPU ausgelegt sein wird, weiß zumindest ich noch nicht so genau, beobachte das nur am Rande. Tiger Lake U's Xe soll seine beträchtliche Mehrleistung jedenfalls angeblich bei nur geringfügig mehr Fläche und Verbrauch realisieren. Was aktuell zurzeit zur DG1 bekannt ist, bezieht sich, soweit ich es weiß, nur auf das PCIe-Karten-DevKit. Dass das jedoch (konfigurationstechnisch) exakt dem später folgenden, fertigen Produkt entsprechen wird, würde ich eher bezweifeln. Zudem bleibt die Frage bzgl. des Einflusses der direkten Speicheranbindung und möglicherweise eines höheren Taktes. Auch könnten für diesen Chip die Design Rules etwas anders ausgelegt worden sein, sodass der Chip sich elektrisch etwas anders verhält?
Ich lasse mich einfach mal überraschen. Xe ist zumindest grundsätzlich auf ein MCM-Design hin ausgelegt; wie weit das schlussendlich greift, wird man abwarten müssen. Darüber hinaus: Wenn die vermeintlichen Hinweise, die man damals im Linux-Treibe zu finden meinte, Mumpitz waren, hätte Intel dem auch genau so gut eine kategorische Absage erteilen können, oder? Die können sich auch leicht ausrechnen, dass die Frage in einer Woche wieder gestellt werden wird.
 
Zuletzt bearbeitet:
Renoir und Navi sollte doch eigentlich auch xGMI unterstützen?
Das wäre dann pro Lane eh so schnell wie PCIe 4.0.
Warum nutzt man das nicht zumindest bei Renoir + Navi?

In wenigen Monaten sollte auch van Gogh auf den Markt kommen, dort wird sicher PCIe 4.0 unterstützt werden!
 
xGMI in Verbindung mit einer APU? Wie kommst du auf so etwas? Hast du einen verlässlichen Link dazu?
Halte ich eher für ein Gerücht, insbesondere, da AMD bei Renoir bspw. bewusst auf PCIe 4.0 verzichtet hat.

Und bzgl. Van Gogh wird man erst mal abwarten müssen wie sich die kommenden APUs positionieren und ob sich die Leaks bewahrheiten, denn das, was zurzeit über Leaks bekannt ist, sieht eher suboptimal bzw. inkonsistent aus:
a) Van Gogh: altem Zen2, dafür aber einer Navi-GPU, CVML-Erweiterung und auch LPDDR5-Support oder
b) Cezanne: mit neuerem Zen3 aber älterer Vega-GPU ohne Erweiterung und auch nur mit bestenfalls LPDDR4-Support
Entweder wurde da Van Gogh mit heißer Nadel hinterhergeschoben und man wollte an Cezanne keine korrigierende Hand mehr anlegen oder aber die Leaks sind grundsätzlich fragwürdig und man wird erst mal abwarten müssen was nun tatsächlich kommt.
Denkbar wäre auch, dass die Navi-GPU trotz ihrem Namen vielleicht dennoch weniger leistungsstark als die Vega werden wird (und einige Seiten recht hätten und dass Van Gogh das Billig-Segment bedienen soll), aber auch das löst das Positionierungsprobleme der APUs zueinander nicht vollends auf, denn laut den bisherigen Leaks verfügt Van Gogh dann dennoch über CVML (via Navi?) und soll zudem LPDDR5 unterstützen, was so gar nicht zu einer Brot&Butter-Lösung passen will.
 
Renoir und Navi sollte doch eigentlich auch xGMI unterstützen?
Das wäre dann pro Lane eh so schnell wie PCIe 4.0.
Warum nutzt man das nicht zumindest bei Renoir + Navi?

Selbst wenn es gehen sollte (ich wüsste nicht, warum man >20 GT/s fähige Transciever verbauen und dann kein PCI-E 4.0 unterstützen sollte):
Wie willst du Navi, den es mit der einen Apple-Ausnahme nur als Desktop-Karte gibt, mit einem verlöteten Renoir, den es nur als mobile gibt, kombinieren? Über das PCI-Express-Routing eines normalen Mainboards kannst du nicht einfach ein andere Protokoll mit viel höheren Anforderungen jagen und hoffen, dass das von sich aus funktioniert.
 
Auch die Vega-GPU sollten xGMI unterstützen.
Bei Mobile-Renoir sind zwischen der APU und der dGPU doch keine Transceiver.

Die Leitungslänge ist bei einem Notebook sicher auch sehr gering.
 
Junge... Kenne mich kaum aus mehr mit den aktuellen Produktsegment und Mobile Segment ist mir eh Jacke wie Hose, aber ich musste an den NV17/18 denken (Geforce 4 Mx 440 / 460) vor 18 Jahren, das waren noch Zeiten :hail:.
Bei den Produktbeschreibungen füllen die wohl die alten Lücken aus.
 
Zurück