Du verstehst nicht. es ist kein Platz dafür da auf der GPU DIE Fläche, die jetzt schon an den Größengrenzen angelangt sind was wirtschaftlich sind. Die RT Kerne auszulagern in einen eigenen RT Chip der dann enorm wachsen könnte macht Sinn.
Das eigentliche Limit ist nicht das Die, zumal auch nVidia schon lange an Multi-Chip-Designs entwickelt, d. h. die hätte bei Bedarf gar eine elegante Möglichkeit, ohne gleich auf eine zusätzliche Karte ausweichen zu müssen. Das eigentliche Limit sind letzten Endes die Möglichkeiten, die ein entsprechender Fertigungsprozess bietet, die Entwicklungs-/Fertigungskosten und damit der notwendige Verkaufspreis und zudem der Verbrauch bzw. die unmittelbar damit zusammenhängende Abwärme. Du kannst dir ja mal versuchen auszumalen wie klein der Markt sein wird, wenn man den Kunden nun zwei 800 US$-Karten andrehen will und dieser sich zudem noch ein Gesamtsystem zusammenschrauben muss, dass bspw. 2x 300 W TBP handhaben können muss ... ich vergaß, wir sind hier im Enthusiastenforum, rechne mal eher bei nVidia mit 2x 1000 US$ und 2x 450 W.
Nach oben könnte man die Leistung immer skalieren nur ist das nichts, wofür der Markt insgesamt aktuell bereit wäre in nennenswertem Maße zu bezahlen und entsprechend würde sich der Entwicklungsaufwand nicht lohnen. Das Nach-oben-skalieren hätte bspw. AMD auch durchaus mit Navi 31 tun können, nur sahen sie dafür ebenso in ihrer Situation schlicht keinen nennenswerten Markt und dementsprechend hat man es dort unterlassen.
Mit dem nächsten Fertigungsprozess geht dann eine neue Runde einher mit noch mehr Transistoren und Funktionseinheiten pro Design, ob das nun nochmals ein monolitisches (
bei nVidia) oder ein Multi-Chip-Design sein wird, spielt dabei erst mal keine Rolle, denn was hier wirtschaftlich ist, muss jeder Chiphersteller zu einem konkreten Zeitpunkt für sich selbst entscheiden.
Da die Top-GPUs jetzt schon mit moderen Upscaling-Technologien (
und zukünftig Frame-Generation-Technologien) selbst bis hin zu 8K kommen, kann man vermuten, dass die mit zukünftigen Technologien bereitgestellten Fertigungsmöglichkeiten eher nicht dafür genutzt werden um die reine Rasterizer/ROP-Leistung noch übermäßig zu erhöhen, sondern dass die zusätzlichen Kapazitäten in den NextGen-Entwicklnugen eher für leistungssteigernde Maßnahmen im Raytracing und in untergeordneter Weise ggf. für ML genutzt werden. Wie genau bspw. nVidia letzteres gewichten wird, ist schwer einzuschätzen, da nVidia mit seiner besonderen Marktposition hier unterschiedliche Optionen und teils gegenläufige Prioritäten hat. Rein für den Consumer-Markt dürfte die ML-Leistung für die bekannten Inferencing-Workloads im Gaming wohl jetzt schon ausreichend groß sein (
zumal man bei Bedarf gar noch auf INT8 ausweichen könnte), jedoch ist es für nVidia immer noch von Vorteil unified Designs für den professionellen und Consumer-Markt zu entwickeln, d. h. Design-Entscheidungen berücksichtigen hier zurzeit weiterhin auch, was der professionelle Markt benötigt.
Darüber hinaus gibt das nVidia auch die Möglichkeit die Marktdurchdringung entsprechender Technologie voranzutreiben, denn mittlerweile spielt schon ein relativ großer Anteil an Gamern auf RTX-Hardware, d. h. diese verfügen alle schon über dedizierte Raytracing- und im Falle von nVidia-HW auch über Tensor Core-Hardware *). Wäre dagegen die Funktionalität komplett ausgelagert, bspw. wie von dir angedacht auf eine optionale Karte, würde die Marktadaption deutlich langsamer vonstatten gehen ... mancher würde das vielleicht begrüßen, manch' anderer eher nicht. Letzten Endes gehen aber alle drei Hersteller den gleichen Weg in dieser Hinsicht und stellen ein kombiniertes Set an Features auf einem Produkt bereit und bieten hier eine Mischung/Gewichtung, die sie der Marktsituation entsprechend für angemessen erachten (
oder was ihren derzeitigen Möglichkeiten entspricht) und the next big thing in Sachen Grafik ist nun einmal schlicht Raytracing. Ob das nun Hybrid-Rendering ist, wie es zurzeit aus Last- und Adaptions-/Vertriebsgründen überwiegend genutzt wird oder ob das Pathtracing ist, ist erst mal sekundär.
*) Die man nicht zwingend braucht, ein (nicht ganz freiwilliger) einfacherer, wenn auch weniger leistungsfähiger Ansatz wie bei AMD geht zweifellos auch, da die ML-Anforderungen im Consumer-Sektor nicht so hoch sind, zumal es hier primär um das Inferencing geht.