Geforce RTX 4090: Andeutungen über Tape-Out und "vorgezogene" Hopper-Features

Ich brauche genug Leistung, das ich nicht ins GPU Limit stoße bzw bis ich etwa 120FPS in 4k in allen Titeln mit maximalen Einstellungen erreiche. Zumindest wenn diese ordentlich programmiert sind...
Naja es reicht solange ich bomben stabile 60FPS habe...
Raytracing ist auch nett, aber da würde ich noch zusätzlich DLSS auf Qualität dabei nutzen.
Bin auch gespannt wie es in UE5 mit Pathtracing aussehen wird. Wird AMD dort aufholen?

Ja ich spiele gerne Spiele mit guter Grafik, aber ich spiele auch 2D-Pixel Titel. Da braucht man natürlich keine 4090.

Bei mir liegt die Preisgrenze beim Verkaufspreis meiner 3090FE +250€ oder so.
 
Für mich hört sich das realistisch an. 499 -> 549€ wäre immerhin eine Preiserhöhung von 10%. Bei der Leistung sollte die 4070 etwa auf 3090 Niveau sein, wenn man die ganzen Meldungen und Informationen nüchtern betrachtet. Die UVPs werden aber sicherlich auch daran hängen, wie die Nachfrage in den nächsten Monaten ist. Hoffentlich gehts wieder mehr zu einem Preiskampf zwischen den 3 Herstellern.
Ich rechne eher mit einer 4070 die ohne RT etwa so schnell ist wie eine 3080. Mit RT wird es wohl irgendwo bei der 3080 Ti sein, aber noch vor der 3090. Also genau zwischen den 1-2 FPS welche die Karten unterscheiden. nvidia kann sowas ja ganz gut. 549€ sind wohl mindestens fällig und wer es nicht schafft zur UVP vorzubestellen darf 800-900€ bezahlen.
 
Sicherlich kann man lange über die fehlende Forschung diskutieren. Und ob SLI/NVLink generell sinn macht solange man Probleme wie Mirkoruckeln nicht in den Griff bekommt, aber das ist kein Problem das es erst seit gestern gibt.
Da hätte man ruhig etwas mehr in die Forschung der Techniken an sich stecken können. Schließlich gibt es wesentlich mehr Ansätze als ausgerechnet AFR...
Das Problem löst sich bald von allein sobald die ersten Chiplet basierten GPUs kommen. Klassisches Multi-GPU ist tot und wird es auch bleiben, inzwischen haben wir einfach das Henne-Ei-Problem. Es ist keinerlei Basis mehr vorhanden und so macht sich auch kein Entwickler mehr die zusätzliche Arbeit mGPU ins eigene Spiel zu integrieren.
 
600W
Mmh ich kenne das noch aus CF und SLI Zeiten wo der Strom noch günstig war!
Wen der noch weiter steigt auf 60Cent + ist bei manchen irgendwann Fingernägel kauen angesagt!
 
Ich brauche genug Leistung, das ich nicht ins GPU Limit stoße bzw bis ich etwa 120FPS in 4k in allen Titeln mit maximalen Einstellungen erreiche.
Ich werde auch auf die RTX 4090 gehen, weil ich einfach mehr Leistung möchte für 4K/High FPS Gaming. Ich bezweifle aber dennoch, dass die Karte schnell genug sein wird uns 100+ FPS in 4K in ALLEN Titeln zu liefern, selbst mit DLSS.

Ich meine aber aus realistischer Sicht, dass selbst wenn die Karte doppelt so schnell sein sollte wie eine RTX 3090, wird die Leistung für Cyberpunk 2077 oder Dying Light 2 mit "allem auf ultra" (inklusive Raytracing) immer noch nicht reichen. Da braucht es einfach noch einige! Grafikkartengenerationen mehr.

Analog erreicht man ja heute bei manchen 5-6 Jahre alten Titeln selbst ohne Raytracingimplementierung gerade so seine 60-70 FPS. Beispielsweise Final Fantasy XV: neulich mal wieder installiert, einfach unfassbar, was das frisst. Da habe in manchen Spots Dips unter 60 FPS gesehen und das war im GPU-Limit!
 
Erzähl das nem Pro-Sumer oder Profi der ansonsten ~4600€ bzw. ~10.000€ für 2 A5000/A6000 hinlegen müsste...

NVLink spielt keine Rolle auf dem Gaming-Hardware Markt, richtig.
Aber daran ist doch die Spieleindustrie genauso, schuld wie Nvidia selbst. (Danke übrigens an der Stelle %-) )

Zudem sollte man eines nicht vergessen: Einen halbwegs modernen PC und ein halbwegs modernes Spiel vorrausgesetzt (DX12/Vulkan), sind die Hürden für Multi-GPU so niedrig wie nie zuvor... Also bei quasi null.
Und von da zu NVLink ist es kaum mehr als ein Katzensprung.
Einzig die Unterstützung der Spieleindustrie fehlt - Thats it.

Sicherlich kann man lange über die fehlende Forschung diskutieren. Und ob SLI/NVLink generell sinn macht solange man Probleme wie Mirkoruckeln nicht in den Griff bekommt, aber das ist kein Problem das es erst seit gestern gibt.
Da hätte man ruhig etwas mehr in die Forschung der Techniken an sich stecken können. Schließlich gibt es wesentlich mehr Ansätze als ausgerechnet Afrika...

Erzähl das nem Pro-Sumer oder Profi der ansonsten ~4600€ bzw. ~10.000€ für 2 A5000/A6000 hinlegen müsste...

NVLink spielt keine Rolle auf dem Gaming-Hardware Markt, richtig.
Aber daran ist doch die Spieleindustrie genauso, schuld wie Nvidia selbst. (Danke übrigens an der Stelle %-) )

Zudem sollte man eines nicht vergessen: Einen halbwegs modernen PC und ein halbwegs modernes Spiel vorrausgesetzt (DX12/Vulkan), sind die Hürden für Multi-GPU so niedrig wie nie zuvor... Also bei quasi null.
Und von da zu NVLink ist es kaum mehr als ein Katzensprung.
Einzig die Unterstützung der Spieleindustrie fehlt - Thats it.

Sicherlich kann man lange über die fehlende Forschung diskutieren. Und ob SLI/NVLink generell sinn macht solange man Probleme wie Mirkoruckeln nicht in den Griff bekommt, aber das ist kein Problem das es erst seit gestern gibt.
Da hätte man ruhig etwas mehr in die Forschung der Techniken an sich stecken können. Schließlich gibt es wesentlich mehr Ansätze als ausgerechnet AFR...

Kleiner Nachtrag:
Nehmen wir mal folgende Situation an. NVIDIA, AMD, Intel, Microsoft und einige Engine Enwickler hätten sich zusammengesetzt und neue Effiziente MGPU Techniken erforscht, die frei von Mikroruckeln ect sind. Und würden sagen wir mal eine Effektivität von 80-90% erreichen mit einer Marktabdeckung bei Spielen von 70-80%.
Was würdest du beim Aufrüsten eher tun?

A: Zu deiner bestehenden GPU eine "4080" für 800€ dazu stecken, um dann 10-20% Mehrleistung zu haben als die "4080" alleine.
oder B: Eine "4090" für 1500€ kaufen die 15% schneller ist als eine "4080"? :hmm:
Das es diesbezüglich keine oder unzureichende Forschung und Entwicklung gibt, kann man auch nicht sagen.
AMD ist ja am Chiplet Design für GPUs dran.
Wie das ganze dann umgesetzt wurde wird man vorraussichtlich mit der RDNA 3 aka RX7000 Serie sehen.
Ein Chiplet Design ist einem SLI/Crossfire vorzuziehen.
Da ist es fast klar das kein Geld mehr in diese unzureichendenden Lösungen gesteckt wird
 
Das Problem löst sich bald von allein sobald die ersten Chiplet basierten GPUs kommen. Klassisches Multi-GPU ist tot und wird es auch bleiben, inzwischen haben wir einfach das Henne-Ei-Problem. Es ist keinerlei Basis mehr vorhanden und so macht sich auch kein Entwickler mehr die zusätzliche Arbeit mGPU ins eigene Spiel zu integrieren.
Also das sehe ich etwas anders, die Verbreitung von potentiell Multi-GPU fähigen GPUs dürfte sich sicherlich
im Bereich von 80-90% Marktanteil bewegen...

Multi-GPU Technik ist so fortgeschritten wie noch nie, hat so viel Leistung wie noch nie und ist quasi universell einsetzbar. Ob man also nun zwei RTX 3080 zusammen einsetzt oder eine RX 5800XT und eine RTX 3070Ti oder
zwei RTX 3090 mit zusätzlichen NVLink Features nutzt... Sofern das Spiel/Software eine entsprechend moderne API nutzt, ist das alles kein Problem mehr. Es ist letzten Endes nur eine frage der Software, wie die zusätzliche Rechenleistung effizent genutzt werden kann.
Sicherlich, M-GPU bei Spielen hat vollkommen andere Anforderungen als bei rein Mathematischen Berechnungen,
isb. aufgrund der Tatsache das hier der Faktor "Zeit" im sinne von Synchronität unglaublich wichtig ist, zumindest wenn man an Techniken wie AFR denkt, aber das ist nicht die einzige Möglichkeit.
Das ist eben genau das woran man entsprechend forschen müsste... Denn eines ist ja mittlerweile eindeutig
klar geworden, massiv gesteigerte Inputlags und asynchrone Frame Verteilung machen selbst 300fps zur Farce.

Mit dem Thema "Stomverbrauch" brauch mir ehrlich gesagt auch keiner als Gegenargument ankommen,
angesichts von drohenden 600W GPU's... :ugly:
Und was Chiplets angeht, die sind nur für die Hersteller gut... Ich sehe da ehrlich gesagt keinen Praxis relevanten
Vorteil für uns als Kunden...

Zudem bin ich mir fast sicher dass z.B. Nvidias Erfahrung im Berich AI hier durchaus einiges beitragen könnte...

DLSS & Co sind hier natürlich nette Features, wenn sie aber durch die Bank am Ende für schlechtere Bildqualität sorgen, sehe ich hier ehrlich gesagt auch wenig Sinn mit höheren Auflösungen die Kundschaft für Blöd zu verkaufen...
Was bringt mir denn der Hype um 4K und 8K wenn am ende überall Temporale Artefakte herumgeistern... :hmm:

DLSS & Co sind gut als "Notlösung" wenn man schlicht nicht genug Leistung zur Verfügung hat, und FPS
wichtiger sind als Bildqualität. Aber abseits davon, sind z.B. aktuelle AA Techniken ein Graus...
Gott wie ich die Zeiten von SSAA vermisse... %-)
 
Zuletzt bearbeitet:
Dann halt mit der abwärme :ugly:
Na ja, das ist dann son' Ding... 2 GPU's haben auch 2 Kühler...
An dem Verhältnis von Leistungsbedarf zu Abwärme zu nutzbarer Leistung kann auch M-GPU nichts ändern...
Aber alleine als valide Aufrüstoption, hätte es schon eine Daseinsberechtigung...
Aber das setzt eben voraus, dass M-GPU ohne die allseits bekannten Problemkinder daherkommt.
 
Na ja, das ist dann son' Ding... 2 GPU's haben auch 2 Kühler...
An dem Verhältnis von Leistungsbedarf zu Abwärme zu nutzbarer Leistung kann auch M-GPU nichts ändern...
Aber alleine als valide Aufrüstoption, hätte es schon eine Daseinsberechtigung...
Aber das setzt eben voraus, dass M-GPU ohne die allseits bekannten Problemkinder daherkommt.
Ähm im Multi Chip Design sind beide Chips auf dem selben Substrat wie ein Ryzen. Da ist nix mit 2 Kühlern.
Es geht darum 2 kleinere Chips zu kombinieren um die Leistung eines Großen zu bekommen, weil 2 kleinere billiger zu produzieren sind. Tatsächlich hat das ganze nichts mit Effizienz zu tun.
Ich hatte mal eine Karte mit 2 GPUs, die GTX 690. Damals war ich noch unerfahren....Das Ding hatte 1 Lüfter für 300W Gesamtleistung im 2-Slot Design...ja... Und SLI wurde sehr schlecht unterstützt.
MCM ist ja anders als SLI, da man nichts brücken muss. So sollte die auch als eine GPU vom PC erkannt werden.

Derzeit, wenn du Effizienz willst...musst du dich selber drum kümmern...mit UV...
 
Die nichts an der Abwärme im Gehäuse ändert, die muss ja abgeführt werden, und dann hat man sie in der Bude.

Das kann ekelhaft für einen selbst werden :ugly:
Ja das ist wohl war... :D Scheint aber Nvidia, Amd und Intel recht wenig zu interessieren oder? :lol:
Zumindest wenn man den extremen Anstieg des Leistungsbedarfs der letzten Jahre in Betracht zieht.

Ähm im Multi Chip Design sind beide Chips auf dem selben Substrat wie ein Ryzen. Da ist nix mit 2 Kühlern.
Es geht darum 2 kleinere Chips zu kombinieren um die Leistung eines Großen zu bekommen, weil 2 kleinere billiger zu produzieren sind. Tatsächlich hat das ganze nichts mit Effizienz zu tun.
Ich hatte mal eine Karte mit 2 GPUs, die GTX 690. Damals war ich noch unerfahren....Das Ding hatte 1 Lüfter für 300W Gesamtleistung im 2-Slot Design...ja... Und SLI wurde sehr schlecht unterstützt.
MCM ist ja anders als SLI, da man nichts brücken muss. So sollte die auch als eine GPU vom PC erkannt werden.

Derzeit, wenn du Effizienz willst...musst du dich selber drum kümmern...mit UV...
Ist schon klar, für die Hersteller bringt MCD natürlich Kostenersparnis und Skalierbarkeit.
Allerdings habe ich so meine Zweifel ob uns als Kunden das was bringt. Günstiger werden die Dinger vermutlich
trotzdem nicht. Und ob nun ein riesiger Chip 600W verbrät oder 4 kleine kann mir dann herzlich egal sein...

Sollte MCD allerdings dazu führen dass die Organisation der Chiplets prinzipiell auch über 2 Grafikkarten funktioniert (Im Sinne von "SLI" ähnlicher Erweiterbarkeit) wäre das natürlich echt was Positives.

Was ich meinte, ist das eine zweite GPU in form von MGPU eben auch einen zweiten Kühler mitbringt...
Aber das kann man sowohl positiv als auch negativ sehen.
 
Zuletzt bearbeitet:
Und was Chiplets angeht, die sind nur für die Hersteller gut... Ich sehe da ehrlich gesagt keinen Praxis relevanten
Vorteil für uns als Kunden...

Zudem bin ich mir fast sicher dass z.B. Nvidias Erfahrung im Berich AI hier durchaus einiges beitragen könnte...

DLSS & Co sind hier natürlich nette Features, wenn sie aber durch die Bank am Ende für schlechtere Bildqualität sorgen, sehe ich hier ehrlich gesagt auch wenig Sinn mit höheren Auflösungen die Kundschaft für Blöd zu verkaufen...
Was bringt mir denn der Hype um 4K und 8K wenn am ende überall Temporale Artefakte herumgeistern... :hmm:

DLSS & Co sind gut als "Notlösung" wenn man schlicht nicht genug Leistung zur Verfügung hat, und FPS
wichtiger sind als Bildqualität. Aber abseits davon, sind z.B. aktuelle AA Techniken ein Graus...
Gott wie ich die Zeiten von SSAA vermisse... %-)
Zu Chiplets: natürlich hat das gravierende Vorteile, auch für den Endkunden. Die 'unsanften' frametimes der antiquierten MGPU Lösungen sind a) ein Thema der fehlende Bandbreite und hohen Latenz zwischen den Chips die dann b) zu schlecht abgestimmter, asynchroner Bildausgabe führen. Chiplets auf einem PCB verkürzen die Signalwege massiv, erhöhen die Bandbreite und erhöhen vor allem die kühlbare Fläche. Ich bin sehr gespannt, was AMD im High-End zeigen wird.

Zu DLSS bin ich restlos anderer Meinung. Ab DLSS 2.0 ist es technisch absolut möglich wunderschöne Bilder bei reduzierter Compute-Anforderung auszugeben. Manche Engines und Implementationen sind besser als andere, nichtsdestotrotz halte ich den Weg über neuronale Netzwerke für extrem intelligent und auch tatsächlich effizient.
 
Zu Chiplets: natürlich hat das gravierende Vorteile, auch für den Endkunden. Die 'unsanften' frametimes der antiquierten MGPU Lösungen sind a) ein Thema der fehlende Bandbreite und hohen Latenz zwischen den Chips die dann b) zu schlecht abgestimmter, asynchroner Bildausgabe führen. Chiplets auf einem PCB verkürzen die Signalwege massiv, erhöhen die Bandbreite und erhöhen vor allem die kühlbare Fläche. Ich bin sehr gespannt, was AMD im High-End zeigen wird.

Zu DLSS bin ich restlos anderer Meinung. Ab DLSS 2.0 ist es technisch absolut möglich wunderschöne Bilder bei reduzierter Compute-Anforderung auszugeben. Manche Engines und Implementationen sind besser als andere, nichtsdestotrotz halte ich den Weg über neuronale Netzwerke für extrem intelligent und auch tatsächlich effizient.
Das mag vielleicht ein Vorteil gegenüber Klassischem MGPU (SLI) sein, aber sicher nicht gegenüber Monolithischen chips... Wie gesagt, MCD bringt hier nur Vorteile für die Produzenten...

Und wenn MGPU so "schlecht" ist, stelle ich mir die Frage warum im Profi Segment NVIDIA's DGX so'n Renner ist?

Nein, das Problem von MGPU, wenn es um Spiele geht, ist die Organisation, Lastverteilung und Synchronisation,
die bei rein mathematischen Berechnungen schlicht weniger kritisch ist. Bandbreite ist mittlerweile genug da...

PCIe 4.0 ~64GiB/s
PCIe 5.0 ~128GiB/s
NVLink 3.0 (RTX 3090/A6000) ~200GiB/s Korrektur: ~112,5GiB/s
(Sorry, da musste ich nochmal nachlesen... Da schreibt jeder was anderes... :confused:)
NVLink 3.0 (AIC A100) bis ~600GiB/s (3x 200GiB/s)
NVLINK 4.0 (SMX H100) ~900GiB/s
 
Zuletzt bearbeitet:
Um Multi-GPU-Designs bzgl. Gaming kümmert sich aktuell quasi kein SW-Entwickler mehr und das Thema war eigentlich schon längere Zeit eingemottet und scheint mit den aufkommenden Multi-Chip-GPUs nun auch entgültig tot zu sein.
Beispielsweise verfügt DirectX über drei Multi-Adapter-Modi, die jedoch alle die explizite Unterstützung des SW-Entwicklers benötigen. Und der am einfachsten zu implementierende Modus implementiert nur ein Alternate Frame Rendering und schränkt den SW-Entwickler beträchtlich ein. Die zusätzlichen beiden Explicit-Multi-Adapter-Modi fordern noch mehr direktere und umfangreichere Implementation seitens der SW-Entwickler. Darauf und weil der Marktanteil irrelevant gering ist, wird sich keiner mehr stützen wollen und so verlässt man sich nun darauf, dass die Hardware selbst besser skaliert, indem die Hersteller noch größere, leistungsfähigere "Chips" abliefern.

Multi-Chip-Modules, Chiplets, Tiles, wie auch immer, haben durchaus gesamtwirtschaftlich einen Mehrwert, denn der Markt fortdert unabhängig von den bisher schon erzielten Leistungswerten eine immer noch höhere, weiter ansteigende Leistung.
Ein Hersteller wie nVidia kann mit seinem sehr hohen Marktanteil es sich (vorerst) noch halbwegs leisten extrem große Chips nahe des Reticle-Limits zu fertigen. Für einen kleineren Hersteller wie AMD gilt das jedoch nicht *), d. h. die sind rein wirtschaftlich auf eine derartige Fertigungsanpassung früher angewiesen. AMD hat nicht umsonst so lange darauf verzichten müssen im GPU-HighEnd mitzuspielen. Mit ihrem Chiplet-Ansatz können sie mit nVidia konkurrieren, die bspw. das Geld hatten um bei TSMC einen moderneren Node zu buchen und dadurch potentiell schon einen Vorteil haben (wenn sich der N4 auch für die Lovelace-Top-GPUs bewahrheiten sollte).
Darüber hinaus wird der Bedarf für noch mehr Grafikleistung absehbar ungebrochen anhalten und die Reticle-Größe wird sich mit High-NA bereits in wenigen Jahren halbieren, d. h. die ohne (kosten)aufwändige Tricks belichtbare Chipgröße wird sich halbieren auf nur noch knapp über 400 mm2. Die steigende Transistordichte kommt da mit den Anforderungen nicht schnell genug mit, sodass man um Multi-Chip-Designs für noch mehr Leistung nicht herumkommen wird. **)

*) Und auch Intel, die natürlicherweise als Newcomer erst mal mit einem kleineren GPU-Volumen starten, ergibt sich ebenso die Notwendigkeit für eine konstengünstigere und damit effizientere und konkurrenzfähigere Fertigung, sodass auch Battlemage als 2nd Gen Xe bereits als MCM erscheinen wird. (Konkret geht man davon aus, dass das gar schon für Alchemist vorgesehen war, dann aber auf die nächste Iteration verschoben wurde.) Zumal Intel auch anfänglich mit einem sehr attraktiven Preis aufwarten muss um erste Marktanteile gewinnen zu können, was noch mehr Druck auf eine effiziente Fertigung legt.

**) Spätestens wenn einer der großen Fertiger seine Fertigung derart zu optimieren beginnt, wird der Rest des Marktes schrittweise nachziehen müssen, da man ansonsten wirtschaftlich nicht langfristig konkurrenzfähig bleiben kann.
Intels Xe ist schon von langer Hand grundsätzlich auf die Verwendung mehrere Chips ausgelegt und auch nVidia demonstrierte schon in 2019, dass die an derartigen Designs arbeiten, damals noch für ein Datacenter-Design skizziert. In der aktuellen Iteration (Hopper sowie auch Lovelace) scheint man gesamtwirtschaftlich jedoch wohl noch der Meinung zu sein, dass man noch mit einem einfacher zu fertigenden, monolithischen Design konkurrenzfähig sein kann und man wird abwarten müssen, was mit der NextGen in 2024 kommen wird. Absehbar wird dann aber auch nVidia im Consumer-HighEnd als MCM fertigen.

Somit können am Ende alle Hersteller dem Marktverlangen nach noch mehr Grafikleistung besser nachkommen, als wenn sie sich rein auf die Fortschritte in der Lithografie alleine verlassen würden.
 
Also das sehe ich etwas anders, die Verbreitung von potentiell Multi-GPU fähigen GPUs dürfte sich sicherlich
im Bereich von 80-90% Marktanteil bewegen...

Multi-GPU Technik ist so fortgeschritten wie noch nie, hat so viel Leistung wie noch nie und ist quasi universell einsetzbar. Ob man also nun zwei RTX 3080 zusammen einsetzt oder eine RX 5800XT und eine RTX 3070Ti oder
zwei RTX 3090 mit zusätzlichen NVLink Features nutzt... Sofern das Spiel/Software eine entsprechend moderne API nutzt, ist das alles kein Problem mehr.
:huh:
Bei Ampere hat nur noch die 3090 NVLink Support, bei Turing nur ab der 2080 aufwärts. Ohne NVLink kein SLI und somit kein Multi-GPU. Bei RDNA1 und 2 ist Crossfire schon lange kein Thema mehr, es gibt null Treibersupport dafür.

Multi-GPU ist tot, da kannst du hier diskutieren wie du willst.
 
Um Multi-GPU-Designs bzgl. Gaming kümmert sich aktuell quasi kein SW-Entwickler mehr und das Thema war eigentlich schon längere Zeit eingemottet und scheint mit den aufkommenden Multi-Chip-GPUs nun auch entgültig tot zu sein.
Beispielsweise verfügt DirectX über drei Multi-Adapter-Modi, die jedoch alle die explizite Unterstützung des SW-Entwicklers benötigen. Und der am einfachsten zu implementierende Modus implementiert nur ein Alternate Frame Rendering und schränkt den SW-Entwickler beträchtlich ein. Die zusätzlichen beiden Explicit-Multi-Adapter-Modi fordern noch mehr direktere und umfangreichere Implementation seitens der SW-Entwickler. Darauf und weil der Marktanteil irrelevant gering ist, wird sich keiner mehr stützen wollen und so verlässt man sich nun darauf, dass die Hardware selbst besser skaliert, indem die Hersteller noch größere, leistungsfähigere "Chips" abliefern.

Multi-Chip-Modules, Chiplets, Tiles, wie auch immer, haben durchaus gesamtwirtschaftlich einen Mehrwert, denn der Markt fortdert unabhängig von den bisher schon erzielten Leistungswerten eine immer noch höhere, weiter ansteigende Leistung.
Ein Hersteller wie nVidia kann mit seinem sehr hohen Marktanteil es sich (vorerst) noch halbwegs leisten extrem große Chips nahe des Reticle-Limits zu fertigen. Für einen kleineren Hersteller wie AMD gilt das jedoch nicht *), d. h. die sind rein wirtschaftlich auf eine derartige Fertigungsanpassung früher angewiesen. AMD hat nicht umsonst so lange darauf verzichten müssen im GPU-HighEnd mitzuspielen. Mit ihrem Chiplet-Ansatz können sie mit nVidia konkurrieren, die bspw. das Geld hatten um bei TSMC einen moderneren Node zu buchen und dadurch potentiell schon einen Vorteil haben (wenn sich der N4 auch für die Lovelace-Top-GPUs bewahrheiten sollte).
Darüber hinaus wird der Bedarf für noch mehr Grafikleistung absehbar ungebrochen anhalten und die Reticle-Größe wird sich mit High-NA bereits in wenigen Jahren halbieren, d. h. die ohne (kosten)aufwändige Tricks belichtbare Chipgröße wird sich halbieren auf nur noch knapp über 400 mm2. Die steigende Transistordichte kommt da mit den Anforderungen nicht schnell genug mit, sodass man um Multi-Chip-Designs für noch mehr Leistung nicht herumkommen wird. **)

*) Und auch Intel, die natürlicherweise als Newcomer erst mal mit einem kleineren GPU-Volumen starten, ergibt sich ebenso die Notwendigkeit für eine konstengünstigere und damit effizientere und konkurrenzfähigere Fertigung, sodass auch Battlemage als 2nd Gen Xe bereits als MCM erscheinen wird. (Konkret geht man davon aus, dass das gar schon für Alchemist vorgesehen war, dann aber auf die nächste Iteration verschoben wurde.) Zumal Intel auch anfänglich mit einem sehr attraktiven Preis aufwarten muss um erste Marktanteile gewinnen zu können, was noch mehr Druck auf eine effiziente Fertigung legt.

**) Spätestens wenn einer der großen Fertiger seine Fertigung derart zu optimieren beginnt, wird der Rest des Marktes schrittweise nachziehen müssen, da man ansonsten wirtschaftlich nicht langfristig konkurrenzfähig bleiben kann.
Intels Xe ist schon von langer Hand grundsätzlich auf die Verwendung mehrere Chips ausgelegt und auch nVidia demonstrierte schon in 2019, dass die an derartigen Designs arbeiten, damals noch für ein Datacenter-Design skizziert. In der aktuellen Iteration (Hopper sowie auch Lovelace) scheint man gesamtwirtschaftlich jedoch wohl noch der Meinung zu sein, dass man noch mit einem einfacher zu fertigenden, monolithischen Design konkurrenzfähig sein kann und man wird abwarten müssen, was mit der NextGen in 2024 kommen wird. Absehbar wird dann aber auch nVidia im Consumer-HighEnd als MCM fertigen.

Somit können am Ende alle Hersteller dem Marktverlangen nach noch mehr Grafikleistung besser nachkommen, als wenn sie sich rein auf die Fortschritte in der Lithografie alleine verlassen würden.
Ich finde es echt interessant dass hier M-GPU mit MCD verglichen wird... Was genau haben denn diese Techniken miteinander zu tun?
Die eine beschäftigt sich damit 2 unabhängige GPU's zusammen arbeiten zu lassen um die Rechenleistung zu Skalieren.
Die andere damit zum Zwecke von Kostenersparnis bei Design und Fertigung eine GPU in mehrere Teile zu trennen. Und zusätzlich eine Kostenersparnis bei der Skalierung der Chipgröße zu haben.
Also anstatt eine GA102 und eine GA104 entwickeln zu müssen, hat man z.B. eben eine GPU mit "5 Tiles"*
und eine mit 7 oder 9 oder sonst was.

Eine Nachträgliche Skalierung wie es M-GPU ermöglicht, erlaubt MCD auch nicht und ich bezweifle stark, dass
es deswegen "Sondermodelle" gibt die dann 1200W saugen (als z.B. alternative zu zwei 600W GPU's)
Sollte die Kommunikation/verlinken 2er MCD GPU's allerdings mit der selben technischen Basis auch auf größere
Entfernung möglich sein, ist das natürlich etwas anderes... Aber das halte ich für wenig realistisch.

:huh:
Bei Ampere hat nur noch die 3090 NVLink Support, bei Turing nur ab der 2080 aufwärts. Ohne NVLink kein SLI und somit kein Multi-GPU. Bei RDNA1 und 2 ist Crossfire schon lange kein Thema mehr, es gibt null Treibersupport dafür.

Multi-GPU ist tot, da kannst du hier diskutieren wie du willst.

Niemand bezweifelt das Multi-GPU beim Gaming Quasi tot ist... Die Frage ist doch aber warum?

Und nein, M-GPU ist nicht das selbe wie SLI, NvLink oder Crossfire.

Per se ist jede neuere DX12/Vulkan fähige GPU, M-GPU fähig. Die Software macht hier den Unterschied.
Also auch zwei RTX 3080 oder eine RX6800XT und eine RTX 3090 zusammen.
Diese können nur die zusätzlichen Fähigkeiten von NVLink/SLI nicht nutzen.

Also bitte nicht Aktuelles NVLink/SLI explicit M-GPU mit "Klassischem" SLI verwechseln...
 
Zuletzt bearbeitet:
Zurück