Geforce RTX 4090: Andeutungen über Tape-Out und "vorgezogene" Hopper-Features

Weil ein sehr sehr großer Aufwand das vernünftig zum laufen zu bringen und zu supporten einer winzigen Zielgruppe gegenübersteht.
Kurz: Es lohnt sich für NVidia wirtschaftlich nicht.
Ganz genau! Bei Modernem M-GPU sind die Spielehersteller bzw. die Engine Entwickler gefragt.
Selbst das Argument der fehlenden "Verbreitung" ist nur noch teilweise korrekt. Dies bezieht sich ausschließlich
auf Hardware unterstütztes NVLink/SLI wie bei der 3090.
Nun mag man sicher argumentieren dass 2 unterschiedliche Karten keine "100" Prozent Leistungszuwachs bringen,
vollkommen richtig. Aber eine 3090 bringt auch bei mehr als doppelt so hoher UVP gegenüber einer 3080 keine
100% Mehrleistung oder? Sondern ehr Klägliche 10-15%.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ich finde es echt interessant dass hier M-GPU mit MCD verglichen wird...
Du hast oben Multi-GPU-Settings aufgebracht nur interessieren diese den Markt nicht mehr wirlich, in dem Falle konkret die Entwickler, die den Mehraufwand für die Implementation nicht bereit sind auf sich zu nehmen, zumal auch nur noch die wenigsten Anwender mehr als eine dedizierte GPU in ihrem PC verbaut haben.
Insofern ist es "interessant" warum du nun mit so einer Erklärung ankommst. Aber vielleicht missverstehe ich deinen Punkt aber auch nur. Konkretisiere den dann doch noch mal bitte.

Und um das vorwegzunehmen:
  • MCM- bzw. Chiplet-Designs helfen AMD früher konkurrenzfähiger auftreten zu können und davon hat selbstredend auch der Anwender etwas.
  • MCM-Desings wie die Top-RNDA3-Modelle oder bspw. Battlemage könnte man selbstredend auch in ein Multi-GPU-Setup zwängen; wenn die Treiber und vor allem die SW-Entwickler das unterstützen wollten. Das ginge durchaus. Nur wird man das wahrscheinlich nicht mehr anbieten, weil Kosten/Nutzen für den kleinen Marktanteil viel zu schlecht ausfallen und nicht mehr ausreichend werbewirksam sind.
  • Und es wird vorerst absehbar keine auf einem halben Dutzend Chips basierende GPUs geben, weil der Inter-Chip-Kommunikationsaufwand über diese Bridges deutliche Kosten mit sich bringt, die man zu minimieren versuchen wird. Bei AMD wird man aus dem Grunde absehbar nur zwei Compute-Chiplets zu sehen bekommen und es ist die Frage ob deren (und auch Intels) erste Implementation hardware- wie auch softwaretechnisch überhaupt in der Lage sein wird den Workload über so viele Chips sinnvoll zu verteilen und Cache-Kohärenz und Latenzen in einem akzeptablen Rahmen zu halten. (GPUs sind da noch mal ein etwas anderes Thema als CPUs, was auch ein Grund ist, warum diese Art der Fertigung so "spät" aufgegriffen wird.)
  • Zudem, die reine Wafer-Fertigung kann durch eine Aufteilung effizienter erfolgen, jedoch verteuert sich das Testing und Packaging. Das ist ein Trade-Off und die Hersteller müssen hier abwägen zu welcher Zeit welche einzelnen Punkte wie viel Gewicht in die Waagschale werfen um sich für eine Produktentwicklung auf die eine oder andere Art zu entscheiden. Beispielsweise nVidia hat den Mehraufwand durch ein MCM für sich offensichtlich als noch nicht gerechtfertigt bewertet.
Nachtrag: Dein oberer Link von Gamers Nexus sagt es doch schon gleich zu Beginn recht deutlich: "massive Probleme bzgl. der Einrichtung weil kaum noch Unterstützt ... nVidia hat SLI offiziell für veraltet erklärt".
Letzten Endes auch ein wirtschaftliches Problem, denn eine größere GPU funktioniert immer und bringt ihre Mehrleistung auf den Bildschirm, setzt man dagegen auf ein Tandem ist man auf direkte Unterstützung angewiesen und fehlt diese, dümpelt die zweite GPU nutzlos im Rechner rum und man hat nichts von der zusätzlichen Investition.
Vielleicht kann ja 8K das Thema irgendwann noch mal wiederbeleben. ;-)
 
Zuletzt bearbeitet:
Du hast oben Multi-GPU-Settings aufgebracht nur interessieren diese den Markt nicht mehr wirlich, in dem Falle konkret die Entwickler, die den Mehraufwand für die Implementation nicht bereit sind auf sich zu nehmen, zumal auch nur noch die wenigsten Anwender mehr als eine dedizierte GPU in ihrem PC verbaut haben.
Insofern ist es "interessant" warum du nun mit so einer Erklärung ankommst. Aber vielleicht missverstehe ich deinen Punkt aber auch nur. Konkretisiere den dann doch noch mal bitte.

Und um das vorwegzunehmen:
  • MCM- bzw. Chiplet-Designs helfen AMD früher konkurrenzfähiger auftreten zu können und davon hat selbstredend auch der Anwender etwas.
  • MCM-Desings wie die Top-RNDA3-Modelle oder bspw. Battlemage könnte man selbstredend auch in ein Multi-GPU-Setup zwängen; wenn die Treiber und vor allem die SW-Entwickler das unterstützen wollten. Das ginge durchaus. Nur wird man das wahrscheinlich nicht mehr anbieten, weil Kosten/Nutzen für den kleinen Marktanteil viel zu schlecht ausfallen und nicht mehr ausreichend werbewirksam sind.
  • Und es wird vorerst absehbar keine auf einem halben Dutzend Chips basierende GPUs geben, weil der Inter-Chip-Kommunikationsaufwand über diese Bridges deutliche Kosten mit sich bringt, die man zu minimieren versuchen wird. Bei AMD wird man aus dem Grunde absehbar nur zwei Compute-Chiplets zu sehen bekommen und es ist die Frage ob deren (und auch Intels) erste Implementation hardware- wie auch softwaretechnisch überhaupt in der Lage sein wird den Workload über so viele Chips sinnvoll zu verteilen und Cache-Kohärenz und Latenzen in einem akzeptablen Rahmen zu halten. (GPUs sind da noch mal ein etwas anderes Thema als CPUs, was auch ein Grund ist, warum diese Art der Fertigung so "spät" aufgegriffen wird.)
  • Zudem, die reine Wafer-Fertigung kann durch eine Aufteilung effizienter erfolgen, jedoch verteuert sich das Testing und Packaging. Das ist ein Trade-Off und die Hersteller müssen hier abwägen zu welcher Zeit welche einzelnen Punkte wie viel Gewicht in die Waagschale werfen um sich für eine Produktentwicklung auf die eine oder andere Art zu entscheiden. Beispielsweise nVidia hat den Mehraufwand durch ein MCM für sich offensichtlich als noch nicht gerechtfertigt bewertet.
Du bist also in einer Zeit in der AMD und Nvidia 1000€ und 2000€ GPU's auf den Markt bringen der Meinung es gibt dafür keinen Markt? Scheinbar gibt es sogar Leute die 3000€ für die Dinger ausgeben
oder 1500€ für 3080er... :schief: Dass wir weitestgehend hier vom Enthusiasten-Markt reden ist doch wohl einleuchtend.

Leistung wollen die Leute immer mehr...

Nein, das was Klassisches SLI/Crossfire gekillt hat, sind schlechte Unterstützung seitens der Spielehersteller,
Mikroruckeln, also "verpulverte" Performance und mangelnde Vorteile als Aufrüstoption.

Letzteres wurde sowohl durch die letzte Iteration von NVLink und Explicit-MGPU quasi eleminiert.
Nicht nur ist z.B. die 3090 memory pooing fähig, hat also bei NVLink 48GB VRAM zur Verfügung.
Explicit-MGPU ist generell auch mit verschiedenen GPUs verschiedener Hersteller möglich. Hier ist also die Unterstützung der Engine der Knackpunkt. Man hätte also durchaus bei Unterstützung die Möglichkeit seine alte GPU weiter zu nutzen und so etwas Geld zu sparen. Aber auch hier der Fingerzeig an die Entwickler. Denn Prinzipiell reden wir ja von universal Recheneinheiten. Entsprechenden Willen vorausgesetzt, könnte man eine zusätzliche GPU auch für KI, Physik, Kantenglättung oder sonst was einsetzen... Und eine alte GPU hat potentiell
jeder Aufrüstwillige daheim oder? :hmm:

Was Mikroruckeln angeht, nun da scheint es auch bei der aktuellen Generation gar nicht so schlecht auszusehen,
auch wenn ich nicht glaube dass es Perfekt läuft. Hier wäre sicher mehr möglich. Aber ohne Forschung wird das nichts. Hier hat man schlicht von Anfang an zu wenig Innovationswillen gezeigt die Technik und Verfahren weiter zu entwickeln.
Und Heute sind es eben die Engine Entwickler und Spielehersteller die den Aufwand scheuen. Da sehe ich eher
Engine Entwickler wie Epic in der Pflicht...

Und Solange man das über Jahre verlorene Vertrauen der Kunden nicht wieder herstellen kann, durch "Marktreife" Technik und entsprechendes Marketing, das die Vorteile hervorhebt, wird das natürlich nichts.

Und was MCD angeht, sehe ich für mich immer noch keine Vorteile... Außer dass der Entwicklungs- und Fertigungsaufwand weniger wird. Und? Sind die CPUs jetzt günstiger geworden? Eher nicht oder... ?
Wenn's also weder den Preis merklich drückt, noch die Effizienz steigert, habe ich als
Kunde rein gar nichts von einer "innovativen Technik"... Interessant hin oder her... =)
 
Na ja, es wird spannend, Lederjacken Jens... sollte man trotz noch nicht vorhandenem MCM Design nicht abschreiben.

Aber was die Effizienz anbelangt ist es einfach unmöglich dagegen zu bestehen, daher auch die Gerüchte das der AD102 um die 600W verbrauchen soll.

Sollte FSR2 den qualitativen Unterschied in etwa egalisieren können und die Raytracing performance den Gerüchten entsprechend steigern. Könnte sich die mangelhafte Effizienz für Nvidia noch als Bumerang erweisen.
Denn irgendwo ist eine Grenze die man besser nicht überschreiten sollte, falls die 600W (bzw. je nach Model sogar noch mehr) stimmen sollten bewegen sie sich damit definitiv auf dünnem Eis.

Persönlich glaube ich ja, obwohl ich dafür sicherlich nicht die Zielgruppe bin.
Das 600W einfach für die Meisten der Enthusiasten zu viel des guten ist. Kann mich da auch Täuschen aber die sonstigen Argumente müssten da schon außergwöhnlich überzeugen um diesen Makel kaschieren können.

Ich meine das auch nicht nur auf Nvidia bezogen wenn AMD mit einer Karte daher käme doe 600W benötigt, könnte ich das ebenso wenig tolerieren selbst wenn sie doppelt so schnell wie die Konkurrenz wäre.
 
Na ja, es wird spannend, Lederjacken Jens... sollte man trotz noch nicht vorhandenem MCM Design nicht abschreiben.

Aber was die Effizienz anbelangt ist es einfach unmöglich dagegen zu bestehen, daher auch die Gerüchte das der AD102 um die 600W verbrauchen soll.

Sollte FSR2 den qualitativen Unterschied in etwa egalisieren können und die Raytracing performance den Gerüchten entsprechend steigern. Könnte sich die mangelhafte Effizienz für Nvidia noch als Bumerang erweisen.
Denn irgendwo ist eine Grenze die man besser nicht überschreiten sollte, falls die 600W (bzw. je nach Model sogar noch mehr) stimmen sollten bewegen sie sich damit definitiv auf dünnem Eis.

Persönlich glaube ich ja, obwohl ich dafür sicherlich nicht die Zielgruppe bin.
Das 600W einfach für die Meisten der Enthusiasten zu viel des guten ist. Kann mich da auch Täuschen aber die sonstigen Argumente müssten da schon außergwöhnlich überzeugen um diesen Makel kaschieren können.

Ich meine das auch nicht nur auf Nvidia bezogen wenn AMD mit einer Karte daher käme doe 600W benötigt, könnte ich das ebenso wenig tolerieren selbst wenn sie doppelt so schnell wie die Konkurrenz wäre.
AMD werden für RDNA3 ähnliche TDPs nachgesagt, laut Gerüchteküche.
 
Das 600W einfach für die Meisten der Enthusiasten zu viel des guten ist. Kann mich da auch Täuschen aber die sonstigen Argumente müssten da schon außergwöhnlich überzeugen um diesen Makel kaschieren können.
Man wird die Karten aufgrund des "haben-wollen" und des Statussymbols ganz sicher aufkaufen, bis es keine mehr gibt. Dann wird man in den Foren überall ganz stolz seine Benchmarks präsentieren und später im Privaten insgeheim im Afterburner den Spannungsregler soweit nach links reißen wie's geht und ggf das Powerlimit noch reinknallen, weil 600W einfach geisteskrank sind.

Kann mir nicht vorstellen, dass viele Gamer, die ihren Strom selbst bezahlen müssen und ihn nicht von Mama und Papa beziehen, ihre Karten dauerhaft wirklich auf 600W rösten. Erstmal bringt's das eh nur marginal und zweitens bekommt man im Case auch ein heftiges Temperaturproblem. Und teuer ist es auch, wenn der PC beim zocken ~1kW aus der Dose zieht.

Man kann damit natürlich im kommenden Winter heizen, wenn das Gas teuer (oder gar rationiert :devil:) wird, aber die neuen Stromverträge sind ja jetzt mittlerweile auch schon bei über 40ct. Muss man dann abwägen, was billiger ist. Heizung oder Grafikkarte. :D
 
Mich würde mal interessieren ob ein 1000w Netzteil für die 4070/80 reicht oder man dort schon 2000 benötigt bei den wattzahlen heute
 
Zurück