AMD Navi 31: Nächstes Flaggschiff angeblich mit 160 CUs und zwei Chiplets

Ja, ne. Ist klar.

Gebe dem Gerücht 0% Wahrscheinlichkeit.

Allein der Zeitpunkt für Gerüchte ist imo viel zu früh, als da irgendetwas wahren dran sein würde.
Die Grafikkarten werden wieder Okt.-Nov 2022 erscheinen. Das sind 1,5 Jahre.

Und dann rechne ich für das Top Modell maximal 70% Leistung, als die der RX6900XT aus.

Denke man sollte trotz 5nm Fertigung etwas die Füße stillhalten.
 
Ich wäre verwundert, wenn AMD plötzlich zu Samsung wechseln würde. Die sind dafür zu klein und haben mit ihrem wachsenden Fertigungsvolumen jetzt gerade einen Punkt erreicht, an dem die bei TSMC etwas mehr Gewicht erlangen und das solllen sie nun wieder aufgeben, indem sie GPUs auslagern? Halte ich eher für unwahrscheinlich.
Und die Tags Chiplet, EUV, Samsung und 4nm haben zweifellos nichts mit den RDNA2-Produkten zu tun. Dass dagegen nVidia bei Samsung bleibt bzgl. seiner Consumer-Produkte ist durchaus im Bereich des Möglichen.
was an "in den Tags steht nur Blödsinn, damit WCCFtech keine Artikel draus machen kann" verstehst du nicht?

in dem Artikel stand nichts von Chiplets, Samsung oder 4nm

es ging um Navi21
 
Hast du eine Quelle hierzu, die das belegt oder aber den vollständigen Originalartikel von Charlie?
Entsprechend unsinnige Tags finden sich in anderen News von ihm, soweit ableitbar, nicht und diese Tags wären extrem irreführend gewesen, wenn der Artikel nicht auch einen entsprechenden Inhalt gehabt hätte. Es mag sein, dass der sich zum Teil auf Navi21 bezog, für darüber hinausgehende behauptung hätte ich dann aber schon etwas mehr Details haben wollen.

Unterm Strich stand aber auch nicht ohne Grund in meinem ursprünglichen Post ein "könnte" und absehbar werden diese neuartigen GPU-Designs mehr Vorlaufzeit brauchen.
Beispielsweise vom GP100 wurde ein TapeOut rund 1 Jahr vor dem Release bekannt, komplexe Server-CPUs (insbesondere aufgrund der Plattform) haben generell höhere Vorlaufzeiten, so Rome mit seinem TapeOut Mitte 1Q18 und Milan hatte sein TapeOut bereits etwa März/April 2019. Und bspw. Alder Lake CPUs befinden sich bereits seit Ende Oktober bei ausgewählten Kunden vor Ort.

@ZeXes: "Gebe dem Gerücht 0% Wahrscheinlichkeit." Dass eine derart absolute (selbst umgangssprachliche) Aussage unsinnig ist, ist dir aber schon klar, oder? Da alle drei großen Hersteller bekanntermaßen an dem Thema arbeiten ist es absurd zu sagen, dass absolut keine Möglichkeit für ein Zutreffen dieses Leaks besteht ... zumal auch noch Imagination Technogies im Mobil-Markt bereits ein konkretes Produkt dieser Art veröffentlicht hat. Zumindest ein "(sehr) gering" hättes du dir schon einräumen sollen bzw. eher gar müssen, wenn man deine Aussage ernst nehmen soll.
 
Zuletzt bearbeitet:
@BigBoymann
Herablassend sollte das nicht sein, sorry^^

1.) Ja ok, dann halt 235. Dennoch nutzt man diese Chips natürlich nicht 1:1 in der gleichen Konfiguration sondern eben eher bei 300 MHz weniger und weit unter 200W pro GPU.
2.) Diese Prozentwerte beziehen sich immer auf die gleiche Performance auf Transistorebene - was hier nicht der Fall sein wird. -20% l´Leistungsaufnahme bei 100% Performance können genausogut -40% Leistungsaufnahme bei 90% Performance sein.
3.) Der Interconnecht ist bereits vorhanden bei Navi21 zum Infinitycache, da muss nix neues rein.
4.) Den Verbrauch erhöht mehr vRAM nur wenn du mehr Steine verwendest. Nutzt du 2 GB-Steine statt 1 GB-Steine und eben jeweils 16 davon bleibt der Verbrauch (annähernd) gleich bei 32 statt 16GB.
5.) Eine Interfaceverbreiterung ist nicht zwingend nötig wenn der IF-Cache groß genug ist und der Speicher ausreichend schnell - bei nem echten MCM würde man auch eher HBM zwischen den Dice verwenden statt GDDR6 was nochmal deutlich sparsamer wäre wie bei den Karten im Profibereich). Ist halt die Frage was sowas 2023 kostet.

Dass man mit all dem keine doppelte leistung bekommt verglichen zur 6900XT sehe ich auch so, das ist nur möglich wenn RDNA3 die IPC nochmal deutlich erhöphen könnte zu RDNA2. Aber dass man zwingend hier auf 400W und mehr kommen muss ist genauso Quatsch. Grade AMD hat sich zuletzt eigentlich sehr zurückhaltend gezeigt. Man hätte wenn man gewollt hätte auch 350 oder gart 400W in die 6900XT schieben können und mit selektierten Chips die 2,5+ GHz laufen die RTX3090 über weite Strecken schlagen können. Trotzdem hat man diesen ich nenns mal "Prestigesieg" einfach liegenlassen und ist (im Gegensatz zu NV) im 300W-Korsett geblieben.
Alles gut.

zu 1) das denke ich auch
zu 2) klar, geht aber irgendwie in Punkt 1 schon auf. Wenn du den Takt und Voltage senkst, dann verbraucht der imaginäre Chip schon weniger, davon kann man dann nochmal 20% abziehen
zu 3) bin mir eigentlich sicher, dass da mehr hinter stecken muss, ansonsten wäre die Frage wer verteilt die Arbeit auf die Chips?
zu 4) schon klar, auch wenn größere Chips in der Regel etwas mehr verbrauchen, so wird dies keinen nennenswerten Einfluss haben. Bleibt die Bandbreitenthematik
womit wir
zu 5) kommen, wenn das Interface bei 256Bit bleibt, kann man doppelt so große Chips verbauen und würde den Verbrauch nicht signifikant anheben. Ich denke aber, dass wir bereits bei der 6800XT/6900XT eine Begrenzung des Caches sehen, anders kann ich mir die durchaus signifikante Entwicklung des Abstandas zwischen einer 3080 und 6800XT nicht erklären, unter Full HD gleichauf, unter 4K mit großem Rückstand. Denke, dass dies einer Limitierung der Möglichkeiten des doch recht schmalen Interfaces geschuldet ist. Noch dazu wird aktuell noch langsamer GDDR6 Speicher verbaut, das würde sich vermutlich auch bei der neuen Generation ändern, denke da statt aktuell 16GBPs Chips eher an 20Gpbs Chips.

Bzgl. deiner These, dass man diese Möglichkeit mit dem engen Korsett hat liegen lassen, das sehe ich grundlegend anders. Ich hab lange mit mir gerungen, jetzt hab ich aber doch die 6900XT bestellt. Sie bietet mir einfach eine großartige Möglichkeit die Effizienz zu steigern, mit Undervolting verliert diese kaum an Leistung, man kommt aber deutlich unter 260W Leistungsaufnahme unter Last. Finde ich persönlich wichtiger als die letzten 5% Leistung, die eh niemals den Unterschied zwischen Spielbar und nicht Spielbar machen. Ich finde die 6900XT gut so wie sie ist, wenn auch zu teuer, aber einmal im Leben muss man aus dem vollen schöpfen
 
ansonsten wäre die Frage wer verteilt die Arbeit auf die Chips?
Das ist eine der zu lösenden Hauptaufgaben dieser Designs wo seit jahrzehnten dran getüftelt wird. Wie kriege ich mehrere Chip(let)s vernünftig ausgelastet und das auch noch so perfekt synchron im Workload dass die Ergebnisse trotz dynamsich stark unterschiedlichen rechenaufwänden zeitgleich verfügbar sind und damit keine Mikroruckler entstehen. Nach wie vor spannend wie (bzw. erst mal ob^^) AMD und NV das lösen.
doch die 6900XT bestellt. Sie bietet mir einfach eine großartige Möglichkeit die Effizienz zu steigern, mit Undervolting verliert diese kaum an Leistung, man kommt aber deutlich unter 260W Leistungsaufnahme unter Last. Finde ich persönlich wichtiger als die letzten 5% Leistung, die eh niemals den Unterschied zwischen Spielbar und nicht Spielbar machen.
Klar, praktisch ist der Nutzen davon begrenzt bis Null so ne abartige Karte zu machen. Aber AMD hätte ein reines Prestigeobjekt schaffen können einfach um nach vielen Jahren zu sagen "wir haben die schnellste Grafikkarte". Ne "RX6950XTX CEO EDITION" oder irgend son Ding mit selektierter 80CU-GPU mit 400W und 2,75 GHz Gameboost plus AiO-Kühlung für 1999$, limitiert auf 1.000 Stück. BÄM.
Klar ist das technisch Käse aber nur um Jensens Gesicht zu sehen hätte Lisa sowas machen können. :haha:
 
Hast du eine Quelle hierzu, die das belegt oder aber den vollständigen Originalartikel von Charlie?
Entsprechend unsinnige Tags finden sich in anderen News von ihm, soweit ableitbar, nicht und diese Tags wären extrem irreführend gewesen, wenn der Artikel nicht auch einen entsprechenden Inhalt gehabt hätte. Es mag sein, dass der sich zum Teil auf Navi21 bezog, für darüber hinausgehende behauptung hätte ich dann aber schon etwas mehr Details haben wollen.

Unterm Strich stand aber auch nicht ohne Grund in meinem ursprünglichen Post ein "könnte" und absehbar werden diese neuartigen GPU-Designs mehr Vorlaufzeit brauchen.
Beispielsweise vom GP100 wurde ein TapeOut rund 1 Jahr vor dem Release bekannt, komplexe Server-CPUs (insbesondere aufgrund der Plattform) haben generell höhere Vorlaufzeiten, so Rome mit seinem TapeOut Mitte 1Q18 und Milan hatte sein TapeOut bereits etwa März/April 2019. Und bspw. Alder Lake CPUs befinden sich bereits seit Ende Oktober bei ausgewählten Kunden vor Ort.
kann dir leider keine Quelle geben

der Artikel wurde damals auf Reddit gepostet und dann ganz schnell von den Mods wieder gelöscht

es ging um eine 7nm AMD GPU welche etwas größer als 500mm² sein sollte


ob du das jetzt glaubst ist natürlich deine Sache ^^


und von Tapeout zu kaufenbar vergeht bei GPUs ja meistens ~1 Jahr

so auch bei Navi21 (etwas länger durch Cororna)
 
Ich glaube, dass dem Jensen da schon so ein bisschen was aus dem Gesicht gefallen ist, immerhin hat AMD es in einer Generation geschafft den Effizienz Nachteil umzukehren und das obwohl beide nominell auf der gleichen Prozessstufe stehen. (Samsungs Prozess ist aber klar schlechter). Nvidia hat AMD schlicht unterschätzt.

Ich glaube, dass so Doppel GPU Designs durchaus richtungsweisend werden. So lange einer am Markt aber monolithisch unterwegs ist wird die Marktimplementierung schwierig. Letztlich hat man bereits bei Ryzen gesehen, dass man im Sinne der MCM Designentscheidung einen Schritt zurück musste um Intel das Wasser zu reichen (auf 8 Kerne pro CCX)

Es wird in meinen Augen entschieden auf die Softwareentwicklung ankommen, denn ein Großteil des Workloads wird schon im Bereich der Software optimiert und verteilt werden können. Evtl. ist aber auch die KI das was wir brauchen und des Rätsels Lösung.
 
Ich glaube, dass dem Jensen da schon so ein bisschen was aus dem Gesicht gefallen ist, immerhin hat AMD es in einer Generation geschafft den Effizienz Nachteil umzukehren und das obwohl beide nominell auf der gleichen Prozessstufe stehen. (Samsungs Prozess ist aber klar schlechter). Nvidia hat AMD schlicht unterschätzt.

Ich glaube, dass so Doppel GPU Designs durchaus richtungsweisend werden. So lange einer am Markt aber monolithisch unterwegs ist wird die Marktimplementierung schwierig. Letztlich hat man bereits bei Ryzen gesehen, dass man im Sinne der MCM Designentscheidung einen Schritt zurück musste um Intel das Wasser zu reichen (auf 8 Kerne pro CCX)

Es wird in meinen Augen entschieden auf die Softwareentwicklung ankommen, denn ein Großteil des Workloads wird schon im Bereich der Software optimiert und verteilt werden können. Evtl. ist aber auch die KI das was wir brauchen und des Rätsels Lösung.
a) Ich glaube eher nicht, dass da irgenwem was "aus dem Gesicht gefallen sein wird". Die werden als marktführender GPU-Hersteller sehr genau abschätzen können was die Konkurrenz voraussichtlich plant und deren Designs umfangreich ananlysierne und dementsprechend auch selbst hochrechnen, was davon ausgehend die nächsten Schritte sein werden (wie AMD und Intel auch) und RDNA2 wird grundlegend nicht für nVidia überraschend gewesen sein können, da die Hardware schon seit Mitte 2019 bei Kunden im Umlauf war in Form der Konsolen. Beispielsweise inbesondere NVs SI-Entscheidung deutet sehr stark darauf hin, dass man schon von langer Hand wusste, dass das bei AMD etwas wie 256 Bit mit 16 GiB Speicher werden (und die GPUs dann natürlich einen größeren Cache brauchten). An der Architektur selbst hat sich aber nach bisherigem Kenntnisstand seit 2018 nichts mehr bei AMD an RDNA2 geändert.

b) Gerade hier wird es eigentlich genau umgekehrt sein. Sobald der erste Hersteller mit einem MCM-Design vorprescht wird er, wenn er die damit verbundenen Probleme zufriedenstellend lösen konnte, den anderen davonziehen und das bedeutet, dass hier alle zwingend am Ball bleiben müssen und das bedeutet wiederum, dass alle drei derzeit mit hohen Engagement an dem MCM-Thema dran sind und dass man voraussichtlich in relativ kurzer Folge von allen Herstellern entsprechende Designs zu sehen bekommen wird.
Beispielsweise alleine schon Intel's Bestrebungen und die nachweisliche Funktionaität ihres Xe-HP mit 4 Tiles (sicherlich kein Stromsparwunder ;-)) dürften AMD und nVidia genügend Feuer unterm Hintern machen, damit die Gas geben, denn möglicherweise könnte Intel, nachdem sie vielleicht erst im LowEnd/Midrange mit einem Produkt auf Basis von HGP starten, dann doch plötzlich die Entwickung auch auf HPG übertragen und mit MCM-Designs daherkommen. Da wollen sich zweifellos weder AMD noch nVidia überraschen lassen und da es keine kurzfristigen Reaktionsmöglichkeiten bei derartigen Produkten gibt, bleibt nun nur konkret die nächste/kommende Generation oder halt die übernächste (2024?) ins Auge zu fassen.

c) "Software" hängt hier davon ab, was du damit meinst. Dem aktuellen Verständnis nach werden diese GPUs vollkommen tranparent für die Applikationen als eine einzige, große GPU auftreten. jedoch in den Treibern wird es voraussichtlich mehr Arbeit zu erledigen geben. Möglicherweise wird auch Micrsooft in DirectX noch ein wenig Hand anlegen, aber im Idealfall sollte die eigentliche Software davon unberührt sein, was auch grundsätzlich so sein muss, denn derartige Designs werden zuerst im HighEnd Einzug halten, d. h. sämtliche Software müsste andernfalls zusätzliche Programmflussweichen für dieses (vorerst) kleine Marktsegment enthalten, die bestimmen, ob man auf einer Single- oder MC-GPU läuft und das werden Entwickler eher zu vermeiden suchen (siehe die eher geringe Multi-GPU-Unterstützung).
 
Bin gespannt, ob meine 5700XT noch bis RDNA3 bleiben darf, oder ob es vorher noch vernünftigere Preise für RDNA2 in H1/2021 geben wird :ugly:
 
funktioniert Raytracing denn mittlerweile ordentlich, mit den Navis - oder wird das doch erst frühestens nächste Gen. was?

Ja, das RT wird auch schmerzlich bei den 12-15 Titeln vermißt, wo es das gibt. :D Da kannst wohl noch 1-2 Generationen abwarten, bis da alle neuen Spiele damit laufen, eventuell auch länger, oder wenn das soviel Performance kostet und die Karten so verteuert, nie alle Titel erfaßt. Auch net schlimm, man braucht es ja nicht.
 
a) Ich glaube eher nicht, dass da irgenwem was "aus dem Gesicht gefallen sein wird". Die werden als marktführender GPU-Hersteller sehr genau abschätzen können was die Konkurrenz voraussichtlich plant und deren Designs umfangreich ananlysierne und dementsprechend auch selbst hochrechnen, was davon ausgehend die nächsten Schritte sein werden (wie AMD und Intel auch) und RDNA2 wird grundlegend nicht für nVidia überraschend gewesen sein können, da die Hardware schon seit Mitte 2019 bei Kunden im Umlauf war in Form der Konsolen. Beispielsweise inbesondere NVs SI-Entscheidung deutet sehr stark darauf hin, dass man schon von langer Hand wusste, dass das bei AMD etwas wie 256 Bit mit 16 GiB Speicher werden (und die GPUs dann natürlich einen größeren Cache brauchten). An der Architektur selbst hat sich aber nach bisherigem Kenntnisstand seit 2018 nichts mehr bei AMD an RDNA2 geändert.

b) Gerade hier wird es eigentlich genau umgekehrt sein. Sobald der erste Hersteller mit einem MCM-Design vorprescht wird er, wenn er die damit verbundenen Probleme zufriedenstellend lösen konnte, den anderen davonziehen und das bedeutet, dass hier alle zwingend am Ball bleiben müssen und das bedeutet wiederum, dass alle drei derzeit mit hohen Engagement an dem MCM-Thema dran sind und dass man voraussichtlich in relativ kurzer Folge von allen Herstellern entsprechende Designs zu sehen bekommen wird.
Beispielsweise alleine schon Intel's Bestrebungen und die nachweisliche Funktionaität ihres Xe-HP mit 4 Tiles (sicherlich kein Stromsparwunder ;-)) dürften AMD und nVidia genügend Feuer unterm Hintern machen, damit die Gas geben, denn möglicherweise könnte Intel, nachdem sie vielleicht erst im LowEnd/Midrange mit einem Produkt auf Basis von HGP starten, dann doch plötzlich die Entwickung auch auf HPG übertragen und mit MCM-Designs daherkommen. Da wollen sich zweifellos weder AMD noch nVidia überraschen lassen und da es keine kurzfristigen Reaktionsmöglichkeiten bei derartigen Produkten gibt, bleibt nun nur konkret die nächste/kommende Generation oder halt die übernächste (2024?) ins Auge zu fassen.

c) "Software" hängt hier davon ab, was du damit meinst. Dem aktuellen Verständnis nach werden diese GPUs vollkommen tranparent für die Applikationen als eine einzige, große GPU auftreten. jedoch in den Treibern wird es voraussichtlich mehr Arbeit zu erledigen geben. Möglicherweise wird auch Micrsooft in DirectX noch ein wenig Hand anlegen, aber im Idealfall sollte die eigentliche Software davon unberührt sein, was auch grundsätzlich so sein muss, denn derartige Designs werden zuerst im HighEnd Einzug halten, d. h. sämtliche Software müsste andernfalls zusätzliche Programmflussweichen für dieses (vorerst) kleine Marktsegment enthalten, die bestimmen, ob man auf einer Single- oder MC-GPU läuft und das werden Entwickler eher zu vermeiden suchen (siehe die eher geringe Multi-GPU-Unterstützung).
Da hast du mich vieleicht ein bischen zu wörtlich genommen oder ich hab es nicht klar formuliert.

Ich gehe auch nicht davon aus, dass Jensen am Tag des Release überrascht wurde, sondern diese Überraschung durchaus vorher eingetreten ist. Nicht umsonst haben sie mit der 3080 die Takt und Verbrauchsschraube dermaßen angezogen, sie wussten scheinbar ziemlich genau wo AMD landen wird und dies wurde entsprechend in den letztlichen Release der Karten einbezogen. Dennoch glaube ich, dass man seitens Nvidia grundlegend überrascht war, in meinen Augen war dies auch deutlich nach 2019 der Fall, denn es scheint mir schon so, dass die Änderungen am Leistungsverbrauch etwas zu schnell umgesetzt werden mussten, so dass es nunmal am Anfang extreme Probleme bei einigen Karten gab. Ich weiß auch nicht, inwieweit man von den Konsolen (2019 waren dort aber doch auch nur maximal Betakonsolen verteilt?) auf die letztliche BigNavi schließen kann. Keine Ahnung in wieweit Cache usw. bereits dort seine Spuren hinterlassen hat.

Bzgl. eines MCM Design kann deine Variante sicherlich zutreffen, Ryzen, bzw. Zen hat uns aber doch eines besseren belehrt. Intel zieht nicht nach, 4 Jahre sind jetzt sein Zen 1 vergangen und auch in 2022 und 2023 kommt nichts in der Richtung und das obwohl man bei einer CPU den eindeutigen Vorteil des Designs erkennt, Skalierbarkeit. Im Gegenteil, AMD ist mit Zen3 wieder ein Stück zurückgegangen.
Bei Grafikkarten gibt es derzeit dazu noch das ungelöste Problem des Loadbalancing, ich glaube auch daran, dass MCM die Zukunft wird, aber in der nächsten Generation? Das bleibt für mich extrem fraglich. Ob der zweite Hersteller nachziehen wird, wird nämlich in erster Linie davon abhängen, ob der andere Erfolg hat, ich glaube nicht, dass ein "Zen1" Pendant ausreichen würde um Nvidia zum umdenken zu bringen, ähnlich der Situation bei Intel. Denn ich glaube auch, dass Intel letztlich von Zen3 überrollt wurde, zum einen die exakte Zeitlinie, die Tag auf Tag eingehalten wurde, aber auch zum anderen die wirklich gute Skalierbarkeit der CPUs. Bei Zen1 wird Intel sich sicherlich noch gedacht haben, ach ja, 8 können wir auch, an 16 Kerne im Desktop hat sicherlich noch keiner gedacht. (auch hier gehe ich nicht vom Zeitpunkt des Release aus, sondern bei Bekanntwerden von Zen1 für Intel).

Mit Software meine ich tatsächlich alles drum herum, zum einen den Treiber, zum anderen aber eben auch die Engine (ob DX, Vulkan oder sonstwas), zum anderen aber eben auch die Publisher. Ich gehe schon davon aus, dass MCM Designs grundlegend andere Stärken haben werden und demnach auch anders programmiert werden müssen. Ein gut skalierender DX12 Titel, tut dies nicht automatisch mit Vulkan und so wird es auch mit MCM sein, da wird schon in der grundlegenden Spieleengine entsprechende Arbeit einfließen müssen. Daher glaube ich nicht an einen durchschlagenden Erfolg in der nächsten oder übernächsten Generation. Auf lange Sicht wird dies aber eine Lösung sein können (wenn nicht müssen), wir nähern uns dem Ende des Shrinkens auf der heutigen Technik und entweder werden Chips dann größer, was nunmal immer die Yields extrem beeinflussen wird, oder aber man produziert viele kleine Chips, die eben eine gute Ausbeute bedeuten und wo der Preis pro mm² dann eben günstiger wird.

(siehe die eher geringe Multi-GPU-Unterstützung).
das sah auch schon mal anders aus und viele Hersteller haben sich viele Gedanken gemacht. Zu Zeiten der SLI, Crossfire und der dann folgenden DualGPU Karten wurde doch eine Menge versucht und gemacht, wenn man an die ersten Sessions mit zwei 7900GTX denkt? Das war grausam und zwischen 60 und 30fps hat man keinen wirklichen Unterschied erkannt, beides war langsam und grausam. Das hat man mit der Zeit wirklich gut überarbeitet, aber man hat eben die grundlegenden Probleme nie ablegen können. Ob man dies nun in ein oder zwei Generationen schafft? Ich glaube leider nicht daran, dagegen hätte ich aber auch nichts.

P.S.
Noch eine Ergänzung, bzw. eine Frage, technisch bist du viel weiter in der Materie als ich. Gäbe es denn nicht die Möglichkeit, RT auf eine zweite GPU auszulagern? Bei AMD können die Shader ja beides? Zumindest wenn ich das richtig verstanden habe, daher könnte man eine GPU ja nur zur RT Berechnung nutzen und die zweite davon unabhängig für die Pixel. Das wäre im Bereich RT sicherlich ein Quantensprung, dafür beraucht es aber auch deutlich mehr RT Spiele.
 
"Ordentlich" funktioniert das schon seit 2 Jahren bei NV und seit ein paar Monaten bei AMD.
Ausreichend performant um es wirklich ernsthaft zu benutzen (also mehr als ein paar Spiegelpfützen/Schatten und ohne Tricks wie DLSS) wird das geschätzt erst 2025 sein. RTX5000 / RX8000 rum. Vorher ists halt ein nettes Showcase.
Richtig. Aber^^
Sobald RT markt fähig ist und die grakas genug fps liefern kommt etwas neues. Sicher sowas wie rt2.0 das wieder die fps ins keller drückt das man gründe hat überhaupt wieder neue grakas kaufen zu müssen :D
 
Richtig. Aber^^
Sobald RT markt fähig ist und die grakas genug fps liefern kommt etwas neues. Sicher sowas wie rt2.0 das wieder die fps ins keller drückt das man gründe hat überhaupt wieder neue grakas kaufen zu müssen :D

Nö, schlicht Path Tracing, siehe Minecraft und Quake.
 
Also kann man davon ausgehen das die Zeiten von 75 Watt gpus endgültig vorbei sein werden oder gibt es da vielleicht doch noch ne Möglichkeit durch das mcm Technik auch 75 Watt gpus zu fertigen. Das wäre durchaus interessant. Man müsste also wohl 2 sehr kleine gpu Chips zusammen auf einen Chip bringen. Das würde also auch mich sehr interessieren. Da es dann auch günstiger für mich wäre und auch der Stromverbrauch nicht höher,aber dafür die leistung steigen würde. Da wäre ich somit voll dabei. Nun heißt es halt abwarten wie das Ergebnis dann am Ende dann sein wird.
 
Also kann man davon ausgehen das die Zeiten von 75 Watt gpus endgültig vorbei sein werden oder gibt es da vielleicht doch noch ne Möglichkeit durch das mcm Technik auch 75 Watt gpus zu fertigen. Das wäre durchaus interessant. Man müsste also wohl 2 sehr kleine gpu Chips zusammen auf einen Chip bringen. Das würde also auch mich sehr interessieren. Da es dann auch günstiger für mich wäre und auch der Stromverbrauch nicht höher,aber dafür die leistung steigen würde. Da wäre ich somit voll dabei. Nun heißt es halt abwarten wie das Ergebnis dann am Ende dann sein wird.
Warum genau sollte man Deiner Meinung nach denn bei so einer Karte ein MCM-Design wählen? Da wäre der klassische (monolithische) Weg doch deutlich sinnvoller?
 
Zurück