• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Navi 31: Nächstes Flaggschiff angeblich mit 160 CUs und zwei Chiplets

ZeXes

Software-Overclocker(in)
Ja, ne. Ist klar.

Gebe dem Gerücht 0% Wahrscheinlichkeit.

Allein der Zeitpunkt für Gerüchte ist imo viel zu früh, als da irgendetwas wahren dran sein würde.
Die Grafikkarten werden wieder Okt.-Nov 2022 erscheinen. Das sind 1,5 Jahre.

Und dann rechne ich für das Top Modell maximal 70% Leistung, als die der RX6900XT aus.

Denke man sollte trotz 5nm Fertigung etwas die Füße stillhalten.
 

RawMangoJuli

Volt-Modder(in)
Ich wäre verwundert, wenn AMD plötzlich zu Samsung wechseln würde. Die sind dafür zu klein und haben mit ihrem wachsenden Fertigungsvolumen jetzt gerade einen Punkt erreicht, an dem die bei TSMC etwas mehr Gewicht erlangen und das solllen sie nun wieder aufgeben, indem sie GPUs auslagern? Halte ich eher für unwahrscheinlich.
Und die Tags Chiplet, EUV, Samsung und 4nm haben zweifellos nichts mit den RDNA2-Produkten zu tun. Dass dagegen nVidia bei Samsung bleibt bzgl. seiner Consumer-Produkte ist durchaus im Bereich des Möglichen.
was an "in den Tags steht nur Blödsinn, damit WCCFtech keine Artikel draus machen kann" verstehst du nicht?

in dem Artikel stand nichts von Chiplets, Samsung oder 4nm

es ging um Navi21
 

gerX7a

Software-Overclocker(in)
Hast du eine Quelle hierzu, die das belegt oder aber den vollständigen Originalartikel von Charlie?
Entsprechend unsinnige Tags finden sich in anderen News von ihm, soweit ableitbar, nicht und diese Tags wären extrem irreführend gewesen, wenn der Artikel nicht auch einen entsprechenden Inhalt gehabt hätte. Es mag sein, dass der sich zum Teil auf Navi21 bezog, für darüber hinausgehende behauptung hätte ich dann aber schon etwas mehr Details haben wollen.

Unterm Strich stand aber auch nicht ohne Grund in meinem ursprünglichen Post ein "könnte" und absehbar werden diese neuartigen GPU-Designs mehr Vorlaufzeit brauchen.
Beispielsweise vom GP100 wurde ein TapeOut rund 1 Jahr vor dem Release bekannt, komplexe Server-CPUs (insbesondere aufgrund der Plattform) haben generell höhere Vorlaufzeiten, so Rome mit seinem TapeOut Mitte 1Q18 und Milan hatte sein TapeOut bereits etwa März/April 2019. Und bspw. Alder Lake CPUs befinden sich bereits seit Ende Oktober bei ausgewählten Kunden vor Ort.

@ZeXes: "Gebe dem Gerücht 0% Wahrscheinlichkeit." Dass eine derart absolute (selbst umgangssprachliche) Aussage unsinnig ist, ist dir aber schon klar, oder? Da alle drei großen Hersteller bekanntermaßen an dem Thema arbeiten ist es absurd zu sagen, dass absolut keine Möglichkeit für ein Zutreffen dieses Leaks besteht ... zumal auch noch Imagination Technogies im Mobil-Markt bereits ein konkretes Produkt dieser Art veröffentlicht hat. Zumindest ein "(sehr) gering" hättes du dir schon einräumen sollen bzw. eher gar müssen, wenn man deine Aussage ernst nehmen soll.
 
Zuletzt bearbeitet:

BigBoymann

Software-Overclocker(in)
@BigBoymann
Herablassend sollte das nicht sein, sorry^^

1.) Ja ok, dann halt 235. Dennoch nutzt man diese Chips natürlich nicht 1:1 in der gleichen Konfiguration sondern eben eher bei 300 MHz weniger und weit unter 200W pro GPU.
2.) Diese Prozentwerte beziehen sich immer auf die gleiche Performance auf Transistorebene - was hier nicht der Fall sein wird. -20% l´Leistungsaufnahme bei 100% Performance können genausogut -40% Leistungsaufnahme bei 90% Performance sein.
3.) Der Interconnecht ist bereits vorhanden bei Navi21 zum Infinitycache, da muss nix neues rein.
4.) Den Verbrauch erhöht mehr vRAM nur wenn du mehr Steine verwendest. Nutzt du 2 GB-Steine statt 1 GB-Steine und eben jeweils 16 davon bleibt der Verbrauch (annähernd) gleich bei 32 statt 16GB.
5.) Eine Interfaceverbreiterung ist nicht zwingend nötig wenn der IF-Cache groß genug ist und der Speicher ausreichend schnell - bei nem echten MCM würde man auch eher HBM zwischen den Dice verwenden statt GDDR6 was nochmal deutlich sparsamer wäre wie bei den Karten im Profibereich). Ist halt die Frage was sowas 2023 kostet.

Dass man mit all dem keine doppelte leistung bekommt verglichen zur 6900XT sehe ich auch so, das ist nur möglich wenn RDNA3 die IPC nochmal deutlich erhöphen könnte zu RDNA2. Aber dass man zwingend hier auf 400W und mehr kommen muss ist genauso Quatsch. Grade AMD hat sich zuletzt eigentlich sehr zurückhaltend gezeigt. Man hätte wenn man gewollt hätte auch 350 oder gart 400W in die 6900XT schieben können und mit selektierten Chips die 2,5+ GHz laufen die RTX3090 über weite Strecken schlagen können. Trotzdem hat man diesen ich nenns mal "Prestigesieg" einfach liegenlassen und ist (im Gegensatz zu NV) im 300W-Korsett geblieben.
Alles gut.

zu 1) das denke ich auch
zu 2) klar, geht aber irgendwie in Punkt 1 schon auf. Wenn du den Takt und Voltage senkst, dann verbraucht der imaginäre Chip schon weniger, davon kann man dann nochmal 20% abziehen
zu 3) bin mir eigentlich sicher, dass da mehr hinter stecken muss, ansonsten wäre die Frage wer verteilt die Arbeit auf die Chips?
zu 4) schon klar, auch wenn größere Chips in der Regel etwas mehr verbrauchen, so wird dies keinen nennenswerten Einfluss haben. Bleibt die Bandbreitenthematik
womit wir
zu 5) kommen, wenn das Interface bei 256Bit bleibt, kann man doppelt so große Chips verbauen und würde den Verbrauch nicht signifikant anheben. Ich denke aber, dass wir bereits bei der 6800XT/6900XT eine Begrenzung des Caches sehen, anders kann ich mir die durchaus signifikante Entwicklung des Abstandas zwischen einer 3080 und 6800XT nicht erklären, unter Full HD gleichauf, unter 4K mit großem Rückstand. Denke, dass dies einer Limitierung der Möglichkeiten des doch recht schmalen Interfaces geschuldet ist. Noch dazu wird aktuell noch langsamer GDDR6 Speicher verbaut, das würde sich vermutlich auch bei der neuen Generation ändern, denke da statt aktuell 16GBPs Chips eher an 20Gpbs Chips.

Bzgl. deiner These, dass man diese Möglichkeit mit dem engen Korsett hat liegen lassen, das sehe ich grundlegend anders. Ich hab lange mit mir gerungen, jetzt hab ich aber doch die 6900XT bestellt. Sie bietet mir einfach eine großartige Möglichkeit die Effizienz zu steigern, mit Undervolting verliert diese kaum an Leistung, man kommt aber deutlich unter 260W Leistungsaufnahme unter Last. Finde ich persönlich wichtiger als die letzten 5% Leistung, die eh niemals den Unterschied zwischen Spielbar und nicht Spielbar machen. Ich finde die 6900XT gut so wie sie ist, wenn auch zu teuer, aber einmal im Leben muss man aus dem vollen schöpfen
 

Incredible Alk

Moderator
Teammitglied
ansonsten wäre die Frage wer verteilt die Arbeit auf die Chips?
Das ist eine der zu lösenden Hauptaufgaben dieser Designs wo seit jahrzehnten dran getüftelt wird. Wie kriege ich mehrere Chip(let)s vernünftig ausgelastet und das auch noch so perfekt synchron im Workload dass die Ergebnisse trotz dynamsich stark unterschiedlichen rechenaufwänden zeitgleich verfügbar sind und damit keine Mikroruckler entstehen. Nach wie vor spannend wie (bzw. erst mal ob^^) AMD und NV das lösen.
doch die 6900XT bestellt. Sie bietet mir einfach eine großartige Möglichkeit die Effizienz zu steigern, mit Undervolting verliert diese kaum an Leistung, man kommt aber deutlich unter 260W Leistungsaufnahme unter Last. Finde ich persönlich wichtiger als die letzten 5% Leistung, die eh niemals den Unterschied zwischen Spielbar und nicht Spielbar machen.
Klar, praktisch ist der Nutzen davon begrenzt bis Null so ne abartige Karte zu machen. Aber AMD hätte ein reines Prestigeobjekt schaffen können einfach um nach vielen Jahren zu sagen "wir haben die schnellste Grafikkarte". Ne "RX6950XTX CEO EDITION" oder irgend son Ding mit selektierter 80CU-GPU mit 400W und 2,75 GHz Gameboost plus AiO-Kühlung für 1999$, limitiert auf 1.000 Stück. BÄM.
Klar ist das technisch Käse aber nur um Jensens Gesicht zu sehen hätte Lisa sowas machen können. :haha:
 

RawMangoJuli

Volt-Modder(in)
Hast du eine Quelle hierzu, die das belegt oder aber den vollständigen Originalartikel von Charlie?
Entsprechend unsinnige Tags finden sich in anderen News von ihm, soweit ableitbar, nicht und diese Tags wären extrem irreführend gewesen, wenn der Artikel nicht auch einen entsprechenden Inhalt gehabt hätte. Es mag sein, dass der sich zum Teil auf Navi21 bezog, für darüber hinausgehende behauptung hätte ich dann aber schon etwas mehr Details haben wollen.

Unterm Strich stand aber auch nicht ohne Grund in meinem ursprünglichen Post ein "könnte" und absehbar werden diese neuartigen GPU-Designs mehr Vorlaufzeit brauchen.
Beispielsweise vom GP100 wurde ein TapeOut rund 1 Jahr vor dem Release bekannt, komplexe Server-CPUs (insbesondere aufgrund der Plattform) haben generell höhere Vorlaufzeiten, so Rome mit seinem TapeOut Mitte 1Q18 und Milan hatte sein TapeOut bereits etwa März/April 2019. Und bspw. Alder Lake CPUs befinden sich bereits seit Ende Oktober bei ausgewählten Kunden vor Ort.
kann dir leider keine Quelle geben

der Artikel wurde damals auf Reddit gepostet und dann ganz schnell von den Mods wieder gelöscht

es ging um eine 7nm AMD GPU welche etwas größer als 500mm² sein sollte


ob du das jetzt glaubst ist natürlich deine Sache ^^


und von Tapeout zu kaufenbar vergeht bei GPUs ja meistens ~1 Jahr

so auch bei Navi21 (etwas länger durch Cororna)
 

BigBoymann

Software-Overclocker(in)
Ich glaube, dass dem Jensen da schon so ein bisschen was aus dem Gesicht gefallen ist, immerhin hat AMD es in einer Generation geschafft den Effizienz Nachteil umzukehren und das obwohl beide nominell auf der gleichen Prozessstufe stehen. (Samsungs Prozess ist aber klar schlechter). Nvidia hat AMD schlicht unterschätzt.

Ich glaube, dass so Doppel GPU Designs durchaus richtungsweisend werden. So lange einer am Markt aber monolithisch unterwegs ist wird die Marktimplementierung schwierig. Letztlich hat man bereits bei Ryzen gesehen, dass man im Sinne der MCM Designentscheidung einen Schritt zurück musste um Intel das Wasser zu reichen (auf 8 Kerne pro CCX)

Es wird in meinen Augen entschieden auf die Softwareentwicklung ankommen, denn ein Großteil des Workloads wird schon im Bereich der Software optimiert und verteilt werden können. Evtl. ist aber auch die KI das was wir brauchen und des Rätsels Lösung.
 

gerX7a

Software-Overclocker(in)
Ich glaube, dass dem Jensen da schon so ein bisschen was aus dem Gesicht gefallen ist, immerhin hat AMD es in einer Generation geschafft den Effizienz Nachteil umzukehren und das obwohl beide nominell auf der gleichen Prozessstufe stehen. (Samsungs Prozess ist aber klar schlechter). Nvidia hat AMD schlicht unterschätzt.

Ich glaube, dass so Doppel GPU Designs durchaus richtungsweisend werden. So lange einer am Markt aber monolithisch unterwegs ist wird die Marktimplementierung schwierig. Letztlich hat man bereits bei Ryzen gesehen, dass man im Sinne der MCM Designentscheidung einen Schritt zurück musste um Intel das Wasser zu reichen (auf 8 Kerne pro CCX)

Es wird in meinen Augen entschieden auf die Softwareentwicklung ankommen, denn ein Großteil des Workloads wird schon im Bereich der Software optimiert und verteilt werden können. Evtl. ist aber auch die KI das was wir brauchen und des Rätsels Lösung.
a) Ich glaube eher nicht, dass da irgenwem was "aus dem Gesicht gefallen sein wird". Die werden als marktführender GPU-Hersteller sehr genau abschätzen können was die Konkurrenz voraussichtlich plant und deren Designs umfangreich ananlysierne und dementsprechend auch selbst hochrechnen, was davon ausgehend die nächsten Schritte sein werden (wie AMD und Intel auch) und RDNA2 wird grundlegend nicht für nVidia überraschend gewesen sein können, da die Hardware schon seit Mitte 2019 bei Kunden im Umlauf war in Form der Konsolen. Beispielsweise inbesondere NVs SI-Entscheidung deutet sehr stark darauf hin, dass man schon von langer Hand wusste, dass das bei AMD etwas wie 256 Bit mit 16 GiB Speicher werden (und die GPUs dann natürlich einen größeren Cache brauchten). An der Architektur selbst hat sich aber nach bisherigem Kenntnisstand seit 2018 nichts mehr bei AMD an RDNA2 geändert.

b) Gerade hier wird es eigentlich genau umgekehrt sein. Sobald der erste Hersteller mit einem MCM-Design vorprescht wird er, wenn er die damit verbundenen Probleme zufriedenstellend lösen konnte, den anderen davonziehen und das bedeutet, dass hier alle zwingend am Ball bleiben müssen und das bedeutet wiederum, dass alle drei derzeit mit hohen Engagement an dem MCM-Thema dran sind und dass man voraussichtlich in relativ kurzer Folge von allen Herstellern entsprechende Designs zu sehen bekommen wird.
Beispielsweise alleine schon Intel's Bestrebungen und die nachweisliche Funktionaität ihres Xe-HP mit 4 Tiles (sicherlich kein Stromsparwunder ;-)) dürften AMD und nVidia genügend Feuer unterm Hintern machen, damit die Gas geben, denn möglicherweise könnte Intel, nachdem sie vielleicht erst im LowEnd/Midrange mit einem Produkt auf Basis von HGP starten, dann doch plötzlich die Entwickung auch auf HPG übertragen und mit MCM-Designs daherkommen. Da wollen sich zweifellos weder AMD noch nVidia überraschen lassen und da es keine kurzfristigen Reaktionsmöglichkeiten bei derartigen Produkten gibt, bleibt nun nur konkret die nächste/kommende Generation oder halt die übernächste (2024?) ins Auge zu fassen.

c) "Software" hängt hier davon ab, was du damit meinst. Dem aktuellen Verständnis nach werden diese GPUs vollkommen tranparent für die Applikationen als eine einzige, große GPU auftreten. jedoch in den Treibern wird es voraussichtlich mehr Arbeit zu erledigen geben. Möglicherweise wird auch Micrsooft in DirectX noch ein wenig Hand anlegen, aber im Idealfall sollte die eigentliche Software davon unberührt sein, was auch grundsätzlich so sein muss, denn derartige Designs werden zuerst im HighEnd Einzug halten, d. h. sämtliche Software müsste andernfalls zusätzliche Programmflussweichen für dieses (vorerst) kleine Marktsegment enthalten, die bestimmen, ob man auf einer Single- oder MC-GPU läuft und das werden Entwickler eher zu vermeiden suchen (siehe die eher geringe Multi-GPU-Unterstützung).
 

BigYundol

Software-Overclocker(in)
Bin gespannt, ob meine 5700XT noch bis RDNA3 bleiben darf, oder ob es vorher noch vernünftigere Preise für RDNA2 in H1/2021 geben wird :ugly:
 

Basileukum

Software-Overclocker(in)
funktioniert Raytracing denn mittlerweile ordentlich, mit den Navis - oder wird das doch erst frühestens nächste Gen. was?

Ja, das RT wird auch schmerzlich bei den 12-15 Titeln vermißt, wo es das gibt. :D Da kannst wohl noch 1-2 Generationen abwarten, bis da alle neuen Spiele damit laufen, eventuell auch länger, oder wenn das soviel Performance kostet und die Karten so verteuert, nie alle Titel erfaßt. Auch net schlimm, man braucht es ja nicht.
 

BigBoymann

Software-Overclocker(in)
a) Ich glaube eher nicht, dass da irgenwem was "aus dem Gesicht gefallen sein wird". Die werden als marktführender GPU-Hersteller sehr genau abschätzen können was die Konkurrenz voraussichtlich plant und deren Designs umfangreich ananlysierne und dementsprechend auch selbst hochrechnen, was davon ausgehend die nächsten Schritte sein werden (wie AMD und Intel auch) und RDNA2 wird grundlegend nicht für nVidia überraschend gewesen sein können, da die Hardware schon seit Mitte 2019 bei Kunden im Umlauf war in Form der Konsolen. Beispielsweise inbesondere NVs SI-Entscheidung deutet sehr stark darauf hin, dass man schon von langer Hand wusste, dass das bei AMD etwas wie 256 Bit mit 16 GiB Speicher werden (und die GPUs dann natürlich einen größeren Cache brauchten). An der Architektur selbst hat sich aber nach bisherigem Kenntnisstand seit 2018 nichts mehr bei AMD an RDNA2 geändert.

b) Gerade hier wird es eigentlich genau umgekehrt sein. Sobald der erste Hersteller mit einem MCM-Design vorprescht wird er, wenn er die damit verbundenen Probleme zufriedenstellend lösen konnte, den anderen davonziehen und das bedeutet, dass hier alle zwingend am Ball bleiben müssen und das bedeutet wiederum, dass alle drei derzeit mit hohen Engagement an dem MCM-Thema dran sind und dass man voraussichtlich in relativ kurzer Folge von allen Herstellern entsprechende Designs zu sehen bekommen wird.
Beispielsweise alleine schon Intel's Bestrebungen und die nachweisliche Funktionaität ihres Xe-HP mit 4 Tiles (sicherlich kein Stromsparwunder ;-)) dürften AMD und nVidia genügend Feuer unterm Hintern machen, damit die Gas geben, denn möglicherweise könnte Intel, nachdem sie vielleicht erst im LowEnd/Midrange mit einem Produkt auf Basis von HGP starten, dann doch plötzlich die Entwickung auch auf HPG übertragen und mit MCM-Designs daherkommen. Da wollen sich zweifellos weder AMD noch nVidia überraschen lassen und da es keine kurzfristigen Reaktionsmöglichkeiten bei derartigen Produkten gibt, bleibt nun nur konkret die nächste/kommende Generation oder halt die übernächste (2024?) ins Auge zu fassen.

c) "Software" hängt hier davon ab, was du damit meinst. Dem aktuellen Verständnis nach werden diese GPUs vollkommen tranparent für die Applikationen als eine einzige, große GPU auftreten. jedoch in den Treibern wird es voraussichtlich mehr Arbeit zu erledigen geben. Möglicherweise wird auch Micrsooft in DirectX noch ein wenig Hand anlegen, aber im Idealfall sollte die eigentliche Software davon unberührt sein, was auch grundsätzlich so sein muss, denn derartige Designs werden zuerst im HighEnd Einzug halten, d. h. sämtliche Software müsste andernfalls zusätzliche Programmflussweichen für dieses (vorerst) kleine Marktsegment enthalten, die bestimmen, ob man auf einer Single- oder MC-GPU läuft und das werden Entwickler eher zu vermeiden suchen (siehe die eher geringe Multi-GPU-Unterstützung).
Da hast du mich vieleicht ein bischen zu wörtlich genommen oder ich hab es nicht klar formuliert.

Ich gehe auch nicht davon aus, dass Jensen am Tag des Release überrascht wurde, sondern diese Überraschung durchaus vorher eingetreten ist. Nicht umsonst haben sie mit der 3080 die Takt und Verbrauchsschraube dermaßen angezogen, sie wussten scheinbar ziemlich genau wo AMD landen wird und dies wurde entsprechend in den letztlichen Release der Karten einbezogen. Dennoch glaube ich, dass man seitens Nvidia grundlegend überrascht war, in meinen Augen war dies auch deutlich nach 2019 der Fall, denn es scheint mir schon so, dass die Änderungen am Leistungsverbrauch etwas zu schnell umgesetzt werden mussten, so dass es nunmal am Anfang extreme Probleme bei einigen Karten gab. Ich weiß auch nicht, inwieweit man von den Konsolen (2019 waren dort aber doch auch nur maximal Betakonsolen verteilt?) auf die letztliche BigNavi schließen kann. Keine Ahnung in wieweit Cache usw. bereits dort seine Spuren hinterlassen hat.

Bzgl. eines MCM Design kann deine Variante sicherlich zutreffen, Ryzen, bzw. Zen hat uns aber doch eines besseren belehrt. Intel zieht nicht nach, 4 Jahre sind jetzt sein Zen 1 vergangen und auch in 2022 und 2023 kommt nichts in der Richtung und das obwohl man bei einer CPU den eindeutigen Vorteil des Designs erkennt, Skalierbarkeit. Im Gegenteil, AMD ist mit Zen3 wieder ein Stück zurückgegangen.
Bei Grafikkarten gibt es derzeit dazu noch das ungelöste Problem des Loadbalancing, ich glaube auch daran, dass MCM die Zukunft wird, aber in der nächsten Generation? Das bleibt für mich extrem fraglich. Ob der zweite Hersteller nachziehen wird, wird nämlich in erster Linie davon abhängen, ob der andere Erfolg hat, ich glaube nicht, dass ein "Zen1" Pendant ausreichen würde um Nvidia zum umdenken zu bringen, ähnlich der Situation bei Intel. Denn ich glaube auch, dass Intel letztlich von Zen3 überrollt wurde, zum einen die exakte Zeitlinie, die Tag auf Tag eingehalten wurde, aber auch zum anderen die wirklich gute Skalierbarkeit der CPUs. Bei Zen1 wird Intel sich sicherlich noch gedacht haben, ach ja, 8 können wir auch, an 16 Kerne im Desktop hat sicherlich noch keiner gedacht. (auch hier gehe ich nicht vom Zeitpunkt des Release aus, sondern bei Bekanntwerden von Zen1 für Intel).

Mit Software meine ich tatsächlich alles drum herum, zum einen den Treiber, zum anderen aber eben auch die Engine (ob DX, Vulkan oder sonstwas), zum anderen aber eben auch die Publisher. Ich gehe schon davon aus, dass MCM Designs grundlegend andere Stärken haben werden und demnach auch anders programmiert werden müssen. Ein gut skalierender DX12 Titel, tut dies nicht automatisch mit Vulkan und so wird es auch mit MCM sein, da wird schon in der grundlegenden Spieleengine entsprechende Arbeit einfließen müssen. Daher glaube ich nicht an einen durchschlagenden Erfolg in der nächsten oder übernächsten Generation. Auf lange Sicht wird dies aber eine Lösung sein können (wenn nicht müssen), wir nähern uns dem Ende des Shrinkens auf der heutigen Technik und entweder werden Chips dann größer, was nunmal immer die Yields extrem beeinflussen wird, oder aber man produziert viele kleine Chips, die eben eine gute Ausbeute bedeuten und wo der Preis pro mm² dann eben günstiger wird.

(siehe die eher geringe Multi-GPU-Unterstützung).
das sah auch schon mal anders aus und viele Hersteller haben sich viele Gedanken gemacht. Zu Zeiten der SLI, Crossfire und der dann folgenden DualGPU Karten wurde doch eine Menge versucht und gemacht, wenn man an die ersten Sessions mit zwei 7900GTX denkt? Das war grausam und zwischen 60 und 30fps hat man keinen wirklichen Unterschied erkannt, beides war langsam und grausam. Das hat man mit der Zeit wirklich gut überarbeitet, aber man hat eben die grundlegenden Probleme nie ablegen können. Ob man dies nun in ein oder zwei Generationen schafft? Ich glaube leider nicht daran, dagegen hätte ich aber auch nichts.

P.S.
Noch eine Ergänzung, bzw. eine Frage, technisch bist du viel weiter in der Materie als ich. Gäbe es denn nicht die Möglichkeit, RT auf eine zweite GPU auszulagern? Bei AMD können die Shader ja beides? Zumindest wenn ich das richtig verstanden habe, daher könnte man eine GPU ja nur zur RT Berechnung nutzen und die zweite davon unabhängig für die Pixel. Das wäre im Bereich RT sicherlich ein Quantensprung, dafür beraucht es aber auch deutlich mehr RT Spiele.
 

Arzila

Komplett-PC-Aufrüster(in)
"Ordentlich" funktioniert das schon seit 2 Jahren bei NV und seit ein paar Monaten bei AMD.
Ausreichend performant um es wirklich ernsthaft zu benutzen (also mehr als ein paar Spiegelpfützen/Schatten und ohne Tricks wie DLSS) wird das geschätzt erst 2025 sein. RTX5000 / RX8000 rum. Vorher ists halt ein nettes Showcase.
Richtig. Aber^^
Sobald RT markt fähig ist und die grakas genug fps liefern kommt etwas neues. Sicher sowas wie rt2.0 das wieder die fps ins keller drückt das man gründe hat überhaupt wieder neue grakas kaufen zu müssen :D
 

RtZk

Lötkolbengott/-göttin
Richtig. Aber^^
Sobald RT markt fähig ist und die grakas genug fps liefern kommt etwas neues. Sicher sowas wie rt2.0 das wieder die fps ins keller drückt das man gründe hat überhaupt wieder neue grakas kaufen zu müssen :D

Nö, schlicht Path Tracing, siehe Minecraft und Quake.
 

latiose88

Freizeitschrauber(in)
Also kann man davon ausgehen das die Zeiten von 75 Watt gpus endgültig vorbei sein werden oder gibt es da vielleicht doch noch ne Möglichkeit durch das mcm Technik auch 75 Watt gpus zu fertigen. Das wäre durchaus interessant. Man müsste also wohl 2 sehr kleine gpu Chips zusammen auf einen Chip bringen. Das würde also auch mich sehr interessieren. Da es dann auch günstiger für mich wäre und auch der Stromverbrauch nicht höher,aber dafür die leistung steigen würde. Da wäre ich somit voll dabei. Nun heißt es halt abwarten wie das Ergebnis dann am Ende dann sein wird.
 

Julian K

PC-Selbstbauer(in)
Also kann man davon ausgehen das die Zeiten von 75 Watt gpus endgültig vorbei sein werden oder gibt es da vielleicht doch noch ne Möglichkeit durch das mcm Technik auch 75 Watt gpus zu fertigen. Das wäre durchaus interessant. Man müsste also wohl 2 sehr kleine gpu Chips zusammen auf einen Chip bringen. Das würde also auch mich sehr interessieren. Da es dann auch günstiger für mich wäre und auch der Stromverbrauch nicht höher,aber dafür die leistung steigen würde. Da wäre ich somit voll dabei. Nun heißt es halt abwarten wie das Ergebnis dann am Ende dann sein wird.
Warum genau sollte man Deiner Meinung nach denn bei so einer Karte ein MCM-Design wählen? Da wäre der klassische (monolithische) Weg doch deutlich sinnvoller?
 

Incredible Alk

Moderator
Teammitglied
Also kann man davon ausgehen das die Zeiten von 75 Watt gpus endgültig vorbei sein werden oder gibt es da vielleicht doch noch ne Möglichkeit durch das mcm Technik auch 75 Watt gpus zu fertigen. Das wäre durchaus interessant. Man müsste also wohl 2 sehr kleine gpu Chips zusammen auf einen Chip bringen.
Natürlich kann man weiterhin 75W-Karten bauen. Aber dafür nutzt man natürlich kein MCM.
MCM ist nur dafür da, eine Performance zu erreichen die ohne unmöglich wird (ähnlich wie SLI damals) weil du halt keine 1000mm^2-Dice wirtschaftlich fertigen kannst (momentan nicht mal technisch).
Karten im Low-End Bereich werden natürlich weiterhin nur einen Einzelchip nutzen.
 

RyzA

PCGH-Community-Veteran(in)
Früher gabs doch auch schon diese Dual-GPU-Karten. Das waren die reinsten Stromfresser.
Besonders toll finde ich eine solche Entwicklung nicht.
Aber die Hardcore-Enthusiasten werden sich freuen. :devil:
 

4thVariety

Software-Overclocker(in)
Optionen zur Leistungssteigerung:

(1) Herstellungsprozess verkleinern 12nm -> 7nm -> 5nm
Problem: Kosten und Verfügbarkeit.

(2) Chipfläche vergrößern
Problem: noch größer zerstört die Ausbeute noch mehr und treibt den Preis nach oben.

(3) Architektur überarbeiten
Problem: nicht immer der riesige Faktor der man meint dass es ist

Am CPU Markt hat man gesehen wie AMD Druck auf Intel machen konnte mit Chiplets. Besonders die Epyc Chips haben gezeigt wie sehr AMD die Gesamtfläche mit Chiplets skalieren konnte, ohne dass deswegen der halbe Wafer auf den Müll wandert. Es wäre grob fahrlässig, wenn AMD nicht mindestens die Option untersucht den Chiplet Aufbau auf GPUs zu übertragen.

Allerdings hätten so zwei Chiplets ein ganz anderes Problem: Hitze. Ein 80mm Ryzen Chiplet macht nicht viel Hitze. So ein 335mm² 6700XT Chip mit 40CUs schon. Davon packen wir dann zwei Stück nebeneinander. Realistischerweise sind wir vom Kühlkörper der GPU limitiert. Oder hat jemand Bock auf 4 Slot Monster damit man 400W Abwärme wegbringt? Das könnte ein Fingerzeig sein, dass Chiplets eher bei 5nm eine Rolle spielen, wenn man ein paar Gewinne bei der Thermik geschenkt bekommt. Zwei 5nm 40CU Blöcke in 240mm² mit einem I/O Die dazwischen wären immer noch riesig, aber machbar. Richtung 3nm Fertigung, reden wir dann von zwei Chiplets auf jeder Seite des I/O Die. Diese Verdopplungen an Leistung (Minus ein kleiner I/O Die Malus) ohne dass man die Architektur oder Ausbeute des Wafes grundsätzlich in Frage stellen muss, sind ein guter Weg.
 

Incredible Alk

Moderator
Teammitglied
Früher gabs doch auch schon diese Dual-GPU-Karten. Das waren die reinsten Stromfresser.
Das waren aber auch keine hochoptimierten MCMs sondern einfach SLI-Systeme auf einer Einzelplatine (oder im Falle der 7900GX2 oder wie die hieß halt einfach zwei zusammengeschraubte Platinen. :ugly:
Klar, ein einfaches Dual-GPU haut dir die Steckdose aus der Wand. Wenn heute jemand ne Karte wie die ARES oder wie die hieß auflegen würde mit zwei Navi21 oder zwei GA102-GPUs drauf plus natürlich doppeltem vRAM wärste bei 600-700W TDP. Das MCM ist ja gerade dazu da, dass man das NICHT muss^^
Allerdings hätten so zwei Chiplets ein ganz anderes Problem: Hitze. Ein 80mm Ryzen Chiplet macht nicht viel Hitze. So ein 335mm² 6700XT Chip mit 40CUs schon.
Die Wärmemenge ist weniger das Problem als die Wärmedichte (also Watt pro Quadratmillimeter Chipfläche). Und da sind CPUs weit schwerer zu kühlen. Ein Ryzen hat im worstcase (nur ein Chiplet, maximaler boost) auf der Fläche eines Chiplets um die 130W Abwärme (142W Boost des 5800X abzgl. I/O-Die). Das Chiplet is glaub ich Größenordnung 80mm^2 groß. Also etwa 1,6 W/mm^2. Deswegen springen diese CPUs unter Last ja auch sofort so hart in der Temperatur und sind selbst mit Wasserkühlungen kaum unter 70°C zu bringen (was bei GPUs gar kein Thema ist selbst bei 400W Abwärme).

Stell dir mal vor eine High-End GPU mit 500mm^2 und mehr hätte derartige Wärmedichten. Da wäreste bei 800+W für die GPU und bei der ganzen Grafikkarte im vierstelligen Bereich!
Es hat schon einen Grund, warum wir unsere kleinen CPUs noch mit 5 GHz bei 1,5v ballern lassen und die GPUs bei 2 GHz und um die 1v laufen.
 

RyzA

PCGH-Community-Veteran(in)
Das waren aber auch keine hochoptimierten MCMs sondern einfach SLI-Systeme auf einer Einzelplatine (oder im Falle der 7900GX2 oder wie die hieß halt einfach zwei zusammengeschraubte Platinen. :ugly:
Klar, ein einfaches Dual-GPU haut dir die Steckdose aus der Wand. Wenn heute jemand ne Karte wie die ARES oder wie die hieß auflegen würde mit zwei Navi21 oder zwei GA102-GPUs drauf plus natürlich doppeltem vRAM wärste bei 600-700W TDP. Das MCM ist ja gerade dazu da, dass man das NICHT muss^^
Ok, wenn du das sagst dann glaube ich das mal. ;)
 

Incredible Alk

Moderator
Teammitglied
Keine Sorge, die ersten MCM-Karten werden keine 500W oder noch mehr brauchen. ;-)

160CUs@1,8GHz statt 80CUs@2,5GHz ist sofern die anderen probleme des Designs alle gelöst werden immer noch massiv schneller bei ähnlichem Verbrauch.
 

Rollora

Kokü-Junkie (m/w)
RDNA3 wird wohl noch nicht auf 5nm setzen.
Wie kommst du zu dieser Annahme? Wegen der verfügbaren Volumina? Oder Prozessreife?

Kann mir das schon vorstellen, dass 2 Jahre nach dem ersten 5nm Produkt (Mediatek chip oder Apples A14 bzw. M1) auch schon größere Chips möglich sind in der Massenfertigung. Vega 20 oder wie der Chip hieß kam auch nicht sooo lange nachdem Apple 7nm SoCs hatte. Vor mitte, eher Ende 2022 rechne ich nicht mit Navi 3x
 

4thVariety

Software-Overclocker(in)
Die Wärmemenge ist weniger das Problem als die Wärmedichte (also Watt pro Quadratmillimeter Chipfläche). Und da sind CPUs weit schwerer zu kühlen. Ein Ryzen hat im worstcase (nur ein Chiplet, maximaler boost) auf der Fläche eines Chiplets um die 130W Abwärme (142W Boost des 5800X abzgl. I/O-Die). Das Chiplet is glaub ich Größenordnung 80mm^2 groß. Also etwa 1,6 W/mm^2. Deswegen springen diese CPUs unter Last ja auch sofort so hart in der Temperatur und sind selbst mit Wasserkühlungen kaum unter 70°C zu bringen (was bei GPUs gar kein Thema ist selbst bei 400W Abwärme).

Die Wärmedichte ist ja beim jetzigen Chip ok. Die Frage ist halt wie nahe kannst du den einen Chip neben den anderen setzen, bevor der Kühlkörper sagt mehr Wärme nehme ich auf die Fläche betrachtet nicht auf; vgl. CPU Problem das du beschreibst. Gleichzeitig wie nahe muss Chip A and Chip B sitzen, damit es keine störenden Latenzen gibt.

Die Lösung wird sicherlich anders sein müssen als bei der CPU (Gott sein Dank haben GPUs auch nicht diese Taktraten, das spart schon mal ein wenig Wärme). Geteilter Heatspreader mit pro-Chip Heatpipes die nicht in Berührung kommen und solche Scherze werden auf dem Programm stehen. Deckel drauf, Paste drüber, Alu-Block wird sicherlich nicht so leicht funktionieren.
 

Incredible Alk

Moderator
Teammitglied
Die Wärmedichte ist ja beim jetzigen Chip ok. Die Frage ist halt wie nahe kannst du den einen Chip neben den anderen setzen, bevor der Kühlkörper sagt mehr Wärme nehme ich auf die Fläche betrachtet nicht auf
Das kommt auf die Kühllösung an - aber das ist noch kein limitierender Punkt. Selbst wenn du zwei GPUs nebeneinander setzt die zusammen 400W rausdrücken UND du noch HBM daneben hättest der weitere 50W abgibt. So lange die zu kühlende Fläche groß genug bzw. die Wärmedichte klein genug ist (was sie bei GPUs sein wird) ist das kühltechnisch kein Thema die Wärme aufzunehmen - vaporchamber regelt. Da haste nur das Problem die in dem beispiel 450W die du in den Kühler steckst wieder halbwegs leise loszuwerden^^

So lange die Wärmedichten unter 1W/mm^2 bleiben hast du kein Problem mit Wärmeübertragung von Chip zum Kühlerboden, dann ist die reine Menge limitierend (siehe übertaktete GPUs). Erst bei Wärmedichten über 2 W/mm^2 haste ein echtes Wärmedichtenproblem bzw. das Limit ist dann wie schnell du die Wärme in den Kühlerboden bekommst und nicht mehr wie viel der Kühler an die Umgebung abgeben kann (siehe übertaktete CPUs).
 

latiose88

Freizeitschrauber(in)
@Incredible Alk

Ja das glaube ich auch .Denn würde man doppelte Transistoren anzahl mit nur halb so viel Takt nehmen würde es gleich gut nur sein.Rein theroretisch würde sogar nur 1,6 Ghz ausreichen um mehr Leistung zu haben.
Ist halt echt anderst wie bei CPU. Da kann man mehr Transistoren drauf packen. So könnte man sogar 3x soviele Transistoren mit noch weniger Takt nehmen und würde dann noch immer mehr Leistung schaffen.
Ist das nicht so das je Größer die Fläche desto besser kann man die Abwärme da dann auch kühlen und umso kleiner desto schwerer.

Bin gespannt ob das mehr an Fläche insgesammt gesehen hier die Lösung ist. Oder kann man nicht einfach das mehr auf beide GPU Chiplets verteilen um so ne bessere kühlung und gleichmäßigkeit zu erreichen. Ist das denn sowas möglich?
 

deftones

PC-Selbstbauer(in)
Wenn man eine 6800 XT mit 250 bis 300 mm2 bekommt sollte die bezahlbar sein. Chiplets werden 2023 realistisch sein denke aber eher das wird RDNA 4 werden.
 

Rollora

Kokü-Junkie (m/w)
Früher gabs doch auch schon diese Dual-GPU-Karten. Das waren die reinsten Stromfresser.
Besonders toll finde ich eine solche Entwicklung nicht.
Aber die Hardcore-Enthusiasten werden sich freuen. :devil:
Das hängt halt stark von der Konfiguration ab.
2 Highend-GPUs rande des Limits getaktet - klar.
Aber es gibt auch positiv-Beispiele mit 2 Mitteklasse-Chips. Es muss nicht zwangsweise ein Stromfresser draus werden - das hat ja Alki schon ausgeführt.
Wenn man eine 6800 XT mit 250 bis 300 mm2 bekommt sollte die bezahlbar sein. Chiplets werden 2023 realistisch sein denke aber eher das wird RDNA 4 werden.
Bei 250mm² kann man den selben Chip ab einer Grafikkarte von 200€ einsetzen bis rauf zu 1000+ wenn mans per MCM zusammenschnallt.
Gab ja auch mal die 4850, 4870, 4890 (aber die Preise waren damals noch normal)
Die 4850X2 (selber Chip wie die oben genannten, nur 2x) war mit ca 240W TDP nicht so weit über den 190W der 4890. Ein (zu) hoch getakteter einzelner Chip kann also durchaus in der Nähe einer etwas niedriger getakteten 2-Chip Variante rauskommen - und das schon im gleichen Prozess.
Hier sprechen wir aber von einem 5nm Produkt und vergleichen es mit Navi2 - in 7nm.
 
Zuletzt bearbeitet:

GT200b

Freizeitschrauber(in)
Nvidia und AMD sollen ihre GPU-Sparte für Gamer aufgeben, die können nichtmal genug Karten liefern. Ihre lächerlichen 100.000 Karten pro Monat für die ganze Welt ist nichts, früher haben beide Hersteller das gebacken bekommen dass ausreichend Karten verfügbar sind.
Da haben ihre Marketingfutzis kläglich versagt. Apple bekommt es doch auch auf die Reihe genug zu liefern...
 

Snowhack

BIOS-Overclocker(in)
Früher gabs doch auch schon diese Dual-GPU-Karten. Das waren die reinsten Stromfresser.
Besonders toll finde ich eine solche Entwicklung nicht.
Aber die Hardcore-Enthusiasten werden sich freuen. :devil:

ja meine Nvidia 7950 GX2 hatte saftige 150 Watt Verbrauch.

Die habt Strom gefressen ohne Ende,

oh warte mal 😅 das schaffen heute ohne Probleme, ein Chip GPUs im Mittelfeld 🤣

so hungrig sind die früher gar nicht gewesen 🙃

Bei der 7900 XT erwarte ich eine Leistungsaufnahme von knapp 375 Watt, PCIe + 2 mal 8 Pin.
 

latiose88

Freizeitschrauber(in)
@Snowhack

Da sieht man mal das ohne stromverbrauch erhöhung keine echte Leistungsteigerung mehr möglich ist.
Mir hätte ja mehr gewünscht das man ne Leistungssteigung ohne mehr Stromverbrauch möglich gewesen wäre. Also Sprich die Highend GPU bei 150 Watt maximal stehen geblieben wäre.Und nur alleine durch den Shrink ne Leistungssteigerung entstanden wäre. Das ist eben nie so eingetreten. Ich frage mich was das shrinken denn dann noch bringt wenn es trotz verkleinerung die Hardware noch immer mehr Strom verbraten tut.
Bei CPU ist ja zum glück die Steigerung an Stromverbrauch nicht so angestiegen.Denn wenn ich nach meinem Ryzen 9 5950x der auf allen Kernen 128 Watt anstatt 142 Watt verbaucht.Breche ich das runter dann würde ein 4 Kerner 32 Watt Verbauchen. Das hat kein I7 3770k unter vollem Last jemals geschaft.Nur mit viel Tricks vielleicht. Bei meinem 3770k waren es so 54 Watt Verbauch gewesen.
Genau solch eine Entwicklung wünsche ich mir bei der GPU ebenso.

Na hoffen wir mal das chiplet bei der GPU auch in diese gute Richtung gehen wird. Ich bin auch gerne bereit GPU zu nehmen wo der Takt nicht ganz so hoch ist.Wichtiger sind ja die Shader.DIe Bestimmte die Richtung wo die Leistung hin geht.Vielleicht Optimieren die GPU hersteller es ja so weit das zwei kleine GPUS weit weniger an Stromverbrauch haben als momentane GPUS,wer weis.

Bin gespannt ob da was gehen wird.Denn diese horrenden Stromverbrauch ist genau das was mich von einem Highend GPU abhalten würde. Ich will also das die PCs weniger Strom als mehr verbrauchen.Also man kann freilich auch ein wenig die Schuld bei den Mainbaord Hersteller geben. DIe brauchen zum teil auch ganz schön viel Strom.
Wenn es so weiter geht muss man beim Pc noch selbst die Keule auspacken und die Hardware das Stromsparen dazu zwingen. Am besten ne Highend GPU nehmen und sie auf 75 Watt drosseln. Mal sehen ob dann am ende noch immer mehr Leistung dabei raus kommt als mit ner Low bzw mittelklasse GPU. Bin auf das Ergebnis gespannt,was da so dabei raus kommen wird.
 

bootzeit

PCGH-Community-Veteran(in)
Kann mir das eigentlich nicht vorstellen, man wird selbst mit 5nm Fertigung bei astronomischen Verbräuchen landen, 450-500W. Daher wird man den Takt stark senken müssen um die Karte zu platzieren. Dazu wird man den Preis der 6900XT verdoppeln müssen.
Ach :schief:....lässt sich doch gar nicht verkaufen sowas.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Der limitierende Faktor bei gpu cpu ist der sram
auch cache genannt
man kann unzählige Recheneinheiten parallel schalten und die Aufgabe sofern teilbar gleichzeitig berechnen lassen
das Problem ist das der sram eine gewisse zeit gewisse mengen an daten pro takt bereitstellen kann.
Die Datenmenge ist stark gestiegen weil man im letzten cache als dem ram oder vram den takt erhöht hat. Während im ersten cache L1 die zeit für store load reduziert hat.
Aktuell bei sram liegt bei 0,6-0,8ns bei cl1
Die menge des Sram begrenzt die maximale gleichzeitige Datenbereitstellung einer Rechnung
Zwischenergebnisse kommen in den L2 was bei gpu schon ausreichend ist und bei cpu in den L3 bevor es inden hauptspeicher vram/ram geht
Und jeder schritt erfordert Wartezeiten in form von Takten cl1 cl4 cl6
Und hier kommen die sram bzw ddr ram Eigenheiten zutage
gddr6 ist ddr4 und ein cl takt mit realen 2000mhz gehen mit L1 cl4 und L2 cl6
also braucht die gpu min 4 Takte je 0,8ns um einen load store auszuführen
3,2ns und 4,8ns
Hat man zu viele Shader am laufen können die wegen warten auf daten nicht ausgelastet werden.
Hier kommt es auf das design an und welchen ramtakt man verwendet und wie schnell dieser ist.
Mehr Bandbreite schnellere frames

Im Grunde wäre es ideal wen man immer weniger Einheiten schneller arbeitet und mehr datendichte also physischen Speicher bearbeiten kann .
Das und dann weniger Abwärme würde zu einer ipc Steigerung kommen nur da sind wir an einen punkt gekommen wo das nicht mehr geht.
man muss in die breite gehen um die Abwärme abzufedern.
Das problem ist weniger die Wärmemenge als die dichte
wenn man 2w je mm² abführen muss wird das zum hotspot und lässt sich nur schwerlich auf einen heatspreder ausbreiten.
Folglich müssen gpu designs sich auf Fläche vergrößern und mehr nicht arbeitende teile des chips die wärme aufnehmen.
vorzugsweise wird dann sram oder die I/O mit größeren Strukturen belichtet.
Wo die alu in kleineren Strukturen belichtet werden.
Dadurch werden aber physisch die chip größer.
In 7nm ist man auf max 805mm² begrenzt und ist somit der schlechteste yield von allen.
Die beste sind so 80mm² was die ryzen chiplets entsprechen nahezu 99% yield
GPu liegen so um die 70% bei ~500mm² n21

Und genau hier soll ja mcm helfen bei 5nm das man nicht noch größere chips herstellen kann ist klar je mehr shader auf einen mm² desto wärmer wird es.
Und die 80cu auf 7nm sind schon hart an der grenze was wärmedichte angeht
in 5nm wären sogar 100cu machbar aber der takt müsste um gut 25% sinken was die Steigerung zunichte macht.
man kommt auf lange Sicht nicht herum mit mcm.
Selbst in 3nm was nochmal die dichte vergrößert um 60% werden zwar die Monolithen kleiner aber deren wärme dichte verdreifacht sich.
Wie willste das kühlen.

Daher wird allein bei der menge an parallelen alu immer mehr Energie auf kleinere Fläche gepresst
Der limitierende Faktor ist hier klar sram takt.
Der nächste schritt wäre HBM auf der gpu
Größeres imc mehr takt. weniger Energie
Da spielen aber Fertigung und ram preise mit rein.
das dann immer mehr Energie insgesamt für eine gpu gebraucht wird ist da nur logisch.
Mit HBM könnte man 60% an ramstromverbrauch senken. von derzeit bei 8 chips 30w auf 12w
Einzig die kosten pro HBM Modul sind doppelt so teuer wie bei gddr modul

ALU und shader sind quasi identisch
Während alu die Recheneinheitsfunktion genau beschreibt fp32 und variable parallele Berechnungen. sind shader auf einen Funktion Bereich limitiert
vertex, pixel in halb ganz und doppelte Genauigkeit.
dabei sind shader nicht = shader amd und nvidia sind zwei völlig andere Ansätze.
Am ende sind beide Directx/opengl kompatibel und darauf kommt es an.
Am ehesten sind shader mit cpu alu zu vergleichen was dann sse 1-4,1 fma und avx1, 2, 512 entspricht.
Und wer prime95 kennt weiß das diese Recheneinheiten sehr heiß werden können.

natürlich spielt hier auch die physische grenze der Fertigung mit rein
Derzeit wird alles nur per duv belichtet euv kommt noch und gaa wird nochmal die transistordichte erhöhen aber auch die Abwärme
man wird gezwungen sein die Spannungen zu senken inwieweit sich das dann noch so hoch Takten lässt ist offen.
Das nächste was die fertigung revolutioniert wäre ein anderes material als Silizium.
Ein supraleiter wäre ideal bei Raumtemperatur.
 

latiose88

Freizeitschrauber(in)
@Prozessorarchitektur
Ich verstehe. Mehr shader ist also schlecht für Temperatur und Stromverbrauch.
Und es treibt die kühlungsbedarf in die Höhe. Da es also auch aufwendiger ist zu kühlen braucht der Kühler auch immer mehr Strom. Und klar je mehr RAM desto wärmer wird es.
Man müsste also 50 cu je Chip mit weniger takt und weniger Spannung realisieren. Würde man da mit noch weniger cu also mit shader daher kommen, könnte man zwar den takt wieder erhöhen also sagen wir bei 35-40 cu aber das würde nicht reichen weil es trotz mehr takt eben dann auch wieder mehr Stromverbrauch entsteht.
Es ist somit verdammt schwer. Es wurde sogar getestet das es bei cpu 128 Kerne mit halt weniger takt. Also 2 ghz anstatt 4 und wenn man diese voll auslasten könnte würde diese wohl auch ne gewisse rohleistung statt finden. Also man könnte wenn man wollte 100 cu zwar schon schaffen, müsste jedoch dann den takt auf 1 ghz begrenzen. Das würde zwar gehen aber du schreibst ja das je mehr shader die Temperatur steigen lässt.
Also können sie das leider auch nicht machen. Dann der Punkt den du ja anspricht das shader verdammt viel Platz verbraucht.
Blöd das dies somit nicht geht. Wir Bräuchen also ne total neue Technik wo mit weniger Shader und wenig tskt verdammt viel Leistung herauszuholen ist.
Es sei denn nvidia und AMD schaffen es durch nur reine fp 16 einheiten anstatt 32 die Leistung zu erhöhen. Oder man macht die shader so flexible das sie mit egal ob flaot oder fp oder sonst was mit gleicher Leistung umgehen könnten. Alles halt nur noch mit 16er einheiten. So wie es halt damals amd mit fma 128 bzw avx 128 da mehrere davon avx 256 und so zusammen übertroffen hatten. Könnte mir sowas gut vorstellen.
Das was ich damals auch gut gefunden hatte waren die 1000 Serie von nvidia die Bandbreite einsparen konnte. Sowas könnten die im chiplet Bereich also rein stecken. Je weniger Bandbreite gebraucht wird weil eingespart spart es am Ende doch auch stromverbrauch weil so viel eingespart wurde. Und man dadurch ja auch weniger Speicher Bausteine brauchen tut.

Und mir ist zwar was eingefallen aber das würde wohl die shader noch heißer werden lassen. Die shader einfach verkleinern also ohne sie shrunken zu müssen.
Also sie entschlacken.
Je kleiner jedoch desto schwerer werden diese dann zu kühlen sein. Egal wie man es dreht und wendet, das Problem ist also die Temperatur, Platz bedarf und Stromverbrauch.
Bin somit voll gespannt wie sie das Problem lösen wollen. Denn ich sehe hier nur lauter Teufelskreise.

Ich bin ja zumindest froh das wir solche Probleme nicht im Bereich cpu haben. Das wäre wohl das schlimmste wenn es bei gpu und cpu die selben Probleme sind.
Aber auch bei cpu wird es irgendwann mal zu solchen Problemen kommen. Denn mal ehrlich fad es 80 mm2 chipfläche ist schon verdammt wenig. 40 oder gar 20 würde wohl dann die selben Probleme wie bei der gpu sein, weil es da dann haar genau so ist. Und ich habe also noch das Glück das es eben ich diesen habe und mir dann um nächsten, übernächsten bzw über über nächten cpu eben von solchen Problemen nicht merken werden weil ich mit der jetzigen ich für ne sehr lange Zeit meine Ruhe haben werde.
Ohne oc hält ne CPU also länger durch.
Wird also wohl auch bei ner gpu genauso gelten.
Also verabschieden wir uns schon mal von hohen gpu takt und von mehr shader ebenso.


Dann muss man da sich gut überlegen. Wenn shader bei der gpu wie avx Einheiten ist, wenn man also diese nicht nutzt dann wird auch die gpu Kühler bleiben. Dann muss also der Umfang der Funktionen der shader sich reduzieren. Ich verwende bei der CPU ja auch garkein avx und siehe da diese CPU wird stromsparender und Kühler. Ich verwende also noch nicht mal avx 1. Wenn es möglich ist auch bei der gpu solche Einheiten auszulassen warum ja nicht. Villeicht hilft das ja usn weiter, wer weiß.
 

D0pefish

Software-Overclocker(in)
Die meisten Rechner laufen während ihrer Laufzeit im Prinzip nie mit echter Peak-Auslastung/Leistung; wenn überhaupt dann eher provoziert als praktisch sinnvoll oder alltäglich. Bei Photovoltaikanlagen gibt es die nicht offizielle VAp/Wp-Angabe (Watt-Peak) an die ich bei "verbrät xxxx Watt" zwanghaft denken muss. Gleiches Gedankenspiel nur an einem anderen Ende der Leitung.
 
Oben Unten