Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

2,5 mal so schnell... Sollte der Mining Boom also in die Knie gehen (was bei Bitcoin am Ende des Jahres durch das Halving fällig wird), dann will man wahrscheinlich damit den Stromverbrauch und die neue UVP gerechtfertigen.
 
Und alles erste Mitte nächsten Jahres. Hoffe, dass man im Jänner 2022 viele Informationen bekommt, hält man so ja kaum aus.

DLSS ist für mich halt tatsächlich interessant, weil man so "gratis" Leistung in Spielen bekommt, wenns halt gut klappt. RT wird dann auch langsam mal wichtiger, noch hab ich CP2077 noch immer nicht gezockt.
 
2,5 mal so schnell... Sollte der Mining Boom also in die Knie gehen (was bei Bitcoin am Ende des Jahres durch das Halving fällig wird), dann will man wahrscheinlich damit den Stromverbrauch und die neue UVP gerechtfertigen.

Für die Umwelt wäre es def. Besser, ich stimme dir zu.
Jedoch denke ich wir sehen nur eine kleine Flaute, es wird Ende des Jahres gegen 100K gehen und dann Prost Mahlzeit...

Ethereum das selbe....
Und bald kommt die neue (Name fällt mir nicht ein) - wo nur auf rein Speicher geht....

Es wird kein Ende haben, genauso wenig wie Corona ein Ende haben wird, damit müssen wir uns jetzt erstmal die nächsten Jahre abfinden.
 
Ja stimmt, war bei mir auch der Grund - DLSS war einfach "Kriegsentscheidend"^^.

VR hatte ich mal die Valve Index, kann damit nichts anfangen, die Auflösung ist miserabel und die Kabel stören mich, bis auf HL Alyx gibts auch keine Blockbuster die mich reizen würden, aber ok, da bin ich nicht drin wie sich AMD Karten verhalten.
Bis vor kurzem nutzte ich eine Pimax 8KX, jetzt eine Varjo VR-3. Da ist von mangelnder Auflösung nichts mehr zu merken. HL:A ist grandios, das stimmt aber da ich fast nur simrace ist VR quasi alternativlos geworden.

Die Kabel sind für viele noch ärgerlich und ein Hauptgrund dafür ist die massiv verspätete Einführung des ay wireless Standards. Ich denke Ende 2021/Anfang 2022 werden da sinnvolle Lösungen kommen.
 
Sind 2 Chiplets eigentlich gleichzusetzen mit SLI/CF?
SLI/ CF basiert darauf, zwei Karten zusammenarbeiten zu lassen. Sie benötigen alles doppelt, insbesondere den VRAM. Das ist bei einem Chiplet-Design nicht der Fall. Die Idee ist dort im Endeffekt, ein Chipdesign durch mehrere Chips direkt nebeneinander umzusetzen.
Hat man also die selben Probleme bezüglich Microruckler zu befürchten?
Entsprechend sollte es bzgl. Microruckler gut aussehen.
Und zu guter letzt: 2 Chiplets bedeutet dann vermutlich auch noch höherer Stromverbrauch?
Da gibt es viel Pro-Contra.
Tendentiell effizienter:
  1. Chiplets eines Chiplets-Designs sind kleiner als monolithische Designs, haben bessere Yields, haben ein besseres Spannungs-Taktverhältnis.
  2. Chiplets ließen sich besser in den Standby schicken, wenn sie nicht benötigt werden. (in der Praxis bislang aber nicht realisiert)
  3. ...
Tendentiell ineffizienter:
  1. Die Inter-DIE-Kommunikation wird komplizierter. Niedrige Latenzen zu erreichen wird energetisch aufwendiger.
  2. Laufen alle Chiplets immer, ziehen sie mehr Strom.
  3. ...

Chiplet-GPU-Design ohne Chiplet-Speicher (z.B. HBM) ist in meinen Augen übrigens aus Ineffizienz-Grund #1 Wahnsinn. Bei CPUs ist das nur deshalb vorhanden, weil die DIMMs halt verdammig etabliert sind. Aber auf Dauer wird es einen Level4-HBM-Cache geben und die DIMMs werden einem sinnvolleren Modell weichen.
 
Tatsächlich wäre das eigentlich sogar am leichtesten zu erreichen. Dafür müssten sie einfach nur ein oder mehrere Raytracing-Chiplets neben ein normales GPU-Chiplet packen.
Zwei identische GPU-Chiplets sinnvoll kooperieren zu lassen ist viel anspruchsvoller.
Habe ich auch schon drüber nachgedacht, ob sowas nicht möglich wäre. Und schon hätten Sie Nvidia in Sachen Rytracing weit abgehangen. Bis Nvidia das nachmachen würde.
 
Bei den CPUs hat das Chiplet ja auch wunderbar funktioniert.
Gehe da erst einmal positiv ran und wünsche Ralf & Co. viel Spass beim testen.
Das denke ich mir auch.
AMD hat jetzt gut Erfahrung sammeln können.
Allerdings glaube ich das es wieder erstmal ein paar Generationen braucht bis das komplett ausgereift ist. Bei den aktuellen CPUs kann man es ja schön sehen.
 
Bei den CPUs hat das Chiplet ja auch wunderbar funktioniert.
Da sind die Herausforderungen aber auch ganz andere. Bei CPU Chiplets musste keine 10.000 Kerne miteinander nahezu perfekt synchronisieren dass du keine Känguruframetimes hast ;-)

GPU MCMs sind technisch extrem herausfordernd wenns gut werden soll. Nicht zuletzt deswegen arbeiten AMD, Nvidia und auch Intel schon viele Jahre daran ohne dass bisher irgendein Produkt erschienen wäre.
Das Ding ist halt dass die Technik extremes Potential bietet - und extremes Risiko wenns schiefgeht.
 
Theoretisch ja. Aber da die Verbindungswege sehr viel kleiner sind als bei SLI können die Chiplets mit viel höherer Bandbreite und viel kleineren Latenzen kommunizieren. Theroetisch sollten sich SLI typische Probleme damit minimieren lassen bis zu einem Punkt wos nicht mehr auffällt dass es eigentlich zwei GPUs sind. Wie gut das am Ende umgesetzt ist muss AMD aber erst zeigen.

AMD nutzt eine extrem breite Version von Infinity Fabric bereits innerhalb von Navi 2X. Die mit Abstand naheliegenste Form für eine Multi-Chip-Lösung wäre es, dieses nach außen zu führen, was eine flache Hierarchie ohne softwareseitig sichtbare Grenze zwischen den auf verschiedenen Chips platzierten CUs ergibt. Die Synchronisationsprobleme von Crossfire als solche sind also nicht zu erwarten, allerdings müssen die dahinterstehenden Funktionen natürlich trotzdem gewährleistet sein. Gelingt das nicht schnell genug, käme es bei einer pseudo-monolithischen GPU zwar nicht zu Microruckeln, aber die Leistung würde ganz allgemein einbrechen. Leider geben die Gerüchteköche nie ihre Quellen an und da es spätestens seit der HD5000-Generation bei jeder neuen Ladung AMD-Karten sogannante Leaks zu Multi Chip gibt, kann man aus den aktuellen Meldungen nicht herleiten, ob der Knoten tatsächlich geplatzt ist, oder ob wieder nur Zukunftsvisionen in Tagträume gewandelt werden.

Mit modernenen Packagingverfahren (die bislang aber nur von Intel in Serie eingesetzt werden) ist man einer Lösung zwar so nahe wie nie, aber unterschätzen sollte man sie nicht. Wenn man sich die maßgeblich von Infinity Fabric und Speichercontroller bestimmten Leerlaufverbräuche der neuen Epycs anguckt (Analyse von Ian Cutress) und bedenkt, dass eine GPU noch weitaus größere Datendurchsätze bewältigen muss, werden die Herausforderungen deutlich. Eine Serienlösung muss schließlich nicht nur einfach funktionieren, das wäre mit dem vorliegenden Know-How vermutlich trivial, sondern sie muss effizienter und günstiger in der Implementierung sein. Wenn man mit der doppelten Anzahl an Chips wegen des Platzverbrauchs der Interconnects nur 80 Prozent mehr CUs bekommt und diese zum Ausgleich des zusätzlichen IF-Stromverbrauchs ein Drittel niedriger takten müssen, um das Verbrauchsziel zu halten, dann hat man am Ende halt nur die Leistung eines um 20 Prozent vergrößerten, billigeren Monolithen.
 
Ratracing wird wohl nicht weniger werden in 1 bis 2 Jahren. Eher immer wichtiger und mir reichte schon die Raytracing Leistung der 3080 bei weitem nicht aus.
Da PlayStation 5 und Xbox Series X ebenfalls über Raytracing verfügen, wäre dem ganzen jetzt Tür und Tor bis in den Mainstream hinein geöffnet. Hoffentlich springen die Entwickler auch auf den Zug mit auf. :daumen:

Parallel dazu wäre es schön, wenn die Entwickler ihre Engines mehr auf Multithreading und Ressourcenverteilung hin optimieren würden. Die Rohleistung der Hardware ist ja schön und gut, aber du musst diese Leistung auch auf die Straße bringen bzw. in ordentliche Bahnen lenken.
 
Da sind die Herausforderungen aber auch ganz andere. Bei CPU Chiplets musste keine 10.000 Kerne miteinander nahezu perfekt synchronisieren dass du keine Känguruframetimes hast ;-)

GPU MCMs sind technisch extrem herausfordernd wenns gut werden soll. Nicht zuletzt deswegen arbeiten AMD, Nvidia und auch Intel schon viele Jahre daran ohne dass bisher irgendein Produkt erschienen wäre.
Das Ding ist halt dass die Technik extremes Potential bietet - und extremes Risiko wenns schiefgeht.
Ich halte eine Entscheidung, was eigentlich die größere Herausforderung darstellt, nicht für trivial. MCM-CPUs haben eine andere kritische Stelle als MCM-GPUs: Bei den CPUs sind die Latenzen zum Cache (im Sinne von: hin zum kleinen und schneller Speicher) ziemlich entscheidend, bei GPUs sind es eher die Latenzen und Bandbreiten hin zum Hauptspeicher (im Sinne von: hin zum großen Speicher).

Anders gesagt: Wenn HBM3 zur Verfügung stände und der erhoffte Knaller geworden wäre, dann würden sich MCM-GPUs sicherlich schon ordentlich tummeln...
 
AMD zielt auf 160 CUs in 2 Chiplets +RDNA3, NVidia auf monolithische 144 CUs + "AmpereNext". Beide wohl irgendwo in 5-6nm Fertigungen.

Die x2,5 an Performance dürften zwar ziemlich sicher nur theoretischer Natur sein aber in dieser Generation bestünde durchaus die Chance mal wieder einen echten Sprung hinzulegen weil neue Architekturen gleichzeitig mit neuer Fertigung und großem Konkurrenzdruck anstehen. Wenns gut läuft könnten da am Ende +80% reale Mehrleistung bei ähnlichen Randbedingungen anliegen was wir so schon viele Jahre nicht mehr gesehen haben.
Sehe ich auch. Die Schader muss man auch erstmal auslasten können. Gerüchte halt, was soll die Karte kosten 2k Euro ? :)

Ansonsten die Miner würden so eine Karte sicher begrüßen.
 
es wird Ende des Jahres gegen 100K gehen und dann Prost Mahlzeit...
Höre ich immer wieder und doch pendelt er sich bei 45.000 ein. Das ist alles reine Spekulation und seitdem Steuern angekündigt wurden lässt der Hauptsächliche Nutzen der Währung sowieso nach.

Ethereum das selbe....
Und bald kommt die neue (Name fällt mir nicht ein) - wo nur auf rein Speicher geht....
Wird diesesmal nicht so groß ausfallen weil sich an dieser Sache keine Staaten darum kloppen werden. Nur noch "Berufs Miner" und "Mining Corps" werden sich darum kümmern weil Sie damit ja schon einmal Geld gemacht haben.

Heck, Douchecoin ist der größte Mittelfinger an der Sache und ich liebe ihn dafür.

Es wird kein Ende haben, genauso wenig wie Corona ein Ende haben wird, damit müssen wir uns jetzt erstmal die nächsten Jahre abfinden.
Eigentlich schon, da irgendwann die begrenzte anzahl an Bitcoins vollständig berechnet sein wird. Mein letzter Wissensstand war bei ca. 80% und da es zurzeit richtig große Miningstellen gibt, wird das auch schon bald erreicht sein (ich geb dem Zeug noch max. 2 Jahre) Ob das ganze dann noch "effizient" sein wird sei dahingestellt.

Und so oder so, wird das ganze nicht lange weiter gehen. China verbietet es und die USA setzt Steuern darauf. Das ist auch gut so weil es einfach keinen Nutzen für die Menschheit, den Planeten oder irgendeinem größeren Wohl hat.
 
@Mr_X58: Die Zahl der ausgeschütteten Bitcoins ist unabhängig von der Gesamtrechenleistung der Miner und wird im Laufe der Zeit immer weiter reduziert. Die viel zitierte Grenze von 21 Millionen BTC, jenseits derer die Neuschöpfung praktisch null entspricht, wird 2140 erreicht werden.
 
AMD nutzt eine extrem breite Version von Infinity Fabric bereits innerhalb von Navi 2X. Die mit Abstand naheliegenste Form für eine Multi-Chip-Lösung wäre es, dieses nach außen zu führen, was eine flache Hierarchie ohne softwareseitig sichtbare Grenze zwischen den auf verschiedenen Chips platzierten CUs ergibt. Die Synchronisationsprobleme von Crossfire als solche sind also nicht zu erwarten,
1+
Ist doch nichts Anderes als Ryzen. ... dann beide Chips mit einem gemeinsamen IC.

Was sollte eigentlich der komische Satz zur Effizienz von RDNA2 im Artikel?
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
Ich hatte noch nie so ne sparsame Graka! (leicht UV/OCed)
 

Anhänge

  • Outriders2@1800p-60Hz-Vsync.png.jpg
    Outriders2@1800p-60Hz-Vsync.png.jpg
    923,3 KB · Aufrufe: 69
  • B3-Efficiency.png
    B3-Efficiency.png
    20,8 KB · Aufrufe: 62
  • 5700vs6800@VRS.jpg
    5700vs6800@VRS.jpg
    193,9 KB · Aufrufe: 44
Zurück