AMD Radeon RX 7000: Navi 31 mit bis zu 384 MiB Infinity Cache auf sechs MCDs [Gerücht]

Als allgemeine Anmerkung: Es macht wenig Sinn zwecks maximalem Wehgeschrei immer nur die voraussichtlich kommenden Topmodelle zu referenzieren. Bereits das aktuelle Portfolio beider Hersteller weist nur bei den regulären Desktop-Chips schon eine beträchtliche Spanne auf:
RTX 3050, 90 W bis zur RTX 3090 Ti, 450 W
RX 6600, 132 W bis zur RX 6900 XT LC, 350 W *)
Und niemand wird gezwungen nur am oberen Ende des Produktspektrums nach einer Upgradeoption zu suchen. ;-) Faktisch macht genau das ein großer Teil des Markes auch nicht, denn der deutlich größere GPU-Anteil wird im unteren bis mittleren Leistungsdrittel abgesetzt, entpsrechend weniger relevant sind die Top- bzw. Halo-Produkte auch für eine Watt- bzw. Umwelt/Effizienz/Sinnhaftigkeits/Vertretbarkeits-Betrachtung.

Mit der kommenden NextGen wird es bei beiden Hersteller das gewohnte Spiel sein. Halo-Produkte, die neue Maßstäbe setzen (in so mancher Sicht :-D ) und ansonsten kann man sich durchaus Mehrleistung gleichzeitig gepaart mit weniger Verbrauch zulegen. Verengt man seinen Blick nur auf einige vereinzelte Produkte verkennt man hier die tatsächlichen Möglichkeiten.

*) Und nach unten hin runden beide Hersteller das Portfolio gar mit noch kleineren Chips ab, so bei AMD bspw. auf Basis des Mobile-Chips Navi24, zwar stark beschnitten, aber dafür noch sparsamer. Wer also geringen Verbrauch will, kann den durchaus kaufen.

[...]
Meine "Hoffnung" liegt absehbar auf der Spiele-Entwicklung, den "Studios",
um wieder mehr Spass, Begeisterung und Inhalte statt "Fortschritt" in brachialen
Verbrauchsorgien zu erwarten/sehen...
Was haben Spielentwickler in diesem Hardware-Kontext zu suchen? Verbesserte, neue oder gar innovative Spielkonzepte oder auch nur -Mechaniken kann/könnte man auch mit leistungsschwacher Grafikhardware umsetzen.
Der Knackpunkt ist, dass bessere/hübschere/detailiertere/hochaufgelöstere Grafik einfacher zu verkaufen ist und marktstrategisch weniger Risiko für eine Multimillionendollarentwicklung bedingt und solange der Markt sich dementsprechend verhält, wird das auch weiterhin der primäre Treiber bei der Spielentwicklung sein.
Sehe ich mir einige Top-Titel aus den 2000ern an ist es schon bedenklich, wie wenig sich an den grundsätzlichen Mechaniken geändert hat, zumindest tatsächlich spieltechnisch. Natürlich gibt es hier und da immer mal Ausnahmen, aber gerade die Top-Publisher sind schon recht konservativ, letzten Endes auch nicht verwunderlich als milliardenschwere Aktiengesellschaften. Jedenfalls anders sind die hundertdrölfzigsten Reinkarnationen eines Battlefield/CoD/AC/... nicht zu erklären. ;-) Also nein, am Ende ist das keine Frage der Hardware.
 
@Bl4ckR4v3n Ne, geh ich so nicht mit.
Thema wird sein, dass Nvidia weiß, dass Sie mit ihrem monolithisch aufgebautem und aufgebohrten Ampere im Bereich Effizienz gegen RDNA 3 wieder das Nachsehen haben werden.
Sie versuchen den Punkt lediglich aus dem Fokus zu rücken und die Karten in einen Bereich zu drücken, wo AMD ebenfalls deutlich uneffizienter wird und Sie selbst idealerweise dann gerade noch performancetechnisch den längsten Balken haben.
Es mag ja sein, dass Nvidia möglicherweise hier im Nachteil ist. AMD scheint hier technisch weiter zu sein und versucht das nun auszunutzen was ok ist. Aber zu sagen die anderen sind die bösen wir ziehen nur nach ist halt nichts weiter als eine Ausrede. Es soll davon ablenken dass man den gleiche Mist mitmacht, wenn auch nicht in der extreme wie es bei Nvidia zu sein scheint.
AMD hätte auch einfach selbstbewusster auftreten können. Stattdessen versteckt man sich hinter der Konkurrenz. Dabei scheint das Produkt ja eine ziemliche Ansage zu sein, was das ganze halt noch unverständlicher macht.
 
Es mag ja sein, dass Nvidia möglicherweise hier im Nachteil ist. AMD scheint hier technisch weiter zu sein und versucht das nun auszunutzen was ok ist. Aber zu sagen die anderen sind die bösen wir ziehen nur nach ist halt nichts weiter als eine Ausrede. Es soll davon ablenken dass man den gleiche Mist mitmacht, wenn auch nicht in der extreme wie es bei Nvidia zu sein scheint.
AMD hätte auch einfach selbstbewusster auftreten können. Stattdessen versteckt man sich hinter der Konkurrenz. Dabei scheint das Produkt ja eine ziemliche Ansage zu sein, was das ganze halt noch unverständlicher macht.
Das sehe ich anders , im CPU Markt kannst du damit recht haben aber nicht bei den Pixelbeschleunigern.!"
Nvidia ist AMD seit jahren immer ein schritt vorraus, da kann AMD noch soviel schnick schnack einbauen auf ihre GPU,s.
Bei der Next gen wird Nvidia wieder schneller sein und das bessere gesamtpaket liefern.
Nvidia hat einfach das Geld und die kapazitäten die AMD nicht besitzt.


Schönen Abend noch
 
Hört sich alles sehr interessant, aber auch sündhaft teuer an. AMD lässt sich das 3D-Stacking ja sehr gut bezahlen auf dem 5800x3D, da würde es mich schon wundern wenn so eine 7950 oder wie auch immer man die vermarktet, nicht deutlich teurer wird als das jetzige Topmodell.
Ein Upgrade beim IF-Cache war zu erwarten, aber dass es gleich dreimal so hoch ausfallen soll finde ich dann doch etwas verwunderlich, rein für die Hit Rate des Cache unter 4k sollte das eigentlich nicht nötig sein und alles über 4k ist eigentlich nur hypothetisch. Mal sehen wie AMD die Strategie weiter verfolgt und wie sie den Infinity Cache durch die Produktserie staffeln werden, ich bin gespannt :daumen:

Thema wird sein, dass Nvidia weiß, dass Sie mit ihrem monolithisch aufgebautem und aufgebohrten Ampere im Bereich Effizienz gegen RDNA 3 wieder das Nachsehen haben werden.
Sie versuchen den Punkt lediglich aus dem Fokus zu rücken und die Karten in einen Bereich zu drücken, wo AMD ebenfalls deutlich uneffizienter wird und Sie selbst idealerweise dann gerade noch performancetechnisch den längsten Balken haben.

Was man sich daran herleiten kann, performancetechnisch wird es an der Spitze eng und im Mainstream-Bereich wird AMD identische Leistung bei niedrigerer Leistungsaufnahme bieten.

Monolithisch ist für die Effizienz sogar eher ein Vorteil, weil du weniger redundante Chipteile verbauen musst.
Eigentlich dürfte es für Nvidia effizienztechnisch keine Entschuldigung mehr geben in der nächsten Gen, da man endlich auch mal wieder einen konkurrenzfähigen Prozess nutzt.
Die Gerüchteküche scheint sich ja schon sicher zu sein, das AMD wohl locker effizienter sein soll, wirklich glauben kann ich das außerhalb von 600W Verbräuchen noch nicht, vernünftig eingestellt müsste Ada eigentlich wieder extrem effizient werden, eben weil sich so "wenig" zu Ampere ändert und hier auch schon mal locker ein viertel bis drittel des Energiebudgets nur für die letzten 10% Performance draufgehen.
Mit den völlig übertriebenen Stock-Werten wird Nvidia das Effizienzduell wahrscheinlich wieder verlieren (da ist man wohl der Meinung, Benchmarkbalken seien alles), bei angeglichener Leistungsaufnahme kann ich mir aber eigentlich nicht vorstellen, dass es einen eindeutigen Sieger geben wird, besonders in den Bereichen, wo Nvidia keinen extrem hochgetakteten GDDR6X Speicher verbauen wird.
 
Thema wird sein, dass Nvidia weiß, dass Sie mit ihrem monolithisch aufgebautem und aufgebohrten Ampere im Bereich Effizienz gegen RDNA 3 wieder das Nachsehen haben werden.

Rein technisch dürfte Nvidia klar im Vorteil sein. Zum einen können sie den schlechteren Samsungprozess (die wechseln nicht zurück zu TSMC, weil sie fair gegenüber AMD sein wollen) weitgehend kompensieren. Zum anderen haben sie die wesentlich höhere Raytracingleistung

Sie versuchen den Punkt lediglich aus dem Fokus zu rücken und die Karten in einen Bereich zu drücken, wo AMD ebenfalls deutlich uneffizienter wird und Sie selbst idealerweise dann gerade noch performancetechnisch den längsten Balken haben.

Wenn AMD voraus wäre, dann dürfte es Nvidia nicht gelingen. AMD konnte Nvidia damals auch nirgend hindrücken, weder mit der R9 290/390X noch mit der Fury X oder Vega.

Was man sich daran herleiten kann, performancetechnisch wird es an der Spitze eng und im Mainstream-Bereich wird AMD identische Leistung bei niedrigerer Leistungsaufnahme bieten.

Momentan kann man rein garnichts herleiten, außer dass es spannend wird. Nvidia läßt es ordentlich krachen und AMD kontert mit dem Multichip und erhöht die Raytracingeinheiten (bezogen auf die Shaderzahl) wohl um den Faktor 2,5, was den Vorsprung von Nvidia stark verkürzt.

Interessant wird auch noch ob der Infinitycache als 6 mal 32/64MB oder ein mal 192/384MB angesprochen wird.

DXR ist die letzte spannende Variable - hier hat sich der Entwickler-Markt zuletzt aber auch schon mehr auf AMD und Konsolen eingestellt, die meisten neuen Games sind bis WQHD mit den Radeons inkl. Raytracing vernünftig spielbar, ist aber halt aich der Bereich, wo AMD hinsichtlich RDNA 3 noch quasi gar nix hat verlauten lassen.

Das mit den Konsolen höre ich schon seit der X-Box One und PS4. Tatsache ist: es hat sich nicht soviel getan.
 
Nur Gerüchte !?

Entscheidend wird wie immer das Gesamtpaket sein !

Und da sehe ich realistischer weise Amd nicht unbedingt vorne .

Wird bestimmt lustig zu sehen, wenn Amd,s Treiber versuchen die MCD,s und deren Speicher zu Managen

:D

Mal ganz davon abgesehen das die Software Abteilung von Amd noch nie der Brüller war und ist :schief:
 
Den Cache können Sie vor mir aus aufpumpen, für mich ist das 384-bit Interface aber viel entscheidender.

Den Aufbau der neuen GPU's verstehe ich noch nicht so ganz.
War Anfangs von zwei oder vier Chplets nebeneinander ausgegangen.
Jetzt also ein IO + 6 MCD's.
Kann man sich einen MCD dann wie ein Zen-Chiplet vorstellen?
Dann käme hier ja gleich eine GPU im Sinne von Epyc oder Threadripper um die Ecke, und nicht nur die Ryzen Radeon :ugly:

Edit: Was die Leistungsaufnahme angeht gibt AMD ja vor Sie müssten, weil der Mittbewerb, also Nvidia, diesen Weg geht.
Halte ich für unvernünftig wenn ich überlege, dass ich meine 6900'er mit FPS cap meist im 150-200W Fenster bewege. Die letzte Leistung kostet so horrend viel Strom - es wird niemals durchgesetzt werden, will ich auch nicht, aber iwo gehört es verboten^^
Das ist das böse Wort wieder "verboten" ;)

Das gehört sicher nicht verboten! Aber ich bin bei dir, dieser Weg erscheint absurd. Gestern noch gelesen, Strom soll jetzt nochmal 50% teurer werden, im Vergleich zu den eh schon angezogenen Preisen.

Bei uns in der Region, bekommen jetzt viele Post von den Stadtwerken, das ab 09/22 40% mehr bezahlt werden muss. Statt 35 Cent, dann 49 Cent.

Auf der anderen Seite muss man sehen. Der Spaß kostet dann immer noch weniger, als andere Hobbys.

Auch, das wenn das so stimmen würde mit 2,3 fache Leistung und nur 34% mehr Energiebedarf, dann wären die neuen Karten wirklich hocheffizient. Das würde auch bedeuten, lässt du die 7900XT mit ca. 200W laufen, ist die um Welten schneller, als die 6900XT.
 
Nur Gerüchte !?

Entscheidend wird wie immer das Gesamtpaket sein !

Und da sehe ich realistischer weise Amd nicht unbedingt vorne .

Wird bestimmt lustig zu sehen, wenn Amd,s Treiber versuchen die MCD,s und deren Speicher zu Managen

:D

Mal ganz davon abgesehen das die Software Abteilung von Amd noch nie der Brüller war und ist :schief:

Softwrae Abteilung schlecht? Keine Ahnung wo von du redest. Alle AMD Karten liefen super. Es gibt bei allen Herstellern das ein oder andere Spiel oder Anwendung, die faxen macht.
 
Ich hab wohl viel zu wenige Spiele gespielt, ich hatte vor meiner 1060 immer ATI/AMD seit der 8500 und irgendwie nie dir großen Treiber Probleme von denen alle immer sprechen.

Klar vielleicht bin ich auch zu dumm die Fehler zu bemerken die beim spielen aufgetreten sind. :schief:
 
... aber niemand konkret benennen kann :schief:
Hä doch, unerklärte abstürzte von Spielen, und nach Installation des Treibers im nicht Expert modus eine Software die zu lags führt.
Ach ne Warte das ist ja meine 3090 gewesen bis vor 5 Monaten. Upssi :)

Aber ne auch AMD hat murks Treiber die ganze Sache mit Zweibildschirmen und der 5700xt, da gibt's es teilweise heute noch Probleme. Ja RDNA1 war nicht schlecht, aber halt auch nicht wirklich Super. Sondern einfach nur o.k.
 
Momentan kann man rein garnichts herleiten, außer dass es spannend wird. Nvidia läßt es ordentlich krachen und AMD kontert mit dem Multichip und erhöht die Raytracingeinheiten (bezogen auf die Shaderzahl) wohl um den Faktor 2,5, was den Vorsprung von Nvidia stark verkürzt.
Quelle?
Interessant wird auch noch ob der Infinitycache als 6 mal 32/64MB oder ein mal 192/384MB angesprochen wird.
Der 5800x3d spricht die 96? MB auch als Block an soweit ich weiß.
Das mit den Konsolen höre ich schon seit der X-Box One und PS4. Tatsache ist: es hat sich nicht soviel getan.

Nunja es gibt ja von Nvidia ein riesen Gegenprogramm. Sonst hätte sich DLSS auch nicht so verbreitet. Und FSR 2.0 wäre vermutlich schon deutlich weiter verbreitet.

Die Spiele die von der Konsole kommen z.B. Forza laufen blendend auf RDNA.
 
Monolithisch ist für die Effizienz sogar eher ein Vorteil, weil du weniger redundante Chipteile verbauen musst.
Eigentlich dürfte es für Nvidia effizienztechnisch keine Entschuldigung mehr geben in der nächsten Gen, da man endlich auch mal wieder einen konkurrenzfähigen Prozess nutzt.

Zum einen war der Prozess von Samsung auch nicht so schlecht wie alle immer behaupten, die höheren Verbräuche seitens Nvidia kommen nur zu Stande, weil man unbedingt den längsten Balken haben wollte. Das mal zum einen und zum anderen war das für Nvidia das Beste was ihnen hätte passieren können, da Samsung eine ordentliche Menge zu einem günstigen Preis liefern konnte, wenn man sich mal ihre Bilanzzahlen anschaut.

Ansonsten sehe ich nicht wieso Nvidia im Vorteil sein soll? Ja Monolithen sind immer effizienter das ist richtig, jedoch nur bis zu einem gewissen Grad. Bei den Chiplets ist ja die Skalierbarkeit von Vorteil und man kann einfach jedes Chiplet im Sweetspot betreiben und dadurch die Leistung nach oben skalieren. Das kannst du beim Monolithen allerdings nicht und das ist an der Stelle genau das Problem, welches Nvidia hat.
Ich mach jetzt einfach mal ein greifbares vereinfachtes Beispiel.
Im Spieleparcour XY kommt AMD im Schnitt auf 100 fps, weil sie einfach entsprechend viele Chiplets verbaut haben. Nvidia kommt mit ihrem High End Monolithen allerdings nur auf 90 fps. Einheiten hinzufügen können sie nicht, also müssen sie mehr Saft auf die Karte geben um AMD einzuholen oder knapp zu übertreffen.
Und genau das ist das Problem das Nvidia im High End Bereich hat und da bei den meisten Käufern der längere Balken zählt, dann wird halt mehr Saft draufgegeben.


Rein technisch dürfte Nvidia klar im Vorteil sein. Zum einen können sie den schlechteren Samsungprozess (die wechseln nicht zurück zu TSMC, weil sie fair gegenüber AMD sein wollen) weitgehend kompensieren. Zum anderen haben sie die wesentlich höhere Raytracingleistung

Nö, siehe oben. Vom technischen Ansatz her (sofern er funktioniert, das wissen wir ja noch gar nicht), ist der von AMD besser, da die Leistung besser skalierbar ist.
Die alles entscheidende Frage ist jetzt nur, wer kann seine Karten besser auslasten? Das wird die Gretchenfrage werden.
 
Ist nicht das selbe...will ja dennoch eine 60er/70er im System haben aber keine mit 300+ Watt.
Und genau diese nutzen ja kleiner Chips, und sind glaube ich dann auch unter 300 Watt. Sonst kannst du immer UV betreiben . Bei Verlust von vlt 5% sparrst halt irgendwas zwischen 10-20% an Strom.​
Aber merke dir ein Großer Chip ist fast immer effizienter als ein kleiner (keine ahnung warum). Vlt weil er näher am Sweetspot taktet.​
]Sieht man ganz gut bei Laptops 110 Watt 3080 gegen eine 120 Watt 3070 die 3080 gewinnt halt immer.​
 
Zurück