Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."

Deutsche Sprache = schwere Sprache, oder wars doch eher negativ gemeint im Artikel:


"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
Zweifel........sie kamen.... .
wirkt auf mich reichlich konstruiert.
Man kann mit der deutschen Sprache ja vieles anstellen, aber das geht nicht. Wenn das wirklich jmd. so versteht, dann war da wohl der Wunsch Vater des Gedankens, oder ein Brett hat die Sicht versperrt oder die Pointe wurde verschluckt.

MFG
 
Da habt Ihr ja lange gebraucht, um das Soo zu verstehen, gratuliere = 1 mit Bienchen.

Eine Redaktion sollte doch bitte einfache, verständliche Sätze benutzen.
Vllt. das nächste Mal.


Oder wäre Das net reisserisch genug?
 
Ja dann hau doch mal raus die Neuigkeiten :-)

Bargeld ist wie jede Cryptowährung eine (erfundene) Währung. Papier und Blech und nicht ansatzweise so viel "wert" wie draufgedruckt ist.

Bitcoin kann jedoch nicht endloss gedruckt werden. Weshalb Sie den digital Gold Standard sein sollen da man auch Gold nicht drucken kann.
 
Bitcoin kann jedoch nicht endloss gedruckt werden. Weshalb Sie den digital Gold Standard sein sollen da man auch Gold nicht drucken kann.
Wie Du sicherlich bemerkt hast hab ich nicht explizit nur vom Bitcoin gesprochen sondern vom gesammten Konstrukt Cryptowährung.

Das ist so aber nicht ganz korrekt. Zum einen spricht dein Argumment sogar gegen das Konstrukt Bargeld da das Gesamtvolumen beliebig vergrößert werden könnte was aber den Wert der einzelnen Note mindert. Zum anderen ist Gold ein sehr weiches Material mit niederem Schmelzpunkt, es sollte also sehr wohl möglich sein dies zu "Drucken" ;-)
Aber selbst die Erzeugung von Gold (Was Du vermutlich auch meintest) ist durchaus möglich. Praktisch schon geschehen im Teilchenbeschleuniger und theoretisch möglich in Form einer Kernfusion.
 
Ist bei Prozessoren aber auch nicht anders... Die Frage ist nur woran es liegt - Ich würde mal auf die mangelnde Optimierung tippen...
Google mal nach einem Herrn Amdahl und dessen Gesetz. Das erklärt dir warum 5000 Shader zwar doppelt so viel theoretische Rechenleistung haben als 2500 aber dennoch nicht entfernt doppelt so schnell sein können in nicht-theoretischen Anwendungen (die nunmal auch seriellen Code enthalten).
 
Solange die Industrie nicht in genügend Mengen produziert bzw. sicherstellt, das die richtige Zielgruppe auch die Möglichkeit hat so eine Karte zu bekommen sind diese Ankündigungen wie der Sack Reis der da irgendwo umfällt ...
Eventuell sollten AMD und Intel oder auch andere wieder wie schon einmal die Grafikeinheit auf das Motherboard bringen - dann haben die Mittelklasse / Casual - Gamer endlich auch die Möglichkeit Spiele mit neuesten Effekten zu zocken.
 
Wenn man mit der doppelten Anzahl an Chips wegen des Platzverbrauchs der Interconnects nur 80 Prozent mehr CUs bekommt und diese zum Ausgleich des zusätzlichen IF-Stromverbrauchs ein Drittel niedriger takten müssen, um das Verbrauchsziel zu halten, dann hat man am Ende halt nur die Leistung eines um 20 Prozent vergrößerten, billigeren Monolithen.
Aber dafür muss man nur noch einen kleineren und einfacheren Chip produzieren für die gesamte GPU-Palette. Der Chip mit dem meisten defekten CUs wird, die Einstiegskarte, mit mehr CUs untere Mittelklasse, 2 schlechte CUs obere Mittelklasse etc...
Das muss doch eine Menge Geld an RnD und Produktionskosten sparen.
 
Soll wohl daran liegen, dass sich Rasterization nicht unendlich hochskalieren lässt, deswegen auch der wechsel zu RayTracing.
Hmm... Da kann ich ehrlich gesagt nicht wirklich drauf antworten... Wäre mir zumindest neu.
Wie gesagt, die "Boliden" diverser Generationen hatten oft das Problem, dass die Shader nicht richtig ausgelastet wurden. Mal lag es dann an der Architektur an sich, mal an internen Flaschenhälsen.

Aber was z.B. Bei der RTX 3090 für den verhältnismäßig kleinen Vorsprung zur RTX 3080 verantwortlich ist, ist glaube ich nicht eindeutig geklärt. Kommen viele Möglichkeiten in Frage. Mangelnde Spieleoptimierung, zu hoher Anteil an Integerberechungen, Flaschenhälse bei den Caches oder ROPS usw.

Was Raytracing an sich angeht, ist die Technik eigentlich nur ein sinnvoller Schritt vom "Vorgaukeln" Realistischer Licht- und Schattenverhältnisse, Reflektionen und Materialien hin zu einer "Licht & Material Simulation".
Gerade bei Beleuchtung und Reflektionen, sieht man ja heute schon ganz ordentliche Unterschiede.
Da der entsprechende Einsatz aber noch begrenzt ist, sind die optischen Unterschiede zu Rasterisierung eben oft
nur im Detail zu erkennen. Zudem hat die Rasterisierung in Spielen natürlich jahrzehntelange Optimierungen und Erfahrungen in der Praxis im Rücken.
Aber bis wir bei vollständigem Raytracing angekommen sind, dauert es sicher noch Jahre wenn nicht Jahrzehnte...
Google mal nach einem Herrn Amdahl und dessen Gesetz. Das erklärt dir warum 5000 Shader zwar doppelt so viel theoretische Rechenleistung haben als 2500 aber dennoch nicht entfernt doppelt so schnell sein können in nicht-theoretischen Anwendungen (die nunmal auch seriellen Code enthalten).
Werd ich mal reinschauen. Dass eine durch die Bank 100% Skalierung unwahrscheinlich ist, ist ja eigentlich auch keine Seltenheit. Der Unterschied zwischen "reinem Compute" und bei Spielen ist aber schon sehr auffällig... Liegt unter anderem wohl auch an der Natur der Berechnungen in "Echtzeit", was auch die durchwachsene Skalierung von mGPU Systemen erklärt wenn's ums Gaming geht... :hmm:
 
Zuletzt bearbeitet:
Könnte schon in naher Planung sein vermute Ich, vielleicht nicht die nächste gen. aber spätestens danach.
Und um die interne Chiplet komunikation zu beschleunigen die ja schon ewig ein negativum ist hilft SAM sicherlich, dies etwas auszugleichen. Füchse!
 
Solange die Industrie nicht in genügend Mengen produziert bzw. sicherstellt, das die richtige Zielgruppe auch die Möglichkeit hat so eine Karte zu bekommen sind diese Ankündigungen wie der Sack Reis der da irgendwo umfällt ...
Eventuell sollten AMD und Intel oder auch andere wieder wie schon einmal die Grafikeinheit auf das Motherboard bringen - dann haben die Mittelklasse / Casual - Gamer endlich auch die Möglichkeit Spiele mit neuesten Effekten zu zocken.

Jetzt wissen wir wenigstens welche Produkte als nächstes nicht, oder nur zu Mondpreisen, lieferbar sein werden. :ugly:
 
Wird sicher ne Generation mit ganz toller Verfügbarkeit und dem entsprechenden Preis/Leistungsverhältnis dazu.
 
Dass eine durch die Bank 100% Skalierung unwahrscheinlich ist, ist ja eigentlich auch keine Seltenheit. Der Unterschied zwischen "reinem Compute" und bei Spielen ist aber schon sehr auffällig...
Reines Computing ist je nachdem was berechnet werden soll quasi beliebig parallelisierbar, da Berechnungen unabhängig voneinander sind. Wenn du ein Gleichungssystem mit 10000 Gleichungen und 10000 Unbekannten lösen willst (was mathematisch gesenen ne Determinantenbestimmung einer riesen Matrix ist) geht das sehr sehr viel paralleler als wenn du berechnen willst, wie sich ein KI gesteuertes Monster auf die Bewegung eines Spielers verhält als Extrembeispiel.

Zusätzlich sei erwähnt, dass die reinen Rechenleistungsangaben in irgendwelchen Teraflops der GPUs THEORETISCHE Maximalwerte sind, also jeder Shader ist immer 100% perfekt ausgelastet und es gibt keine Flaschenhälse und null seriellen Code. Dass das in der Realität zwingend weniger sein muss ist prinzipbedingt klar.
 
Das ist Ansichtssache und nebenbei ein oft genutztes Argument um keine Verantwortung zu übernehmen.
Irgendwo muss man ja schließlich anfangen. Mit "In" hat das herrlich wenig zu tun...
Das sehe ich grundsätzlich auch so. JEDER sollte zu diesem Thema einen Beitrag leisten.
Mit dem Finger auf andere zu zeigen und zu sagen: "Aber der könnte viel mehr sparen" ist sinnfrei.
Die Autofans sind auch gegen ein generelles Tempolimit weil man damit ja global gesehen nur sehr wenig ausrichtet.
Wenn aber alle 10% Energie sparen sind das halt 10%.

Am Ende hat es aber jeder selbst in der Hand seine CPU oder GPU in einen effizienteren Rahmen zu stecken.
Takt und Spannung runter, in den meisten Fällen kostet das nur wenig FPS und spart Strom (für CPUs trift das mehr zu als für GPUs).
Mein 10850K ist mit max 4,0Ghz und 1,05 statt 1,35V immer noch viel zu schnell (je nachdem was man halt damit vorhat) läuft aber weitaus effizienter, kühler und leiser.


Ein Chiplet Design bei Grafikkarten halte ich für den richtigen Weg.
AMD hat schon bei den CPUs gezeigt dass das gut funktioniert (Intel zu Zeiten von Core 2 Quad ebenfalls).
Bei Grafikkarten ist das sicher nicht so einfach zu realisieren aber der richtige Weg ist es meiner Meinung nach trotzdem. Und was die Rechenleistung, Frametimes und Leistungsaufnahme angeht, das werden wir sehen sobald diese Gen das Licht der Welt erblickt.
 
Sry aber das ist Fanboy-Gelaber.
Ja 2 "Chiplets" wären möglich, aber bei 2x80CU = 2,5x80CU Leistung? Eher nicht, ich würde eher auf 1,7 oder weniger tippen. Der I/O DIE um beide Chiplets anzusteuern macht diese eher langsamer.

Außerdem wenn es wirklich 2xNavi21 auf der GPU sind, dann müsste die GPU ja jenseits der 450W aufnehmen und wie groß soll dann der Kühler sein???
 
Sry aber das ist Fanboy-Gelaber.
Ja 2 "Chiplets" wären möglich, aber bei 2x80CU = 2,5x80CU Leistung? Eher nicht, ich würde eher auf 1,7 oder weniger tippen. Der I/O DIE um beide Chiplets anzusteuern macht diese eher langsamer.

Außerdem wenn es wirklich 2xNavi21 auf der GPU sind, dann müsste die GPU ja jenseits der 450W aufnehmen und wie groß soll dann der Kühler sein???
Ich formulier es Dir gerne aus: Spekuliert wird 2x 80 RDNA3 CUs = 2,5x 80 RDNA2 CUs.
Es steckt nicht nur ein Performance-Gewinn darin dass es doppelt so viele CUs sind sondern auch im Performance-Sprung von RDNA2 auf RDNA3.

Falsch, es sind ja nicht 2x Navi21 (RDNA2) sondern 80 CU Chiplets (RDNA3) in einer besseren Fertigungsgröße.
 
Ich formulier es Dir gerne aus: Spekuliert wird 2x 80 RDNA3 CUs = 2,5x 80 RDNA2 CUs.
Es steckt nicht nur ein Performance-Gewinn darin dass es doppelt so viele CUs sind sondern auch im Performance-Sprung von RDNA2 auf RDNA3.

Falsch, es sind ja nicht 2x Navi21 (RDNA2) sondern 80 CU Chiplets (RDNA3) in einer besseren Fertigungsgröße.
Bessere Fertigungsgröße? Das ist ja dann NOCH teurer als 7nm und dann gleich 2xChiplets? Die Karte wird UVP dann mind 2000-2500€ kosten mit einem Marktpreis von 5000+€. WENN AMD überhaupt Kapazitäten bekommt. Apple kauft ja alles auf...

Übrigends, das Gerücht mit 160CUs bzw 2x80CUs gabs schon Januar.

Nvidia will ja mit Lovelace auch 18432 CUDA-Kerne haben und ca 66TFLOPS (FP32).
Die 6900XT hat 23.04TFLOPs x2,5 wären das 57,6TFLOPs....

Erstmal abwarten...
 
Bessere Fertigungsgröße? Das ist ja dann NOCH teurer als 7nm und dann gleich 2xChiplets?
Die Nummer mit zwei Chiplets zu ~300 mm^2 macht man doch gerade eben deswegen weil es BILLIGER ist als nen einzelnen 600er Die aufzulegen dessen Yields vermutlich ziemlich furchtbar sind zu Anfang einer neuen Fertigung. :rollen:

Nvidia will ja mit Lovelace auch 18432 CUDA-Kerne haben und ca 66TFLOPS (FP32).
Bei einem vollaktivierten Chip und gleichen Taktraten. Beides darf bei einer nötigen (extrem teuren) Chipgröße plus resultierender TDP bei hohem Takt wenn NV das monolithisch machen will stark bezweifelt werden.

Was die theoretische Rechenleistung angeht werden beide wohl irgendwo um die 50-60 TFlops landen. Wer am Ende die bessere Performance bringt muss sich zeigen.
 
Na wenigstens hat er die Stelle in der News gefunden, wo erwähnt wird dass das Thema im Januar bereits vorkam. Ist doch schon mal was. :rollen:
 
1,5x bei 250-300W halte ich für realistisch. Verluste wird durch chiplet geben und der takt wird niedriger ausfallen da sonst die tdp irgendwo bei 500W+ liegen müsste. Interessant werden die Karten unter Wasser und ohne tdp Limit werden.
Haben wir doch jetzt schon (wer will/kann) ... :devil:

MfG Föhn.
Wird dann wer kaufen können zum Preis von 2000€?????‍♂️
ALLE !

MfG Föhn.
 

Anhänge

  • 3090 550 Watt.jpg
    3090 550 Watt.jpg
    508,4 KB · Aufrufe: 15
  • 3080 ü 2100€.jpg
    3080 ü 2100€.jpg
    685 KB · Aufrufe: 13
Zuletzt bearbeitet von einem Moderator:
Zurück