News UDNA statt RDNA: AMD kündigt neue GPU-Architektur an

Was udna gemeint ist folgendes
Man wird gcn basis 64bit arch auf die 32bit arch von rdna übernehmen
Das ermöglicht mit der arch hpc und gaming zu verbinden
cdna ist quasi gcn mit tensor cores. (fixe compute Einheiten in int4 int8) das zusammenzulegen macht Sinn da man die tensor Einheiten für das denoising nutzen will sofern das auch in Echtzeit geht.

Das aber wird erst 2027 so weit sein.
 
Kein High-End mehr, nur eine Architektur, das riecht nach ziemlich cut back in der GPU Sparte. Bedeutet nämlich auch, dass man auch im Bereich KI und Compute kein High-End mehr haben wird.

Das Gegenteil ist hier der Fall, eine Konsolidierung der Architekturen, senkt primär die Entwicklungskosten auf zwei unterschiedliche Architekturen zu fahren und gleichzeitig das Zusammenziehen der HW / SW Entwicklungsressourcen um hier optimaler zu arbeiten. Anders macht es NVIDIA auch nicht im Prinzip sind alle NVIDIA Rechenzentrums GPUs in irgendeiner Form früher oder Später im Desktop gelandet und lediglich ein paar HW Cutbacks bzw. Treiberlimitierungen haben den Unterschied dargestellt zwischen den GPUs ( mal abgesehen von Menge und Art der VRAM Bestückung ). Die Aussage von AMD das sie kein High End anbieten wollen ist auch keine Endgültige Aussage, wie aus den Infos von AMD Hervorgeht wird es bis UDNA eh noch 2-3 Generationen dauern und von daher kann bis dahin schon einiges passieren. Davon ab heißt die Konzentration auf Midrange im Consumer Bereich nicht das die Superskalierbaren GPUs von AMD nicht in einer höheren Ausbaustufe im ProSumer oder Servermarkt dennoch releast werden würden. Alleine der Fakt macht in den UDNA Generationen höher Gespeccte Consumer Karten für den High End Bereich eher wahrscheinlicher als Unwahrscheinlicher.

Macht schon Sinn. Aber für den Reinen Gamer wie mich etwas ein Nachteil, da die Karten komplexer werden, und ich diese Komplexität nie voll ausnutze. Ich Kaufe dann also eig mehr Technik als ich benötige.
Und das spiegelt sich dann bestimmt auch im Preis oder Stromverbrauch wieder.
Die ganzen Karten damals wo Radeon dass noch nicht getrennt hatte, waren ja auch relativ Ineffizient im vergleich zu Nvidia. (R290 zb)

Als Gamer hast du auch heute schon in einer RTX Karte zu 99% einen Chip stecken der in abgewandelter Form eigendlich auch im Rechenzentrum / Workstations anzutreffen ist. Das Chipdesign ist da Grundlegend das gleiche , man fährt halt für den Consumer Bereich schon immer beschnitte / teildefekte Chips aus höheren Fertigungen die kostengünstiger in der Produktion sind und verkauft die dann als "Gaming" Chips ... In der Regel bekommst du also keine Technik die du nicht brauchst für mehr Geld aufgetischt.
Was die alten AMD Karten betrifft, war Grenada und sein Vorgänger sowieso ein Effizienz Problem da AMD hier versuchte einen auf Intel zu machen und mit dem Dampfhammer mit der Spitze mithalten zu können. Erst ab Polaris hat man geschnallt das Effizienz der bessere Weg ist zu punkten.

Rolle Rückwärts, und kommt jetzt wieder Kuduri zurück?
Der kann sich eh demnächst einen neuen / alten Arbeitgeber suchen, Intel baut da ab bzw. trennt sich von den Sparten die nicht Profitabel sind und am Ende ist da die Hauseigene GPU Sparte ganz vorne mit dabei. Und irgendwann sucht sich Intel ganz einfach einen Sündenbock.

Allerdings stelle ich mal in den Raum ob es unter Kuduri in irgendeiner Form besser werden könnte ... klar aus seiner Hand stammen die Vegas und die erste RDNA Gen... allerdings ist auch hier die Frage im Raum: Performance auf biegen und Brechen Vs. Effizienz. Und vor allem auch wie schnell er wieder bei AMD an aktuellen ( wichtigen ) Projekten beteiligt werden könnte.
 
Kein High-End mehr, nur eine Architektur, das riecht nach ziemlich cut back in der GPU Sparte. Bedeutet nämlich auch, dass man auch im Bereich KI und Compute kein High-End mehr haben wird.

Das siehst du falsch: die High-End-Karten werden teuer im Profimarkt verkauft, wir bekommen die abgespeckten Gamerkarten mit weniger Funktionseinheiten und weniger Speicher.
Quasi das Equivalent zur CPU-Sparte.
Die Auftrennung im GPU-Sektor fand ich damals eh komisch, weil doppelte Entwicklungslast.
Das Problem wird dann aber wieder sein, dass man bei einer so großen Skalierung keine effizienten Chips entwerfen kann, die in allen Bereichen brillieren.
Es ist so wie das Dilemma der x86 Architektur, wo man dann ggf. mit mehr Strom den Balken länger machen muss, um gezielte Angriffe von ARM abzuwehren.
Das fidn eich Schade, denn nach der ersten Ankündigung, dass nur noch Mittelklasse-Gamingkarten produziert werden, gab es ja die Hoffnung, dass nun speziell für diesen Bereich optimiert wird, vor allem auch was Recheneinheiten, Bandbreite, Takt und dem damit einhergehenden Stromverbrauch betrifft.
Denn es ist nichts nerviger als schlecht herunterskalierte Karten, wo man zu viel weggestutzte Einheiten durch viel zu hohen Takt wieder in eine halbwegs erträgliche Zwischenposition auf den Markt wirft und die Effizienz und die damit einhergehende Lautstärke der Lüfter deswegen sehr deutlich leidet.
 
Zuletzt bearbeitet:
ja der Stillstand scheint von amd und nvidia gewollt zu sein um die asp zu steigern was anhand von alternativen auch gelungen ist
Die folge der Umsatz sinkt seit 2 Jahren gewaltig. ja es war ne inflation daher war mein ursprüngliches maximum vor der inflation 300€ jetzt ist es 450€ mangels alternativen aber der sprung ist noch zu klein fürn Wechsel Und die preise sind genau 100€ über dem was angemessen wäre.
Da aber sony sich von Unvernunft leiten lässt dürfte der sprung auf 2025 verschoben haben.
Jetzt sorgt die software dafür das man irgendwann die preise anpassen muss.
Da ist die Meldung das amd nach Umsatz giert gut womit rdna4 irgendwann im nov kommt.
Die frage dann gibt es einen haken und ich vermute ja wird es geben.
mein verdacht beide rdna4 haben pcie5x8
beide haben 17gbps
beide haben maxed 2,8ghz Takt
die tbp liegt bei grob 250w und 285w
Preise ab 549€ und 649€
perf plus von nur +30% und +36%
P/L + von nur +5%-15%
keine sku unter 500€
Daher dürfte sich meine nächste gpu erst 2025 realisieren das die ps5 pro 800€ kostet war ein schock und zementiert die aktuelle situation.
Der n44 wird vor q2 2025 nicht kommen dieser wird aber reichen den da kann es sein das man die 299€ und 349€ Bereich abdecken will von p/l auf +15% und +20%

Eine sku dazwischen wäre schön aber unwahrscheinlich bis man die rx7700xt und rx7800xt abverkauft hat
nvidia Reaktion kann nur sein das man die rtx5060 etwa gleich schnell wie die n44 Vollausbau bei 399€ setzt mit dann 32sm bei 2,3ghz und 155w tbp (pcie5 x4)
beide auf lange Sicht zu langsam um gegen die ps5 pro zu bestehen den die wird im preis sinken das steht sicher
man wird gezwungen sein zur rtx5060ti ab 499€ zu greifen etwa 48sm 2,3ghz 230w bei 24tf was in etwa der rtx4070 super entspricht

Düsterer Hätte es nicht kommen können was tbp und perf per euro wird.
Was tun nun den kleinen sprung machen oder warten bis q2 2026 ist die Lösung sofern man es aushält bis dahin den eineinhalb Jahre ist lang.
Für mich wäre der sprung vs meiner gpu rx8600xt +45% zu klein dann bliebe nur die rtx4070 als einzige option +100% aber über 500€ und über 170w

irgendwie haben amd und nvidia was gegen 170w und nur einen 8 pol Stecker.
 
Ich finde das ist wie RDNA4 und kein High-End der richtig Schritt.
AMD braucht einen Zen Moment im Bereich Grafikkarten oder auch gerne einen Epyc moment.
So eine Schöne UDNA 1 GPU mit Ordentlich Pathtracing leistung , darf dann auch gerne wieder in mein System wandern.
 
Das Gegenteil ist hier der Fall, eine Konsolidierung der Architekturen, senkt primär die Entwicklungskosten auf zwei unterschiedliche Architekturen zu fahren und gleichzeitig das Zusammenziehen der HW / SW Entwicklungsressourcen um hier optimaler zu arbeiten. Anders macht es NVIDIA auch nicht im Prinzip sind alle NVIDIA Rechenzentrums GPUs in irgendeiner Form früher oder Später im Desktop gelandet und lediglich ein paar HW Cutbacks bzw. Treiberlimitierungen haben den Unterschied dargestellt zwischen den GPUs ( mal abgesehen von Menge und Art der VRAM Bestückung ). Die Aussage von AMD das sie kein High End anbieten wollen ist auch keine Endgültige Aussage, wie aus den Infos von AMD Hervorgeht wird es bis UDNA eh noch 2-3 Generationen dauern und von daher kann bis dahin schon einiges passieren. Davon ab heißt die Konzentration auf Midrange im Consumer Bereich nicht das die Superskalierbaren GPUs von AMD nicht in einer höheren Ausbaustufe im ProSumer oder Servermarkt dennoch releast werden würden. Alleine der Fakt macht in den UDNA Generationen höher Gespeccte Consumer Karten für den High End Bereich eher wahrscheinlicher als Unwahrscheinlicher.
Also ich würde eher eine Konzentration der Resourcen auf das Duell mit Intel vermuten.
 
Also ich würde eher eine Konzentration der Resourcen auf das Duell mit Intel vermuten.
Du musst keine zusätzlichen Ressourcen mehr auf ein Duell mit jemandem verwenden, der sich selbst ein Bein stellt und absichtlich hinfällt.
Intel muss grad delivern, verliert viel an der "Basis" und auch Kunden(vertrauen) und muss darüber hinaus sich selbst Gesundschrumpfen und währenddessen rechtfertigen warum die eigenen Grundsätze, jetzt aufeinmal nichtmehr heilig sein sollen ( eigene Fabs / nur interne Fertigung ) und man auch nie der Marktführer war als den man sich verkauft.
Intel hat in den letzten Jahren vor dem ersten Ryzen, sich auf seiner Konkurrenzlosen Marktführerschaft ausgeruht und weniger durch Innovation als durch Stagnation und keinerlei Fortschritt geglänzt.
Das Wettrennen gegen AMD haben sie unvorbereitet starten müssen und schnell lernen müssen das sie eben nicht nur eine Generation hinterher waren, sondern viele. Seitdem wird versucht mit dem Dampfhammer gegen bessere Fertigungen, mehr Kerne und höhere Gesamtleistung vorzugehen.
Intel wird noch 2-4 Generationen brauchen um aus ihrem Loch rauszukommen, genug Zeit also für AMD Geld in eine andere Front zu werfen um dort auch wieder Marktanteile zu gewinnen.
 
Du musst keine zusätzlichen Ressourcen mehr auf ein Duell mit jemandem verwenden, der sich selbst ein Bein stellt und absichtlich hinfällt.
....
Intel hat in den letzten Jahren vor dem ersten Ryzen, sich auf seiner Konkurrenzlosen Marktführerschaft ausgeruht und weniger durch Innovation als durch Stagnation und keinerlei Fortschritt geglänzt.
Siehst aber schon den Widerspruch, wenn du sagst, dass AMD sich nicht anstrengen muss? Mit Ryzen 9000 hat sich AMD auch nicht grade als Schmiede der Innovation und des Fortschritts präsentiert.
 
Tjo sie haben sich mit der zusätzlichen Einführung der X3D Chips keinen Gefallen getan. Die aktuellen 9000er Chips konkurieren ja eigendlich auch mit ihren Vorgängern und nicht den X3D Varianten.
 
Tjo sie haben sich mit der zusätzlichen Einführung der X3D Chips keinen Gefallen getan. Die aktuellen 9000er Chips konkurieren ja eigendlich auch mit ihren Vorgängern und nicht den X3D Varianten.
Und selbst zu diesem sind sie im Gaming kaum ein fortschritt .
11% das ist ok aber auch kein Wunderwerk wenn beide mit gleichen Ram betrieben werden wird es vermutlich noch weniger.
Da Ryzen 9000 auch keinen besseren IMC hat (von dem was man von Ocern) hört kann man sagen das die meisten Gamer wohl beide mit 6000mhz fahren werden.
1726136844249.png
 
Zurück