News Radeon RX 9000: UDNA-Architektur ab Q2/2026 [Gerücht]

PCGH_Sven

PCGH-Autor
Während AMDs kommende Desktop-Grafikkarten der Serie Radeon RX 8000 auf Basis von RDNA 4 ("GFX12XX") voraussichtlich zur CES 2025 vorgestellt werden, sollen die Radeon RX 9000 mit UDNA-Architektur laut Gerüchten im 2. Quartal 2026 folgen.

Was sagt die PCGH-X-Community zu Radeon RX 9000: UDNA-Architektur ab Q2/2026 [Gerücht]

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Let it Zen. XD
Für mich als Kunden ist es nur von Vorteil.

Schön wäre es, wenn es wirklich stimmt. Der unterschied zwischen Intel und Nvidia ist aber, dass sich Nvidia sich nicht auf der GPU Entwicklung ausruht und nichts neues bringt. Ich denke dann wird auch zufällig ziemlich früh eine 6000 Serie oder eine 5090 mit Chiplet Design kommen.
 
Außerdem heißt es, dass Sony sich dazu entschieden habe, bei der Playstation 6 ebenfalls auf die neue UDNA-Architektur zu setzen und jetzt lediglich noch vor der Entscheidung stehe, ob diese mit Zen 4 ("Persephone") oder aber Zen 5 ("Nirvana") kombiniert werden sollte.
Also "entschieden" ist hier vielleicht das falsche Wort.
Wohl ist es eher so, dass die Zusammenarbeit lange klar war und AMD wie schon bei RDNA Resourcen gepooled hat um eine neue Architektur für PCs und Konsolen gemeinsam zu bringen. Neu ist hier mal wieder, dass man zum "one fits all" Ansatz von GCN geht... aber naja.
Jedenfalls ist das keine Entscheidung gewesen, sondern wohl von langer Hand so geplant.
Ob man auf Zen 4 oder 5 setzt? Die Frage ist dann wohl eher ob auf Zen 5 (2024) Zen 6 (2026*) oder gar schon Zen 7 (2028*)

*= reine Vermutung aufgrund des 2- Jahres Zyklus'
Tolles 2024 AMD Jahr,
RDNA 4 kann man überspringen und auf RDNA 5 warten.
ZEN5 kann man überspringen und auf ZEN6 warten.
Kann man immer. Muss aber nicht :D
Klar, wenn du auf Zen 6 warten kannst ist das noch besser, weil du dann näher an den nächsten Konsolen dran bist mit deiner Hardware und daher zukunftssicher(er)
 
Hmm... Wenn die Massenproduktion im Q2 Startet, dann wird man mit der Einführung ja im Q3/Q4 rechnen und damit wäre es quasi schon fast der normale Zyklus wieder. Sep-Dez sind ja ganz häufig schon neue Generationen herausgekommen.

Ich hoffe für uns alle ganz stark, dass es der Zen Moment wird. Allerdings schätze ich Nvidia deutlich stärker ein als Intel. Rückblickend hat Intel schon sehr lange Probleme... auch wenn sich das lange noch nicht ausgewirkt hat.
 
Tolles 2024 AMD Jahr,
RDNA 4 kann man überspringen und auf RDNA 5 warten.
ZEN5 kann man überspringen und auf ZEN6 warten.
Naja, bei Intel ist das Jahr noch desaströser, die alte Gen rauchte ab und die neue Gen schafft es nichtmal die alte zu schlagen.

Bei Nvidia ist in 2024 was passiert? Blackwell verzögert sich und kann nicht gekühlt werden.

Nicht falsch verstehen, aber der Beitrag oben ist halt auch nicht gut. CPU seitig spielt AMD Katz und Maus mit dem großen Intel und GPU seitig ist es was es ist, man hinkt hinterher und wird mit RDNA 4 nicht an NV vorbeikommen. Meine persönliche Meinung ist dennoch, dass AMD einen größeren Schritt machen wird als Nvidia, nicht in der Spitzenleistung, aber in der Effizienz der Chips, denn so wie es aussieht, kommt NV mit Blackwell nur über den Verbrauch.
 
Let it Zen. XD
Für mich als Kunden ist es nur von Vorteil.

Schön wäre es, wenn es wirklich stimmt. Der unterschied zwischen Intel und Nvidia ist aber, dass sich Nvidia sich nicht auf der GPU Entwicklung ausruht und nichts neues bringt. Ich denke dann wird auch zufällig ziemlich früh eine 6000 Serie oder eine 5090 mit Chiplet Design kommen.
a) Dein Satz ist etwas verunglückt, aber wolltest du erklären, dass Intel sich ausruht? Wenn ja, weiter daneben liegen könntest du wohl gar nicht. Die haben innerhalb vergleichsweise kurzer Zeit stetige Verbesserungen an den Treibern bereitgestellt und bereits Lunar Lake hat gezeigt, dass Battlemage eine signifikante Weiterentwicklung darstellt. Selbst wenn sie nVidia nicht schlagen können, in welcher Metrik auch immer und wovon schwer auszugehen ist ;-) kann man ihnen die deutliche Weiterentwicklung nicht absprechen.
b) Als absoluter Marktführer ist es unwahrscheinlich, dass sich nVidia hier nennenswert unter Druck setzen lässt. Die werden sicherlich nicht mal eben ihr Amortisierungsfenster für Blackwell verkürzen und RTX 6000 vorzeitig veröffentlichen, nur weil AMD meint seinen Comeback-Versuch etwas früher angehen zu müssen.
Zudem, die Chiplet-Äußerung ist unbegründet ... entweder ist der GB202 grundlegend ein Chiplet-Design und dann wird etwas wie eine spätere, mögliche 5090 Ti oder ggf. Super es zwangsweise auch sein oder der GB202 ist grundlegend als monolithischer Chip entwickelt worden und dann bleiben auch später veröffentlichte Blackwell-(Refresh-)Designs monolithisch. Sollte Blackwell zurzeit über alle Chips hinweg monolithisch sein, dann wird erst die bisher noch unbenannte NextGen möglicherweise auf ein Chiplet-Design wechseln und auch hier könnte es immer noch bei einem "möglicherweise" bleiben, weil ein Wechsel auf einen 3nm-Node, also ein Full-Node-Sprung, mit der NextGen erwartet werden kann und sie möglicherweise damit immer noch genug Puffer über alle Metriken hinweg zusammengenommen haben, um dann letztmalig erneut mit einem monolithischen (weniger Komplexität, damit auch weniger Risiko und auch weniger Aufwand) Design aufwarten zu können ...?

*) Zumal eine pauschales monolithisch vs. MCM bzg. einer ganzen GPU-Gen per se ungenau ist, da die kleineren Chips noch längerfristig rein monolithisch gefertigt werden, weil es schlicht effizienter ist. Beispielsweise wird AMD aus wirtschaftlichen Gründen eher gezwungen zu sein ein MCM-Desing weiterreichender zu nutzen als ein nVidia, dass seine Fertigung über viel mehr Märkte mit jeweils um ein Vielfaches höherem Umsatzvolumen verteilen kann.

Also "entschieden" ist hier vielleicht das falsche Wort.
Wohl ist es eher so, dass die Zusammenarbeit [Sony & AMD] lange klar war [...]
"Lange klar" ist unwahrscheinlich. Auch die neue Konsolengeneration wird zweifellos ausgeschrieben worden sein und dementsprechend dürfte da nichts "lange klar" gewesen sein. Nicht umsonst hörte man auch diesmal gar explizt von Intel in diesem Kontext. Sony hat kein Geld zu verschenken oder AMD in den Rachen zu werfen und dementsprechend werden sie selbstredend AMD mit einer Ausschreibung unter Druck setzen *) und sich bspw. auch Angebote von bspw. nVidia und Intel eingeholt haben und selbst Qualcomm könnte hier ein Adressat gewesen sein. Letzten Endes besteht kein zwingender Grund ein so hochspezifisches Produkt wie eine Konsole auf x86 oder gar AMD-HW aufzubauen. Hier hätte bspw. jeder der drei Lösungen anbieten können ... ob man einen Umstieg erneut machen wollte, ist eine andere Frage, ebenso ob einer der anderen Hersteller für den von Sony anvisierten Preis überhaupt noch ernsthaft interessiert gewesen wäre. Das Einholen entsprechender Angebote bei der Konkurrenz wird aber seinen Hauptzweck zweifellos nicht verfehlt haben. ;-)

*) ... wie schon immer ... AMD hat bspw. zuletzt den Konsolendeal zur PS5 nicht bekommen, weil sie die einzigen waren die so etwas abliefern konnten, definitiv mitnichten, ... AMD war schlicht die Firma mit ausreichend KnowHow für den Auftrag, die man am stärksten zu preislichen Zugeständnissen zwingen konnte, weil AMD insbesondere zu der Zeit sehr auf den Deal angewiesen war.

[...] und AMD wie schon bei RDNA Resourcen gepooled hat um eine neue Architektur für PCs und Konsolen gemeinsam zu bringen. [...]
Das "Ressourcen poolen" dürfte hier keine zutreffende Sichtweise sein, weil sich die nun kommende Gen bzgl. der Marktsituation deutlich von der damaligen im letzten Jahrzehnt unterscheidet und damals hatte man definitiv nichts "gepoolt" ;-)
Das AMD-Management hatte hier damals entschieden, dass das Konsolenprojekt für Sony/Microsoft priorität hat und dementsprechend hatte man Koduri einen nennenswerten Teil der Ingenieuere für die GPU-Entwicklung entzogen und diese auf das Konsolenprojekt gesetzt. Diese Neuausrichtung bzgl. der RTG führte auch schließlich zu Koduris Weggang bei AMD und Vega musste mit weitaus weniger Arbeitsstunden zu Ende entwickelt werden, als es ursprünglich mal vorgesehen war. Das, was später als RDNA2 auf dem PC veröffentlich wurde war primär das speziell für Sony/Micorosft entwickelte Design. AMD hatte schlicht keine Ressourcen hier parallel eine dedizierte Arch für den eigenen Bedarf zu entwickeln. Man brachte das vermeintliche RDNA(1), mehr schlecht als recht, das sich lediglich so weit von RDNA2 (bzw. dem eigentlich/ursprünglichen RDNA) unterscheiden musste, dass man nicht mit/zu Sony/Microsoft vertragsbrüchig wurde und man durfte die neue Arch schließlich nicht vor der Konsoleneinführung für eigene Zwecke in den Markt bringen.
Heute sieht die Sachlage dagegen anders aus. AMD nimmt das Geschäft gerne mit, ist aber längst nicht mehr in der Bittstellerposition. Die werden hier ihre GPU-Arch weiterentwickeln, UDNA scheint nun die neue Ausrichtung zu sein und man wird diese schlicht Sony optional mit ein paar kleineren, spezifischen Anpassungen für die Konsolen-SoCs anbieten und Sony (und ggf. MS?) die Flausen austreiben indem man sagt, das ... oder wenn ihr ein ganz eigenes, individuelles Design haben wollt, wird es halt deutlich teuerer (im Endeffekt die höfliche Form eines unverblümten "das oder gar nichts" ;-)).

Gegenüber anderen Konkurrenten hat AMD natürlich immer noch den Vorteil, dass man eine inkrementelle Verbesserung auf Hardware- wie Softwareseite ggü. der LastGen anbieten kann, während bspw. nVidia, Intel, Qualcomm hier die Hardware und das gesamte SW-Ökosystem drumherum hätten neu aufbauen müssen, was aus Sicht von Sony/MS zu weiteren Reibungsverlusten führt, die es in der Gesamtbewertung zu berücksichtigen gilt.
Hätte aber bspw. ein nVidia um jeden Preis den Konsolen-Deal haben wollen, die hätten wohl kein Problem gehabt den Zuschlag zu erhalten. Deren Grafik-KnowHow steht eh nicht zur Diskussion und ein leistungsfähiges SoC auf ARM;-Basis hätten die problemlos realisieren können. Letzten Endes darf man bei bspw. konkret nVidia aber eher von einem mäßigen bis gar geringem Interesse ausgehen, was sich natürlich in deren preislichem Angebot niedergeschlagen haben wird.

[...] Ob man auf Zen 4 oder 5 setzt? Die Frage ist dann wohl eher ob auf Zen 5 (2024) Zen 6 (2026*) oder gar schon Zen 7 (2028*)

*= reine Vermutung aufgrund des 2- Jahres Zyklus' [...]
Hier ist mir nicht ganz klar, was du mit diesem Satz sagen wolltest ... Zen7 spielt per se keine Rolle weil zu weit in der Zukunft. Selbst Zen6 könnte möglicherweise noch zeitlich grundsätzlich ausgeschlossen sein.
Und eine Entscheidung zwischen wohlmöglich Zen4 und Zen5 dürfte schlicht eine Preisfrage sein, denn selbstredend wird AMD versuchen Sony mehr abzuknöpfen, wenn sie ein aktuelleres Zen5-Design nutzen wollen.
Darüber hinaus bedeutet die Verwendung dieser Architektur nicht, dass der primäre Node (das Konsolen-SoC könnte mit einer gewissen Wahrscheinlichkeit weiterhin rein monolithisch gefertigt werden) bei aktuellen 4nm bleiben muss. Das Zen4/5-Design könnte durchaus auf einen 3nm-Node transferiert werden und man könnte dennoch CPU-seitig Zugewinne trotz der deutlich älteren Arch verbuchen.
 
Zuletzt bearbeitet:
"Lange klar" ist unwahrscheinlich. Auch die neue Konsolengeneration wird zweifellos ausgeschrieben worden sein und dementsprechend dürfte da nichts "lange klar" gewesen sein.
Du bist doch ein kluger Mensch. Dir ist auch bewusst, dass solche Ausschreibungen oft auch pro forma geschehen.
Wir haben auch gewisse Forschungsgemeinschaften, da ist auch scohn vorab klar mit wem wir zusammenarbeiten werden, ausschreiben tun wir die Projekte trotzdem, genommen wird halt aber was am ehesten der Projektbeschreibung entspricht. Und ja, wir reden hier von Firmen wie Apple, AMD, Intel und Nvidia.

Nicht umsonst hörte man auch diesmal gar explizt von Intel in diesem Kontext.
Es ist auch durchaus gewünscht, dass es andere Bewerber gibt. Aus verschiedenen Gründen, einer davon ist: Geld. Denn die Bewerber unterbieten sich dann oft in den Angeboten - davon profitiert Sony.
Sony hat kein Geld zu verschenken
genau. Aber sie müssen dennoch abwägen: abwärtskompatibilität, Knowhow etc. ist ebenso wichtig und ein neues Ökosystem aufbauen kostet auch Geld.
Am Ende war wohl schon lange klar, dass AMD das günstigste Angebot sein würde.
Hinzu kommt bei Intel eben auch die Unsicherheit über die GPU Entwicklung etc. Die Vereinbarung zur "PS6" Chipentwicklung ist doch schon vor 2-3 Jahren mindestens unterzeichnet worden
Das "Ressourcen poolen" dürfte hier keine zutreffende Sichtweise sein, weil sich die nun kommende Gen bzgl. der Marktsituation deutlich von der damaligen im letzten Jahrzehnt unterscheidet und damals hatte man definitiv nichts "gepoolt" ;-)
Das wurde aber vielerorts anders berichtet, dass Madame Su immer wieder Ressourcen abgezogen hat (aus dem Vega Projekt) um es in Zen und eben den "PS Chip" bzw die Folgearchitektur (RDNA) investiert.
Ebenso wird auch hier wieder eine größere Entwicklung angestoßen, na gut, ist ja auch schon 8 Jahre her, seit RDNA "fertig" is, inetwa so lange hats auch zwischen GCN1.0 und RDNA gedauert. Sowohl GCN (Ende 2011/Anfang 2012) als auch RDNA (2019?) kamen eben "kurz" vor den Konsolen (2013, 2020) als GPUs auf den Markt. Sollte also UDNA 2026 oder Anfang 2027 kommen, wäre auch hier wieder ca 1-2 Jahre vor Konsolenrelease eine neue GPU Architektur eingeführt worden. Und der zeitliche Zusammenhang ist sicher nich ganz unbeabsichtigt.
Das AMD-Management hatte hier damals entschieden, dass das Konsolenprojekt für Sony/Microsoft priorität hat und dementsprechend hatte man Koduri einen nennenswerten Teil der Ingenieuere für die GPU-Entwicklung entzogen und diese auf das Konsolenprojekt gesetzt. Diese Neuausrichtung bzgl. der RTG führte auch schließlich zu Koduris Weggang bei AMD und Vega musste mit weitaus weniger Arbeitsstunden zu Ende entwickelt werden
jep, ich kenne die Geschichte. Bei den meisten ist halt hängengeblieben: Koduri=unfähig. Leider wird da vieles so vereinfacht.

, als es ursprünglich mal vorgesehen war. Das, was später als RDNA2 auf dem PC veröffentlich wurde war primär das speziell für Sony/Micorosft entwickelte Design.
vielleicht habe ich mich (mal wieder!) ungeschickt ausgedrückt, aber genau das habe ich gemeint mit "Resourcen poolen" für eine größere Architekturüberarbeitung (in dem Fall eben RDNA)

Heute sieht die Sachlage dagegen anders aus. AMD nimmt das Geschäft gerne mit, ist aber längst nicht mehr in der Bittstellerposition. Die werden hier ihre GPU-Arch weiterentwickeln, UDNA scheint nun die neue Ausrichtung zu sein und man wird diese schlicht Sony optional mit ein paar kleineren, spezifischen Anpassungen für die Konsolen-SoCs anbieten und Sony (und ggf. MS?) die Flausen austreiben indem man sagt, das ... oder wenn ihr ein ganz eigenes, individuelles Design haben wollt, wird es halt deutlich teuerer (im Endeffekt die höfliche Form eines unverblümten "das oder gar nichts" ;-)).
das ist natürlich wahr, ja. Vorher war es (RDNA) mehr eine Auftragsarbeit, es mag sich nun mehr um eine "Arch von de Stange" handeln. Ziemlich sicher wird man sich aber dennoch nicht gegenseitig vergraulen wollen, AMD weiß es auch besser, dass 8 weitere Jahre sicheres Auftragsvolumen nicht schlecht sind und man lieber nicht Intel überlässt.
Gegenüber anderen Konkurrenten hat AMD natürlich immer noch den Vorteil, dass man eine inkrementelle Verbesserung auf Hardware- wie Softwareseite ggü. der LastGen anbieten kann, während bspw. nVidia, Intel, Qualcomm hier die Hardware und das gesamte SW-Ökosystem drumherum hätten neu aufbauen müssen, was aus Sicht von Sony/MS zu weiteren Reibungsverlusten führt, die es in der Gesamtbewertung zu berücksichtigen gilt.
Aus genau diesen Überlegungen gehe ich davon aus, dass schon kurz vor oder während des Releasezeitraums der PS5 die Gespräche über die potentielle weitere Zusammenarbeit begonnen habne.
Hätte aber bspw. ein nVidia um jeden Preis den Konsolen-Deal haben wollen, die hätten wohl kein Problem gehabt den Zuschlag zu erhalten. Deren Grafik-KnowHow steht eh nicht zur Diskussion und ein leistungsfähiges SoC auf ARM;-Basis hätten die problemlos realisieren können. Letzten Endes darf man bei bspw. konkret nVidia aber eher von einem mäßigen bis gar geringem Interesse ausgehen, was sich natürlich in deren preislichem Angebot niedergeschlagen haben wird.
Ja, gerade Nvidia könnte hier aktuell(!) einfach einen Chip quersubventionieren. Etwa, wenn man unbedingt will, dass die ganze Welt nun auf Raytracing wechselt.
Hier ist mir nicht ganz klar, was du mit diesem Satz sagen wolltest ... Zen7 spielt per se keine Rolle weil zu weit in der Zukunft. Selbst Zen6 könnte möglicherweise noch zeitlich grundsätzlich ausgeschlossen sein.
Ich gehe nich davon aus, dass man auf ein so veraltetes Design setzt. Zen 3 war für die Konsolen wohl zu spät gekommen, weil man da durchaus teilweise(!) gerne auf länger gereifte/erprobte Hardware/Architektur setzt
Wenn die Konsolen tatsächlich ca 2028 kommen würden - das ist jetzt ungefähr das Jahr von dem ich ausgehe - dann bietet sich eine CPU Architektur von 2024 oder 2026 eher an als eine von 2028 (der hypothetische Zen 7 Release) - ja, aber warum hier von einer 2022er CPU ausgegangen wird ist mir nicht klar. Umgekehrt zeigt Zen 5 eben nur wenige Verbesserungen was Gamingperformance betrifft, weshalb ich da eher von einem überarbeiteten Design (mit Cache?) ausging. Aber das ist nur: raten ins Blaue.
Und eine Entscheidung zwischen wohlmöglich Zen4 und Zen5 dürfte schlicht eine Preisfrage sein, denn selbstredend wird AMD versuchen Sony mehr abzuknöpfen, wenn sie ein aktuelleres Zen5-Design nutzen wollen.
Darüber hinaus bedeutet die Verwendung dieser Architektur nicht, dass der primäre Node (das Konsolen-SoC könnte mit einer gewissen Wahrscheinlichkeit weiterhin rein monolithisch gefertigt werden) bei aktuellen 4nm bleiben muss. Das Zen4/5-Design könnte durchaus auf einen 3nm-Node transferiert werden und man könnte dennoch CPU-seitig Zugewinne trotz der deutlich älteren Arch verbuchen.
Das ist natürlich richtig. Oder was auch immer dann gut und günstig ist im Jahr 2028 (evtl sogar schon N2? wobei dies eher zuerst Mobilchips nutzen werden und Konsolen eher auf ausgereifte Prozesse setzen)
 
"Lange klar" ist unwahrscheinlich. Auch die neue Konsolengeneration wird zweifellos ausgeschrieben worden sein und dementsprechend dürfte da nichts "lange klar" gewesen sein. Nicht umsonst hörte man auch diesmal gar explizt von Intel in diesem Kontext. Sony hat kein Geld zu verschenken oder AMD in den Rachen zu werfen und dementsprechend werden sie selbstredend AMD mit einer Ausschreibung unter Druck setzen *) und sich bspw. auch Angebote von bspw. nVidia und Intel eingeholt haben und selbst Qualcomm könnte hier ein Adressat gewesen sein. Letzten Endes besteht kein zwingender Grund ein so hochspezifisches Produkt wie eine Konsole auf x86 oder gar AMD-HW aufzubauen. Hier hätte bspw. jeder der drei Lösungen anbieten können ... ob man einen Umstieg erneut machen wollte, ist eine andere Frage, ebenso ob einer der anderen Hersteller für den von Sony anvisierten Preis überhaupt noch ernsthaft interessiert gewesen wäre. Das Einholen entsprechender Angebote bei der Konkurrenz wird aber seinen Hauptzweck zweifellos nicht verfehlt haben. ;-)

*) ... wie schon immer ... AMD hat bspw. zuletzt den Konsolendeal zur PS5 nicht bekommen, weil sie die einzigen waren die so etwas abliefern konnten, definitiv mitnichten, ... AMD war schlicht die Firma mit ausreichend KnowHow für den Auftrag, die man am stärksten zu preislichen Zugeständnissen zwingen konnte, weil AMD insbesondere zu der Zeit sehr auf den Deal angewiesen war.
Zustimmung zum Thema Ausschreibung und Druck aufbauen, aber der Absatz hinterm Sternchen... Quatsch.
Was genau hätte Nvidia denn für ein Ökosystem liefern können? Tegra hat nicht ansatzweise genug Dampf und Features und die GeForce Chips die wir kennen, wären eine Möglichkeit gewesen, aber da fehlt eben der CPU Part und die Erfahrung damit. Die Bemühungen im Bereich ARM hatten da längst nicht ausgereicht.

Bei Intel wären die Core CPUs sicherlich im mittleren Lastbereich zu kühlen gewesen, aber Intel muss eben ihre Fabs bezahlen und war sicherlich nicht ansatzweise im nötigen Preisbereich. Arc war damals noch nicht ausgereift, das ist sie erst bei uns Kunden und vermutlich ebenfalls zu teuer.
Also was genau meinst du, hätten die beiden Sony bieten können?
Wäre das so gewesen, hätte die Xbox sicher keine Radeon verbaut. Das geht nicht über den Preis allein und solltest du besser wissen
 
Also "entschieden" ist hier vielleicht das falsche Wort.
Wohl ist es eher so, dass die Zusammenarbeit lange klar war und AMD wie schon bei RDNA Resourcen gepooled hat um eine neue Architektur für PCs und Konsolen gemeinsam zu bringen. Neu ist hier mal wieder, dass man zum "one fits all" Ansatz von GCN geht... aber naja.
Jedenfalls ist das keine Entscheidung gewesen, sondern wohl von langer Hand so geplant.
Ob man auf Zen 4 oder 5 setzt? Die Frage ist dann wohl eher ob auf Zen 5 (2024) Zen 6 (2026*) oder gar schon Zen 7 (2028*)
Hm, Wenn man sich die aktuelle Konsolen Hardware anschaut, dann ist max ZEN 5 anzunehmen. Was ja schon nicht schlecht ist. Aber wieder halt kastriert auf um die 35W. Womit jeder Heim PC der mehr Durst haben darf und halbwegs aktuell ist, sowie ggfs. 8 Kerne hat ausreichend schnell wäre.

Bezogen auf RDNA, denke ich das die PS6 und ggfs. die zietlich ähnlich angesiedelte X Box UDNA erstmals zeigen werden und dGPUs für PC ein paar Monate später folgen werden. Auch ähnlich der jetzigen Situation.

UDNA erwarte ich wirklich erst 2027 am Markt.
*= reine Vermutung aufgrund des 2- Jahres Zyklus'
Aber ja.
Kann man immer. Muss aber nicht :D
Klar, wenn du auf Zen 6 warten kannst ist das noch besser, weil du dann näher an den nächsten Konsolen dran bist mit deiner Hardware und daher zukunftssicher(er)
Siehe oben, für die nächsten Konsolen sollten heute aktuelle CPUs der Mittelklasse reichen.
Siehe 7700 bis 9700X, oder 14600(k)f.

Aber schauen wir mal.

Die sollen mal die Konsolen Hardware als Ein- Platinen DIY anbieten.
Sprich kompaktes Board mit Konsolen Technik und Windows Kompatibilität.
Von mir aus gerne dann auch noch eine Nummer dicker. Denke da so an einen mobilen X3d und das mit UDNA kombiniert ausgelegt auf 250W... Bin ich bei und bezahle da dann auch 1800-2500€ für, je nach resultierender Hardware.
Hmm... Wenn die Massenproduktion im Q2 Startet, dann wird man mit der Einführung ja im Q3/Q4 rechnen und damit wäre es quasi schon fast der normale Zyklus wieder. Sep-Dez sind ja ganz häufig schon neue Generationen herausgekommen.

Ich hoffe für uns alle ganz stark, dass es der Zen Moment wird. Allerdings schätze ich Nvidia deutlich stärker ein als Intel. Rückblickend hat Intel schon sehr lange Probleme... auch wenn sich das lange noch nicht ausgewirkt hat.
Und für die Probleme und die Dauer der Probleme bei Intel, hat es schon lange gedauert bis ZEN eine bessere Wahl war. Von daher kann das bei dGPUs echt dauern, wenn es denn ünerhaupt so einen Machtwechsel geben sollte. (bezogen auf Leistung, nicht Marktmacht)
 
Du bist doch ein kluger Mensch. Dir ist auch bewusst, dass solche Ausschreibungen oft auch pro forma geschehen.
Wir haben auch gewisse Forschungsgemeinschaften, da ist auch scohn vorab klar mit wem wir zusammenarbeiten werden, ausschreiben tun wir die Projekte trotzdem, genommen wird halt aber was am ehesten der Projektbeschreibung entspricht. Und ja, wir reden hier von Firmen wie Apple, AMD, Intel und Nvidia.
Man muss die eigene Ausschreibung auch nur richtig formulieren. So kenne ich das zu genüge. Wenn man die Ausschreibung schon sehr detailliert auf das Unternehmen/die Person zurechtschneidert ist von vornherein klar wer den Zuschlag bekommen wird.

Keine ungewöhnliche Praxis. Im Handwerk erlebt, bei Stellenausschreibungen erlebt, für neue Laborgeräte erlebt.
 
Hoffe nur das U steht nicht wie bei Intel für Ultra, also übersetzt dann wohl sowas wie unteridisch? ^^ ;-P
Meine persönliche Meinung ist dennoch, dass AMD einen größeren Schritt machen wird als Nvidia, nicht in der Spitzenleistung, aber in der Effizienz der Chips, denn so wie es aussieht, kommt NV mit Blackwell nur über den Verbrauch.
Wenn ich die ganzen Gerüchte über die Zeit richtig gelesen habe, wird AMD jetzt auch bssere Fertigung bekommen, während NVidia noch einmal die alte Garde fährt?
Haben die dann jetzt quasi wieder Chancengleichheit?
Letztes Mal hatte NVidia hat angeblich 1 Milliarde für die exklusive Nutzung eines speziellen, besseren Verfahrens ausgegeben.
Demnach wird es also wohl stimmen, dass NVidia eigentlich nur bei der 5090 voll Gas gibt und über den Strom kommt, während die anderen, vor allem kleineren Ableger dann erneut nur marginale Zugewinne verzeichnen werden können. Mit den Umbezeichnungen kann NVidia aber wieder beliebig herumspielen und die Käufer herrlich täuschen.
Die Leute glauben ja noch bis heute, sie würden für teures Geld eine 4060 oder 4070 kaufen. Chip und Technik sagen aber was ganz anderes, damals waren das Billigkarten mit niedrigerer Klassifizierung. Doppelwums Gewinn CEO. Nicht umsonst könnte der Kerl ganz alleine Intel aufkaufen.
Ich hoffe inständig, dass die 8000er KArten von AMD in der Mittelklasse fruchten werden, und auch nicht so sehr der Gewinngier unterliegen werden. Ich weiß, wohl zu sehr gewünscht, wenn man nicht muss, nimmt jeder mit, was er kriegt.
Zumindest sollte die Effizienz wieder mindestens die Hälfte aufholen können, insbesondere bei Raytracing, wo man teilweise doppelt so gut werden muss.
 
Zuletzt bearbeitet:
a) Dein Satz ist etwas verunglückt, aber wolltest du erklären, dass Intel sich ausruht? Wenn ja, weiter daneben liegen könntest du wohl gar nicht. Die haben innerhalb vergleichsweise kurzer Zeit stetige Verbesserungen an den Treibern bereitgestellt und bereits Lunar Lake hat gezeigt, dass Battlemage eine signifikante Weiterentwicklung darstellt. Selbst wenn sie nVidia nicht schlagen können, in welcher Metrik auch immer und wovon schwer auszugehen ist ;-) kann man ihnen die deutliche Weiterentwicklung nicht absprechen.
Nur zu diesem Ausschnitt
. Ich beziehe mich auf das gefühlte Intel Jahrzehnt vor Ryzen / Zen etc. 4 Kerner ohne nennenswerten Fortschritt . Hier war gefühlt Stillstand mit maximalen Gewinn.
Das hat sich inzwischen auch geändert wie man weiß und Intel steckt nun in der Krise.
 
Die werden sicherlich nicht mal eben ihr Amortisierungsfenster für Blackwell verkürzen und RTX 6000 vorzeitig veröffentlichen, nur weil AMD meint seinen Comeback-Versuch etwas früher angehen zu müssen.
Boah, wie kann man AMD so sehr hassen?

Natürlich wird Nvidia das Fenster verkürzen wenn AMDs Comeback Versuch gelingt! RTX 5000 wird nach aller Voraussicht ein ähnlicher Rohrkrepierer wie die 3000er Serie (wo bis auf DLSS 2) nichts gelang und nur die Wattage nach oben geschraubt wurde um Mehrleistung zu suggerieren. AMD wird im Bereich der Effizienz aufholen, aber vor allem werden sie Nvidia im Bereich der Kosten herausfordern. Denn RDNA4 wird wohl recht "klein" werden und damit kostenmäßig günstiger als Nvidias Pendants.

*) ... wie schon immer ... AMD hat bspw. zuletzt den Konsolendeal zur PS5 nicht bekommen, weil sie die einzigen waren die so etwas abliefern konnten, definitiv mitnichten, ... AMD war schlicht die Firma mit ausreichend KnowHow für den Auftrag, die man am stärksten zu preislichen Zugeständnissen zwingen konnte, weil AMD insbesondere zu der Zeit sehr auf den Deal angewiesen war.
naja. Wer war denn die Konkurenz?

1.) Nvidia; eher nicht da mit Tegra gescheitert und hohe SC Leistung im CPU Bereich nicht vorlag
2.) Intel; eben auch eher nicht, da die GPUs eher so lala sind und waren
3.) ARM; schwierig, da eben zu der Zeit eine andere Entwicklunsgrichtung angestrebt wurde und die SC Leistung (im Gaming auch auf der Konsole nicht unwichtig) niedrig war.

Im Prinzip ist AMD in dem Bereich zum dem Zeitpunkt relativ einsam am Markt unterwegs gewesen, was man ja auch zu PS4 Zeiten gesehen hat. Die hatten weder im CPU, noch im GPU Bereich Spitzenlösungen, waren von einer Technologieführerschaft in beiden Bereichen weit weg, dennoch (GCN kam ja erst nach Abschluss der Lieferverträge), dennoch wurde AMD verbaut. Sicherleich, weil AMD auch preislich sehr weit entgegenkommen musste, aber eben auch, weil es für die Konkurenz schwierig gewesen wäre, einen (also eine APU) auf dem Leistungsniveau zu platzieren. Nvidia hätte den GPU Part gekonnt, Intel den CPU Part, aber der jeweils andere Part hätte halt größere Lücken geschaffen.
 
Tolles 2024 AMD Jahr,
RDNA 4 kann man überspringen und auf RDNA 5 warten.
ZEN 5 kann man überspringen und auf ZEN 6 warten.
RDNA 4 kann man je nach aktuell genutzter Hardware durchaus ins Auge fassen.
RDNA 5 erscheint vielleicht gar nicht, dafür UDNA. Genauso sieht es mit Zen 5 aus: Bei einer kompletten Neuanschaffung kann es durchaus schon jetzt ein 9700X sein.
Ein Upgrade vom 7500F auf einen 9800X3D wäre ebenfalls u.U. sinnvoll, je nach Ansprüchen haben manche vielleicht sogar darauf gewartet.
 
Zuletzt bearbeitet:
Hoffe nur das U steht nicht wie bei Intel für Ultra, also übersetzt dann wohl sowas wie unteridisch? ^^ ;-P

Wenn ich die ganzen Gerüchte über die Zeit richtig gelesen habe, wird AMD jetzt auch bssere Fertigung bekommen, während NVidia noch einmal die alte Garde fährt?
Haben die dann jetzt quasi wieder Chancengleichheit?
Letztes Mal hatte NVidia hat angeblich 1 Milliarde für die exklusive Nutzung eines speziellen, besseren Verfahrens ausgegeben.
Demnach wird es also wohl stimmen, dass NVidia eigentlich nur bei der 5090 voll Gas gibt und über den Strom kommt, während die anderen, vor allem kleineren Ableger dann erneut nur marginale Zugewinne verzeichnen werden können. Mit den Umbezeichnungen kann NVidia aber wieder beliebig herumspielen und die Käufer herrlich täuschen.
Die Leute glauben ja noch bis heute, sie würden für teures Geld eine 4060 oder 4070 kaufen. Chip und Technik sagen aber was ganz anderes, damals waren das Billigkarten mit niedrigerer Klassifizierung. Doppelwums Gewinn CEO. Nicht umsonst könnte der Kerl ganz alleine Intel aufkaufen.
Ich hoffe inständig, dass die 8000er KArten von AMD in der Mittelklasse fruchten werden, und auch nicht so sehr der Gewinngier unterliegen werden. Ich weiß, wohl zu sehr gewünscht, wenn man nicht muss, nimmt jeder mit, was er kriegt.
Zumindest sollte die Effizienz wieder mindestens die Hälfte aufholen können, insbesondere bei Raytracing, wo man teilweise doppelt so gut werden muss.
Wenn die Grundarchitektur von RDNA bei UDNA beibehalten wird, dann vereinfacht das die Entwicklung und wie Jack Huynh sagte, werden nach RDNA 4 wieder die Profi-Karten mit den Gamer-Karten zusammengeführt und dann kommt da plötzlich ein 256 CU Monster im Gaming um die Ecke, das gleich zu programmieren ist wie die Profi-Karte! Die Xilinx Acquisition war strategisch die richtige Entscheidung! Aber wie immer wird das die Zeit zeigen!
 
Das haben die mit RDNA doch auch schon gesagt bzw. wurde in Gerüchten behauptet das RDNA auch ein Zen Moment sein soll.

Hat mir der 6000er Serie auch gut geklappt, aber mit den 7000ern sind sie Grade bei RT ins Hintertreffen geraten. Die XTX ist ja auf dem Niveau einer 4070 Super was RT angeht. Energieeffizienz gilt das gleiche -> 6000er gut, 7000er hinten dran.

Während die Nvidia Karten auch noch viel UV Potential haben sind die Radeons gelockt. -10% Powertarget is the best i can do :ka:.

Jetzt müssen sie dran bleiben und in den Bereichen aufholen.
 
Zurück