News Zen 6 und UDNA: Die Zukunft von AMD Ryzen und Radeon

PCGH_Sven

PCGH-Autor
Im kommenden Jahr werden Zen 6 und UDNA die nächste Generation der Ryzen-CPU und Radeon-GPUs antreiben und werfen bereits jetzt ihre Schatten voraus. Aus dem für gewöhnlich gut unterrichteten Chiphell-Forum kommen neue Details an Licht.

Was sagt die PCGH-X-Community zu Zen 6 und UDNA: Die Zukunft von AMD Ryzen und Radeon

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Wann sollen den nächstes Jahr neue GPUS kommen?

Ganz ehrlich: Bis 2028 oder so bei Nvidia neue GPUS kommen möchte ich nicht warten.
Da würde ich schon eine 5000er kaufen.

Aber wenn ZEN 6 UND eine neue high end GPU von AMD Mont, die auch noch einen Shrink von TSMC an Bord hat, dann würde ich glaube ich das eine Jahr warten.
 
Wollen sie mit Zen6 Intel endgültig den Todesstoß versetzen oder wie darf man die Codenamen verstehen? Oder haben sie gleich das Ziel Weltherrschaft? Medusa, Monarch...? Sind schon sehr spannende Namen (ja, ich weiß, diese sind schon länger bekannt).
32-Kerner im Privatumfeld klingen lecker. Da muss ich mal schauen, ob ich es schaffe, mir diesen auszureden. Vielleicht bekomme ich das über den Geldbeutel hin. :lol:
Und es wäre gut, wenn AMD wieder einen Frontalangriff auf Nvidia starten würde. Lederjacke ist mir mittlerweile etwas zu abgehoben. Ich investiere auch gerne Geld in meinen Rechner, aber die Preise kann ich mir kaum noch schön saufen. Und mit 4 Promille und mehr verbaut sich eine Grafikkarte immer so schwer.
 
Ehrlich? Ich denke nicht, dass das jemand kaufen wird.

Denke eher daran, dass Zen6c Kerne in ein 32er CCD wandern und 16 Zen 6 Kerne in einem CCD im Desktop kommen werden.
Wird man sehen. Ich komme noch aus der Zeit, in der Haben besser war als Brauchen. Tatsächlich ist das aber schon seit einem Weilchen im Privatumfeld nicht unbedingt mehr vonnöten. Aber wie werden es sehen. Vielleicht hast du recht und es kommt mit dem Zen6c so, nur sehe ich im Desktopbereich eher nicht die Notwendigkeit. Intel hat es mMn ja gezeigt, dass dieses System im Spieleumfeld eher nicht funktioniert. Und auch so kommt es im Desktop nicht auf jedes Watt an.
 
Ich könnte mir auch eher vorstellen, dass man auf 12 Kerne (im besten Fall 16) pro CCD setzen wird.
Wären bei 2 CCDs 24 kerne/ 48 Threads und sollte privat allemal ausreichen. Wenn die Kernanzahl auch nicht so hoch ist, kann man mit dem Takt und Wattzahlen besser "jonglieren". ^^

PS: Mir gefällt der Name Medusa sehr. :D Was hast du denn für eine CPU im Rechner? >> Ich habe eine brandneue Medusa drin, hah!
 
Ich könnte mir auch eher vorstellen, dass man auf 12 Kerne (im besten Fall 16) pro CCD setzen wird.
Wären bei 2 CCDs 24 kerne/ 48 Threads und sollte privat allemal ausreichen. Wenn die Kernanzahl auch nicht so hoch ist, kann man mit dem Takt und Wattzahlen besser "jonglieren". ^^

PS: Mir gefällt der Name Medusa sehr. :D Was hast du denn für eine CPU im Rechner? >> Ich habe eine brandneue Medusa drin, hah!

Wenn AMD auf 16 vollwertige Kerne als kleinste Einheit hochgeht, muss man abwarten, ob das überhaupt noch in den Desktop kommt. Der Marktschwerpunkt liegt bis heute bei 6- oder maximal 8-Kernern, die 16er spielen keine große Rolle; 32er (Threadripper ist laut AMD ja "Desktop"...) überhaupt keine. Das alles mit einem nativen 16er-Chip zu bedienen würde bedeuten, jede Menge teures Silizium zu deaktivieren. Nachdem AMD 2+4, 8 und 4+8 Kerne bereits als Monolithen fertigt, würde ich bei einer Umstellung der Epycs auf 16 Kerne als kleinste Einheit eher damit rechnen, dass MCM komplett aus dem Desktop verschwindet und stattdessen ein 8+8 Monolith (oder Tile-Design) kommt. Ein extra Package und einen extra (IOD-)Chip nur für Ryzen 9 zu entwickeln wäre vermutlich genauso teuer und würde AMD weiterhin zu Kompromissen zwischen Server- und Desktopanforderungen im CCD-Design zwingen.

Ich persönlich würde aber auch noch kein Geld auf "16er CCD"-Meldungen verwetten. Auch bei den Epycs gibt es einen Markt für Konfigurationen mit relativ wenig Kernen, die man effizient bedienen möchte, während das wirklich extreme Multithreading am oberen Ende eher von Zen6c bedient wird. Wieso also nicht bei acht bleiben? Weil sich ein paar Enthusiast-Gamer einen 16er Block wünschen? Die wünschen sich so manches, was sie nicht bekommen.
 
Naja wenn sie wieder nur einen 8-Kerner bringen, zieht das denn dann noch? Also ok X3D, bissel mehr Takt,a ber sonst?

Können die nicht doch mal die Kern erhöhen von 8 auf 10 oder 12? Das muss doch machbar sein?!
 
N3 klingt realistisch für die cpu aber soweit ich mich entsinne sollen 2 zen6 kommen
zen6 desktop cpu 12 kern ccd und zen6c server mit 32kern per ccd
Indes 6,0ghz sind aber realistisch

N3e für udna wäre enttäuschend weil damit die maximal alu auf nur 80cu a 128alu limitiert wird. Damit wäre man nicht schneller als nvidia aktuelle 90 class gpu dies wäre ende 2026 was spät.
 
Eigentlich war ein 9950X3D bei mir geplant, aber nach der News, dass wieder nicht alle Kerne über V-Cache verfügen, habe ich mir dann doch den 9800x3D gekauft. Reicht auch erstmal, läuft schön mit Curve Optimizer All Cores negativ - 35 und mit einem Takt von 5,425. Medusa wird der nächste Hit, wenn die Leaks stimmen, dann können alle Kerne auf den Cache zugreifen. Mal sehen, wie Intel darauf reagiert oder eben nicht.
 
Wann sollen den nächstes Jahr neue GPUS kommen?

Ganz ehrlich: Bis 2028 oder so bei Nvidia neue GPUS kommen möchte ich nicht warten.
Nvidias GPUs werden eventuell 2027 kommen, waren bislang immer knappe 2-Jahres Schritte. Also Ende 26/Anfang 27
Aber wenn ZEN 6 UND eine neue high end GPU von AMD Mont, die auch noch einen Shrink von TSMC an Bord hat, dann würde ich glaube ich das eine Jahr warten.
3nm gilt als sehr sicher für Zen 6 und die RDNA4 Nachfolger sowie Geforce 6xxx.
Wenn AMD auf 16 vollwertige Kerne als kleinste Einheit hochgeht, muss man abwarten, ob das überhaupt noch in den Desktop kommt. Der Marktschwerpunkt liegt bis heute bei 6- oder maximal 8-Kernern, die 16er spielen keine große Rolle; 32er (Threadripper ist laut AMD ja "Desktop"...) überhaupt keine. Das alles mit einem nativen 16er-Chip zu bedienen würde bedeuten, jede Menge teures Silizium zu deaktivieren. Nachdem AMD 2+4, 8 und 4+8 Kerne bereits als Monolithen fertigt, würde ich bei einer Umstellung der Epycs auf 16 Kerne als kleinste Einheit eher damit rechnen, dass MCM komplett aus dem Desktop verschwindet und stattdessen ein 8+8 Monolith (oder Tile-Design) kommt. Ein extra Package und einen extra (IOD-)Chip nur für Ryzen 9 zu entwickeln wäre vermutlich genauso teuer und würde AMD weiterhin zu Kompromissen zwischen Server- und Desktopanforderungen im CCD-Design zwingen.

Ich persönlich würde aber auch noch kein Geld auf "16er CCD"-Meldungen verwetten. Auch bei den Epycs gibt es einen Markt für Konfigurationen mit relativ wenig Kernen, die man effizient bedienen möchte, während das wirklich extreme Multithreading am oberen Ende eher von Zen6c bedient wird. Wieso also nicht bei acht bleiben? Weil sich ein paar Enthusiast-Gamer einen 16er Block wünschen? Die wünschen sich so manches, was sie nicht bekommen.
Reines Wunschdenken:
Ich hab' auch schon überlegt wie viel Geld man sich da wirklich sparen würde bei einem 16-Kern CCD. Noch dazu da von Intel keine Gefahr droht im Moment ist es auch nicht notwendig die bessere Latenz zu nutzen.
Ich könnte mir aber vorstellen, dass es ab irgendeinem Punkt Vorteile gibt wenn man einen 32-Kern CCD bringt (also den 16er gleich überspringt), damit man im Serverumfeld nicht 4, 8 oder 16 CCDs verbauen muss sondern eben 1, 2 oder 4.
Bei den 32 Kern CCDs könnte es dann natürlich teildefekte Chips geben die wir als "native 16" oder 24 (bzw. irgendwas dazwischen)-Kerner auch im Threadripper oder Desktop sehen könnten.
Unter der Annahme, dass dies sowieso Chips wären die jenseits der 800€ über den Laden gehen, selbst als "nur" 16-Kerner braucht man sich wegen der paar Euro zusätzlicher Herstellungskosten keine Gedanken machen. Wie groß ist ein 8 Kern CCD in 5nm und wie groß wäre ein 32 Kern CCD dann?
Inwiefern das realistisch ist, weiß ich nicht, dazu müsste ich mal einen Blick auf die Excel-Tabellen bei AMD werfen dürfen ;-)
 
Zuletzt bearbeitet:
3nm gilt als sehr sicher für Zen 6 und die RDNA4 Nachfolger sowie Geforce 6xxx.
Ich darf gar nicht daran denken, was uns das dann kosten wird. Da ich mich zukünftig mit den 70er Karten zufrieden gebe, komme ich vielleicht etwas günstiger weg, als noch mit den 80er.
Oder AMD bringt mal was mega spannendes und ich wechsel doch mal - ich bin da offen.
 
Ich darf gar nicht daran denken, was uns das dann kosten wird. Da ich mich zukünftig mit den 70er Karten zufrieden gebe, komme ich vielleicht etwas günstiger weg, als noch mit den 80er.
Oder AMD bringt mal was mega spannendes und ich wechsel doch mal - ich bin da offen.
seh' ich ähnlich.
AMD oder Intel sind durchaus in der Wahl mit drin, Preis/Leistung muss passen.
Meine nächste GPU soll ordentlich Raytracing-Power haben.
Die 5090 schafft Cyberpunk in 4K "overdrive" nativ ohne DLSS ja immerhin schon mit ca 25 fps ^^.
Wär mal cool wenn was kommt, dass es ohne DLSS undCo schon auf 50+ schafft.
 
Die 5090 schafft Cyberpunk in 4K "overdrive" nativ ohne DLSS ja immerhin schon mit ca 25 fps ^^.
Ich selbst habe Cyberpunk nie gespielt, aber macht es denn Sinn ein Titel als Messlatte für alles zu nehmen? Ich meine die anderen 30-40 Games, welche du vielleicht besitzt, müssten doch mit Bravour laufen?!
 
Zuletzt bearbeitet:
Ich selbst habe Cyberpunk nie gespielt, aber macht es denn Sinn ein Titel als Messlatte für alles zu nehmen? Ich meine die anderen 30-40 Games, welche du vielleicht besitzt, müssten doch mit Bravur laufen?!
Du hast natürlich recht, die laufen schon jetzt mit Bravour :)
Aber ich spiele ja auch kein 4K, ich hab' nämlich ohnehin ein in meine Augen eingebautes "Antialiasing" :D (Astigmatismus, ich seh nicht 100% scharf von daher ist mir Auflösung schnuppe! HA! das erspart mir natürlich viel Geld :D ).

Aber volles Pathtracing mit Leistungsreserven wär natürlich wünschenswert, wenn ich das nächste Mal wieder Geld in die Hand nehme. Und Cyberpunk ist sowas wie der Benchmark. Genauso Alan Wake und andere.
Das ist wie früher, als ich mir meine Computer dann gekauft hab' wenn ein neues ID Spiel rausgekommen ist, weil die anderen, nachfolgenden Spiele auch noch 100%ig liefen.

Ich mach' aber um Ray/Pathtracing momentan noch einen Bogen.
Als jemand der sich seit 25 Jahren damit beschäftigt bin ich natürlich auf die ersten guten Echtzeit-Raytracingspiele gespannt. Aber ich warte die "halbgaren" Spiele noch ab (ist quasi bislang ja "Early Access" in meinen Augen). Vielleicht hält mein PC ja auch noch bis zur nächsten Konsolen-Generation durch, wo es dann endlich zum Durchbruch kommen könnte, wenn AMD ordentlich RT Power zur Verfügung stellt.
 
Zuletzt bearbeitet:
Ist eine Mischung der Kerntypen schon vom Tisch?
Ich dachte eigentlich mit zen6 sollten normale und c-Kerne in einem CCD kommen.
Oder meint ihr das Konzept fahren sie weiter nur bei den Monolithen?
 
Zurück