News Zen 6: Ryzen X ("Medusa") nutzt neuen 2.5D-Interconnect für deutlich mehr Bandbreite [Gerücht]

Mein X370er Chipsatz lächelt nur müde, das MB ist mit Marktstart des 1600X in den PC gewandert und macht mit dem 58003DX sicher noch einige Jahre mit 😁.
Was bin ich froh das eine Mal ein teures Board geholt zu haben. Ich hatte ja geplant es lange zu behalten, aber so lange? Damit hab ich nicht gerechnet.
Ist doch schön wenn man so die Zeit bis AM6 überbrücken kann, hatte mir auch zum Start von Ryzen 1000 extra eines teuren X370 Boards von Gigabyte geholt in der Hoffnung das bekommt noch die letzte AM4 CPU.
Jetzt muss man nur hoffen das die Boards einfach so lange überleben.
 
Zumindest versucht uns das die Industrie weiszumachen. Ich würde es eher so formulieren wollen, dass nur über Fortschritt ein höherer Preis realisieren lässt, hat der VK selbst doch absolut keinen realen Bezug zur Herstellung. Hier gilt es nur auszuloten welcher Preis sich max. am Markt erzielen lässt. Wie gesagt, die reinen Herstellungskosten dürften sich auf 1 Zehntel belaufen.
Hätte, könnte, dürfte, würde. Ohne Insiderinformationen einfach mal Spekulatius und Kristallkugel daheim lassen. Fakt hingegen ist, der Aufwand durch die neuen Standards ist gestiegen.

Bis also Grafikkarten rauskommen, die so viel Leistung in 4K bringen, dass meine CPU limitiert/Spiele so aufwendig werden, dass ein 3900X/5800X3D limitiert, vergeht noch viel Zeit.
Der 3900X ist Zen 2. Den bekommst du schon jetzt mit Leichtigkeit ans Limit.
 
Fakt hingegen ist, der Aufwand durch die neuen Standards ist gestiegen.

Nur war das nicht schon immer so, dass der Fortschritt an sich auch nach unten hin Einzug hält? Der Argumentation zur Folge müssten sich in sämtliche Produktgruppen – also überall dort, wo Innovation Einzug hielt – sich die Preise verdoppeln, oder gar verdreifachen.

Was hier gerne ausgeblendet wird, dass Fortschritt keine Einbahnstraße ist, sondern auch in der Herstellung Anwendung findet!

Hätte, könnte, dürfte, würde. Ohne Insiderinformationen einfach mal Spekulatius und Kristallkugel daheim lassen.

Warum führst du dann ein Fakt an, wenn du diesen nicht mit konkreten Zahlen untermauerst und dich stattdessen nur auf Hörensagen berufst? Glaubst du ernsthaft die Mär, von den exorbitant gestiegenen Kosten?

Wenn du ein Fakt anführst, erwarte ich eine seriöse Quellangabe und kein Marketing Geblubber!

mit frdl. Gruß
 
Zuletzt bearbeitet:
Ist doch ziemlich logisch.
Wenn jetzt keine GPU in der Auflösung die Leistung der CPU voll abfragen kann, benötigt er kein CPU Upgrade.
Nein, es ist nicht logisch, weil die Prozessorleistung keine Auflösungssache ist.

Ich denke er bezieht sich dabei auf das Gesamtkonzept.
[...]
Daher muss man wohl auch immer auf die CPU achten.
Ich stimme Dir zu. Anhand der Formulierung merkt man aber, dass hier grundlegene Dinge nicht verstanden wurden. Darauf wollte ich mit meiner (vermeintlich triggernden) Frage hinaus.

Gegenfrage: Warum sollte ich meine CPU aufrüsten, wenn nur meine GPU limitiert? Und je höher die Auflösung, desto "mehr"/eher limitiert die Grafikkarte.
Jetzt wird ein Schuh draus. Dann schreibe das doch so. :)

Es kommt immer auf die Spiele an, die man spielt. Diese fehlen in Deiner Aussage. Man bekommt in manchen Szenarien auch einen getunten 7800X3D oder 14900K in UHD klein und dafür braucht es zum Teil nicht einmal eine RTX 4090. Es kommt aber sicher auch immer darauf an, was man überhaupt für eine Framerate anstrebt.

Bis also Grafikkarten rauskommen, die so viel Leistung in 4K bringen, dass meine CPU limitiert/Spiele so aufwendig werden, dass ein 3900X/5800X3D limitiert, vergeht noch viel Zeit.
Dir ist eine RTX 4090 zu schwach?

Man profitiert übrigens auch im GPU-Limit von einer stärkeren CPU, was sich vor allem in höheren Perzentilen niederschlägt. Das wird umso wichtiger, desto höher die Framerate wird, die man anstrebt.

Ob meine SSD mit PCIe 4.0 oder 5.0 ist mir als Gamer/"Otto-Normal"-User doch komplett egal, ich merke davon sowieso nichts.
Stimme ich zu.
 
Warum führst du dann ein Fakt an, wenn du diesen nicht mit konkreten Zahlen untermauerst und dich stattdessen nur auf Hörensagen berufst?
Das hat nichts mit Hörensagen sondern logischen denken und technischem Verständnis zu tun.

Glaubst du ernsthaft die Mär, von den exorbitant gestiegenen Kosten?
Kannst oder willst du meine Beiträge nicht richtig lesen? Ich hab doch eindeutig geschrieben, dass die aktuellen Mainboardpreise auch durch höhere Margen zustande kommen. Es ist einfach so lästig geworden mit Leuten zu reden, die weder lesen können noch einen Hauch technisches Verständnis mitbringen.

EoD.
 
Du wirst doch wohl in der Lage sein, dass auch zum Ausdruck zu bringen!

Fakt hingegen ist, der Aufwand durch die neuen Standards ist gestiegen.

Hier hingegen hört sich, dass so an, als wäre dies alleinig den neuen Standards geschuldet.

Wenn du ein Fakt anführst, erwarte ich eine seriöse Quellangabe und kein Marketing Geblubber!

mit frdl. Gruß
 
Nein, es ist nicht logisch, weil die Prozessorleistung keine Auflösungssache ist.
Achso, da würd ich bei @PCGH_Dave, oder Carsten Spille nochmal schnell zur Schule gehen ^^ Warum werden 720p CPUs getestet:
 
Achso, da würd ich bei @PCGH_Dave, oder Carsten Spille nochmal schnell zur Schule gehen ^^ Warum werden 720p CPUs getestet:
Möchtest Du mich trollen? Eine CPU liefert immer dieselbe Leistung, egal in welcher Auflösung Du testest. Man muss nur sicherstellen, dass sie nicht durch etwas anderes limitiert wird, egal ob 1p, 666p oder 1337p...
 
Möchtest Du mich trollen? Eine CPU liefert immer dieselbe Leistung, egal in welcher Auflösung Du testest. Man muss nur sicherstellen, dass sie nicht durch etwas anderes limitiert wird, egal ob 1p, 666p oder 1337p...
Die Frage ist: Willst Du trollen?

Ist doch ziemlich logisch.
Wenn jetzt keine GPU in der Auflösung die Leistung der CPU voll abfragen kann, benötigt er kein CPU Upgrade.
Nein, es ist nicht logisch, weil die Prozessorleistung keine Auflösungssache ist.
Was hat er geschrieben? Hmmm... Ach ja CPU ist irrelevant, also logisch, das ein CPU-Upgrade unnötig ist!
 
Möchtest Du mich trollen? Eine CPU liefert immer dieselbe Leistung, egal in welcher Auflösung Du testest. Man muss nur sicherstellen, dass sie nicht durch etwas anderes limitiert wird, egal ob 1p, 666p oder 1337p...
Stimmt so nicht. In 3440*1440 zb. hast du eine höhere CPU last als in 1920*1080 oder 3840*2160.
 
Stimmt so nicht. In 3440*1440 zb. hast du eine höhere CPU last als in 1920*1080 oder 3840*2160.
Okay, fair enough. Hier änderst Du aber auch den Bildausschnitt. Wenn mehr Objekte dargestellt, also auch berechnet werden müssen, muss der Prozessor natürlich mehr leisten (4:3 < 16:9 < 21:9 < 32:9).

Ich bin jetzt einfach mal davon ausgegangen, dass sich auf 16:9 Auflösungen bezogen wird.

Erhöht (oder reduziert) man aber die Auflösung aber innerhalb eines bestimmten Bildformates, dann bleiben die Anforderungen an die CPU immer gleich (also auch 2560 x 1080 = 3440 x 1440 = gleiche CPU-Last).
 
Dir ist eine RTX 4090 zu schwach?

Man profitiert übrigens auch im GPU-Limit von einer stärkeren CPU, was sich vor allem in höheren Perzentilen niederschlägt. Das wird umso wichtiger, desto höher die Framerate wird, die man anstrebt.
Nein, aber zu teuer. Ich gebe 500-600€ für eine Grafikkarte aus, aber keine 1000€+...klar finde ich da dann Grafikkarten, die auch in 4K durch die CPU limitiert werden. Deswegen habe ich aber auch extra die verwendeten Grafikkarten dazu geschrieben.

Dann kann man sich wohl denken, dass ich nicht bereit bin für eine 4090 zu zahlen - was man sich aber denken konnte. Aber das ist mir zu blöd hier, wenn man jede Aussage Wort für Wort nimmt und man nicht weiter darüber nachdenkt, was die Person damit gemeint haben könnte (dass man das als Gesamtheit betrachten muss etc.)

Und ja, das impliziert auch, dass ich tendenziell Spiele spiele, die nicht großartig CPU intensiv sind. Hier auch noch einmal extra aufgeschrieben für Leute, die sich das nicht denken können.
 
Aber bisher muss man AMD ja attestieren, dass sie bei AM4 geliefert und ihr Wort gehalten haben.
Stimmt (fast) bzw. ist auch eine interpretations Frage.
Wenn man ein 5800x3D (2022) oder ein 5950x (2020! ) besitzt hat man nicht wirklich Glück im Jahr 2023 gehabt.
Für 2024 dürfte da auch nichts mehr kommen. (schnelleres!)
Man kriegt zwar neue Treiber und das ist doch auch was wert.

Bin aber zufrieden (im Vergleich was gibt bzw. was das neue kosten würde).
Zwar juckt es aber weder AM5 noch die akt. Threadripper haben es mir wirklich angetan.
 
Wenn man ein 5800x3D (2022) oder ein 5950x (2020! ) besitzt hat man nicht wirklich Glück im Jahr 2023 gehabt.

Das gilt ausschließlich für diese beiden Probanden. Der Rest hat sich 2023 erheblich verbilligt, so dass ich dies auch unter Glück verbuchen würde.

Bestpreise 2023:

[cyberport - Abholung] AMD Ryzen 7 5800X, 8C/16T, 3.80-4.70GHz, boxed ohne Kühler (mit Versand 160,89 €) 153,90€

AMD Ryzen 7 5700X 8x 3.40GHz So.AM4 WOF versandkostenfrei über mindstar 149€

AMD Ryzen 9 5900X, 12C/24T, 3.70-4.80GHz, boxed ohne Kühler 242,95€

Ryzen 5 5600 nonX wie der G lagen bei um die 109,- Euro.

Rechnet man/n jetzt noch den Preis für den Unterbau, wie RAM aus dem Abverkauf dazumal hinzu, dürfte, dass fast als unschlagbar durchgehen und abseits der Enthusiasten hier nach wie vor mehr als brauchbar.

mit frdl. Gruß
 
Zuletzt bearbeitet:
Nein, aber zu teuer. Ich gebe 500-600€ für eine Grafikkarte aus, aber keine 1000€+...klar finde ich da dann Grafikkarten, die auch in 4K durch die CPU limitiert werden. Deswegen habe ich aber auch extra die verwendeten Grafikkarten dazu geschrieben.

Dann kann man sich wohl denken, dass ich nicht bereit bin für eine 4090 zu zahlen - was man sich aber denken konnte. Aber das ist mir zu blöd hier, wenn man jede Aussage Wort für Wort nimmt und man nicht weiter darüber nachdenkt, was die Person damit gemeint haben könnte (dass man das als Gesamtheit betrachten muss etc.)

Und ja, das impliziert auch, dass ich tendenziell Spiele spiele, die nicht großartig CPU intensiv sind. Hier auch noch einmal extra aufgeschrieben für Leute, die sich das nicht denken können.
Alles gut. Es war nicht meine Absicht Dich aus der Reserve zu locken. Ich kann aber eben halt nur von dem ausgehen, was ich lese. Sorry an der Stelle. :)
 
dann ist ein Chiplet mit 32 E Kernen unterwegs,
Wem wollen die in den Arsch treten?

Einer dann 2 Nodes schlechteren Architektur? Wobei selbst das dürfte nur gelingen weil AMD im Desktop bisher mit 16 Kernen auskommt. Die könnten jederzeit 32 Kerne und mehr bringen.

Will AMD nicht zu sehr loben, aber Zen und seine Ausbaustufen sind mind. Auf dem Niveau von Intels Arch, plus eben Fertigungsvorteil, dafür auch noch deutlich variabler als Intel wie man abseits des Desktop Marktes sieht.


Intel muss das Taktproblem in den Griff kriegen, IPC in dem Maß wird für keine der kommenden Architekturen erwartet, vielleicht wird man in der übernächsten zu Zen4 aufschließen, selbst das ist noch nicht ganz klar. Wenn aber wie bei Meteor vermutet, der Takt nicht kommt, wird man gegen AMD nur wenig Land sehen.
 
Zurück