Der Sprung wäre ganz schön krass für mid-season. Ich weiß nicht genau was ich davon halten soll.
Warum krass?
Das bisher einzige und jüngste mid-Generation Upgrade war die PS4 Pro und die Series X.
Und deren Sprünge waren größer. Bei der PS4 Pro etwas mehr als doppelte Leistung, bei der One X mehr als die dreifache Leistung.
Wenn die neue GPU 60 CUs hat ist sie nichtmal doppelt so schnell wie die PS5. Eher so ca +80%.
Praktisch würde das wahrscheinlich einer RX 7800 XT entsprechen. Die hat auch 60 CUs. Und damit fast gleich schnell wie eine RX 6800XT. Vermutlich wird sie auch noch runtergetaktet.
P/L mäßig ist das natürlich trotzdem ziemlich gut, wie auch schon die bisherigen Konsolen.
Allerdings würde ich mir dann eine X3D-Variante und wenigstens 20 GiB Speicher wünschen. Aber gut, die Erfüllung solcher Wünsche würde den Preis natürlich ordentlich hochtreiben.
Aber gerade ein Cachemonster in Form der CPU wäre für eine Konsole einfach so dermaßen ideal. Bringt in vielen Spielen Leistung ohne Ende (und bei einer viel verkauften Konsole würden viele Entwickler wohl auch darauf achten, dass ihre Games davon möglichst profitieren)
Die CPUs der aktuellen Konsolen haben kleinere Caches als die Varianten für den Desktop. Als Ausgleich gibt‘s eben die hohe Bandbreite des GDDR Shared Memory. Fällt wohl unter Kosteneffizienz.
Würde mich wundern, wenn man von dem Konzept jetzt abweicht. Ich vermute mal, dass mehr Cache bei der Konsolenarchitektur gar nicht so viel bringen würde.
Abgesehen davon will man nicht dass Spiele für viel Cache „optimiert“ werden. Das wäre das Gegenteil von optimieren und vergleichbar als würde man sagen, man will Spiele, die viel RAM nutzen oder mehr VRAM brauchen. Also kurz gesagt, man will Spiele die mehr Ressourcen nutzen, ergo höhere Anforderungen stellen.
Eigentlich will man dass Spiele möglichst effizient mit Cache, RAM, VRAM und Rechenleistung umgehen. Wenn die ressourcen wirklich gebraucht werden, ok. Aber brauchen des brauchens willen ist Unsinn.
Ein Spiel das 40-50% durch den 3D Cache gewinnt ist eigentlich schlecht, weil dann entweder alle normalen CPUs viel zu wenig Cache (cache = bottleneck) haben und wahnsinnig viel Leistung auf der Strecke bleibt und den Anforderungen nicht gerecht werden oder das Spiel ist sehr schlecht optimiert.
Man muss immer bedenken, dass die 3D Cache CPUs nicht „schneller“ werden durch den 3D Cache. Es ist eher so dass die non3D CPUs bei cache mangel langsamer laufen. Das was man also vermeintlich dazugewinnt ist im Endeffekt eigentlich nur das was die normalen CPUs aufgrund zu wenig Cache einbüßen müssen. Positiv ist daran rein gar nix.
Klar freut man sich als 3D Cache CPU besitzer wenn die CPU davon profitiert. Tu ich ja auch. Aber generell ist das nicht das was man sich wünscht. Wenn 50% Rechenleistung liegen bleiben, nur weil der Cache nicht reicht, dann ist das einfach Mist.