Playstation 5 und Xbox Series X: Ex-Microsoft-Manager hält "Midseason-Upgrade" für unwahrscheinlich

[...] ab 2022 bekommen PC Spieler vorraussichtlich Zen 5, DDR5 Ram und PCI-E 5.0 [...]

Liest sich ja phantastisch, ist aber unzutreffend. 2022 kommt Zen4 (nicht 5, wahrs. ein Typo?), DDR5 im Consumer-Segment ist sehr wahrscheinlich, PCIe5 ist dagegen eher sehr unwahrscheinlich; das wird vorerst Servern vorbehalten bleiben.

Glaube nicht dass die Konsolenhetsteller und gerade Entwickler Lust haben 8k zu bedienen in den nächsten 4-5 Jahren. [...]

Ich glaube "Lust" ist hier aus weniger die Triebfeder, sondern es geht schlicht darum einen kompetetiven Vorteil zu erhalten und den Absatz anzukurbeln. *) Das Problem ist nur, dass nicht einmal die dieses Jahr erscheinenenden HighEnd-GPUs von nVidia und AMD sich für 8K eignen werden (auch nicht mit deaktiviertem Raytracing), d. h. die Konsolen sind davon soweit weg wie nur irgend denkbar und da würde auch ein kleineres Update mit ein paar mehr CUs nicht helfen.
Die Konsolen sind primär auf 4K ausgelegt und werden für hohe FPS, teilweise dennoch regulär auf Upscaling zurückgreifen müssen. 8K gibt es hier primär nur mit Blick auf die Streaming-Funktionalität.
Zudem ist auch immer zu beachten, dass ein solches Upgrade immer auch die Basis zweizuteilen droht, d. h. man kann hier technisch nicht allzuviel implementieren außer ein paar grafischen (aber spieltechnisch irrelevanten) Gimicks mittels mehr CUs. So einen Spaß wie 12 Kerne, 60 CUs und 24 GiB wird es zweifelsfrei nicht als Refresh geben, denn man könnte den Kunden schlecht erklären, dass das grundsätzlich überall spielbare Spiel leider unter einem totalen Immersionsverlust leidet auf der regulären Series X oder PS5, weil hier die Crowd-Dichte weitaus geringer ist und die KI und Wegfindung deutlich dümmlicher zu Werke gehen muss aufgrund der beschränkten Ressourcen. ;-)

*) Die Displayhersteller versuchen ja nicht 8K in dem Markt zu bringen, weil 4K völlig unbrauchbar ist und es sich anfühlt darauf einen Film zu schauen wie zu Anfang den 20. Jahrhunderts. FullHD ist brei implementiert, 4K war der nächste Schritt um die Absatzspirale erneut anzukurbeln und jetzt kommt in der gleichen Art 8K. Nur dass die Industrie mittlerweile das Problem hat, dass es zunehmend schwieriger wird den Käufern zu erklären, warum man jetzt unbedingt zu einem 8K-Gerät greifen und dafür deutlich tiefer in die Tasche greifen sollte. (Und hinzu kommen weitere Probleme wie die Physiologie unserer Wahrnehmung sowie bzgl. 3D-Rendering das technische Dilemma der immer höheren Kosten in allen Teilbereichen.)
 
Zuletzt bearbeitet:
Den Wechsel von Röhre auf Flachbildschirme mit HD-Ready, oder FHD kann man nicht vergleichen mit dem Upgrade auf 4K, oder gar 8K, da die Vorteile von dicken SD-Bildschirmen auf flache HDs, ein riesiger Schritt war.
In europäischen Haushalten liegt der Anteil an 4K-TVs bei ca. 30%, Nach wie vielen Jahren wo es bereits 4K-TVs gibt?

mfg
Man muss es aber auch mal von der Kaufanreizseite betrachten. Bei 4K haperts leider immer noch in der Breite an Content und somit aktuell auch noch an einem echten killer Kaufargument für viele mit guten HD Geräten. Als FHD sich etabliert hatte gab es zwar, genauso wie heute leider auch noch, von TV Senderseite wenig HD Material dafür aber DVDs samt günstiger Player. Dann kamen (UHD)Bluerays die sich bis heute aber bei der breiten Masse nicht durchgesetzt haben und jetzt gesellt sich langsam UHD streaming mit Netflix und Co dazu. Zu guter letzt ist die Qualität der 4K TVs im unteren Preissegment auch jetzt erst in der Breite auf einem Level angelangt wo man aktuell auch beim günstigeren TV Neukauf einfach keinen Grund mehr findet noch einen mit HD statt 4K zu nehmen.
 
Zuletzt bearbeitet:
Diese Mid-Season Upgrade Geschichte halte ich für die aktuelle Lage ebenfalls überflüssig. Lieber die Zyklen zwischen den Geräten auf 5 Jahre heruntersetzen und die Abwärtskompatibilität wahren, davon hat man auf Längere Sicht mehr.
Wie schon angedeutet war das Upgrade der Current gen dem Aufkommen von 4K geschuldet, das gleiche wird sich mit 8K so schnell nicht wiederholen. Nach Jahren setzt sich jetzt 4K durch die Bank bei den Panelherstellern endlich als Standard durch, von bezahlbaren 8K Geräten sind wir noch Jahre entfernt. Content in 8K gibt es sowieso praktisch keinen, für die meisten 0815 Fernsehnutzer fehlst es ja selbst beim 4K Content.
 
Ich glaube eine Upgrade-Konsole würde Raytracing gut zu Gesicht stehen. K.A warum er diesen Punkt nicht erwähnt hat aber die kommenden Konsolen werden dort etwas zu wenig Power haben und wenn man das GI nochmal mehr pushen will, so würde mehr RT-Leistung wohl von einigen Entwicklern mit Kusshand genommen werden.
 
Daher gehe ich persönlich nicht davon aus dass man 8k-Zwischengen sehen werden. Wird nicht mal am PC in den nächsten Jahren großes Thema sein.
Ich glaube eine Upgrade-Konsole würde Raytracing gut zu Gesicht stehen.
Ja eben, für neue Techniken wie RT und Co braucht man Mehrleistung. Das Thema 8K kann man ganz schnell ad acta legen. 4K ist die nächsten Jahre absolut ausreichend. Und wie Kuro schon meinte, wer hat bitte schön 80"+ TVs bei sich zuhause stehen.
Und wenn man wie in der UE5 Demo drölf Zilliarden Polygone darstellen will, braucht es auch Leistung.;)
 
Korrekt die meisten konsolen spieler wissen nicht mal was fps sind.

Braucht man auch nicht. :P
Wenn es unrund läuft / hackt / ruckelt ist eben was nicht i.O.

Toll wäre wenn es die Möglichkeit gäbe selber zu entscheiden ob man besseres Bild oder mehr FPS ( ~sanfteren Bildaufbau => bitte Marketing Blah einsetzen.)
 
Toll wäre wenn es die Möglichkeit gäbe selber zu entscheiden ob man besseres Bild oder mehr FPS ( ~sanfteren Bildaufbau => bitte Marketing Blah einsetzen.)

Diese Möglichkeit bieten manche Spiele, wie God of war, bei der PS4 Pro schon, wo Du zwischen höherer Auflösung bei 30fps und geringerer Auflösung mit 60fps wählen kannst.
 
Wenn ich nich son kleiner Fanboy wär dann hätte meine Release-PS4 die gesamte Lebensspanne bis zur PS5 durchgehalten ohne dass ich die Pro wirklich gebraucht hätte. :P
 
Braucht man auch nicht. :P
Wenn es unrund läuft / hackt / ruckelt ist eben was nicht i.O.

Toll wäre wenn es die Möglichkeit gäbe selber zu entscheiden ob man besseres Bild oder mehr FPS ( ~sanfteren Bildaufbau => bitte Marketing Blah einsetzen.)
Gibt es ja bei diversen Spielen von MS und Sony wohl auch aber ganz ehrlich, ich denke der große Teil der Spieler interessiert das einfach nicht. Ist mehr so ein PC Ding, mit den 60 fps+ ;)

MfG
 
Wenn es so PC Ding ist warum laufen dann oft Nintendo Games mit 60fps?^^

GT7 und Dirt 5 werden auch schon mit 120fps Mode beworben. Kann mir sogar vorstellen dass MS bei Halo einen Mode mit mehr als 60fps anbietet. Games wie Overwatch 2 dann auch auf Konsole höheren Modus haben.
MS hat sogar 1440p Ausgabe in die Xbox One X gepatchet obwohl es reine PC Sache und nur für Monitore ist.

Kommt halt auf das Marketing an. Wenn es dann heißt Konsole X hat 90fps Mode und Konkurrent Y 120fps dann würde es durchaus wieder ähnlich wie 2013/14 mit 900p vs 1080p bei der Auflösung zugehen. Dabei interessiert es doch gar nicht ob man wirklich viel Unterschied hat oder erkennt aber auf den Papier ist es halt Ecke besser. Newsseiten werden es für Klicks schon in Szene setzen.

Vereinzelnd kann ich mir schon vorstellen dass man Abseits der Exklusivtitel und Open World Games (die halt Leistung fressen) durchaus höhere Frameraten auch auf PS5 und Serie X bei bestimmten Titeln vermarkten will. 120Hz tauglichen TV dürfe mehr vertreten sein als 8k Geräte die nächsten Jahre. Schon TVs vor 2-3 Jahren konnten zumindest 1080p/120Hz bereitstellen. 1440p/120Hz gab es dann bei paar Samsung bis dann LG 4k/120Hz tauglich wurde.

Gibt ja auch mittlerweile den Trend bei Handy und Tablet mit 120Hz Bildschirmen zu werben weil man mit Auflösungsschlacht kaum weiter kommt. Was auch Leute mit höherer Bildwiederholrate in Kontakt treten lässt.
 
Zurück